2018年3月14日,被誉为20世纪最伟大的物理学家史蒂芬·霍金逝世,全世界都表达了对这名伟人的缅怀之情。同时也为他留下的一些人类发展预言有着担忧,其中关于人工智能的发展,霍金在去年11月份的时候说过,如果人工智能不加以控制的话,或许第三次世界大战将引爆。
现在世界各国都在大力发展人工智能,可以说人工智能已经广泛使用在各个领域,最为关键的是军事上的应用,比如作战机器人和无人机,当人工智能发展到一定程度的时候很有可能机器人和无人机将不再受人类的控制,有了自己的意识而引发一系列杀戮导致人类世界混乱。
可能这个预言很多人无法全盘接受,但是也有不少人开始担心人工智能是不是一种仿生学,会不会威胁到人类的安全。
作为现代科技类公司巨头之一的百度创始人李彦宏在去年表示出自己对于人工智能的态度是乐观的。但是在今年的数博会上却表示了自己对于人工智能的担心,他提出的AI伦理原则有四点,第一原则是安全可控是最高原则;第二是促进人类平等地获得技术和能力是创新愿景;第三个则是人工智能的存在价值不是超越人、代替人,而是教人学习和成长;第四个是人工智能的终极理想应该是带给我们更多的自由和可能。
对人工智能有辩证的认识也是发展的一部分,未来人工智能的走向和终极发展形态如何,到底是人类驾驭人工智能还是人工智能反过来超越人类,这个只能由时间来见证。