第三章 人机大战:AI真的会挑战人类?(第8/15页)

霍金的忧虑

担忧超人工智能,对人类未来持悲观态度的人不少。其中,理论物理学家、《时间简史》的作者霍金是最有影响的一个。早在谷歌Alpha Go在公众中掀起AI热潮之前,霍金就通过媒体告诉大家:“完全人工智能的研发可能意味着人类的末日。”67

作为地球上少数有能力用数学公式精确描述和推导宇宙运行奥秘的人之一,霍金的宇宙观和科技史观无疑是值得重视的。事实上,霍金并不否认,当代蓬勃发展的人工智能技术已经在许多行业发挥着至关重要的作用,但他所真正忧虑的,是机器与人在进化速度上的不对等性。霍金说:“人工智能可以在自身基础上进化,可以一直保持加速度的趋势,不断重新设计自己。而人类,我们的生物进化速度相当有限,无法与之竞争,终将被淘汰。”

此外,霍金同时还担心人工智能普及所导致的人类失业问题。霍金说:“工厂自动化已经让众多传统制造业工人失业,人工智能的兴起很有可能会让失业潮波及中产阶级,最后只给人类留下护理、创造和监督工作。”68

基本上,霍金的担忧还是建立在人工智能技术将以加速度的趋势不断增速发展的基础上。如果我们假设这一基础的正确性,那么,霍金的逻辑推论与我们之前谈到的“奇点”理论并没有本质的区别。反之,如果人工智能在未来的发展不一定永远遵循加速趋势,那么,霍金有关人类终将被淘汰的结论就未必成立。

特斯拉与Space X公司创始人,被誉为“钢铁侠”的埃隆·马斯克(Elon Musk)与霍金有大致相似的担忧。马斯克说:“我们必须非常小心人工智能。如果必须预测我们面临的最大现实威胁,恐怕就是人工智能了。”69

事实上,从行动上看,霍金和马斯克并不是简单的悲观主义者,他们在警告世人提防人工智能威胁的同时,也在积极行动,试图为人类找出应对未来潜在威胁的对策。马斯克说:“我越来越倾向于认为,也许在国家层面或国际层面,必须有一种规范的监管机制,来保证我们不会在这方面做任何蠢事。”

除了呼吁建立监管机制外,马斯克还与萨姆·奥尔特曼(Sam Altman)一起创立了非营利性质的科研公司Open AI。谈到创立Open AI的初衷,马斯克说:“为了保证一个美好的未来,我们最需要做什么?我们可以冷眼旁观,我们也可以鼓励立法监管,或者,我们还可以将那些特别关心如何用安全的、对人类有益的方式来开发AI的人合理地组织起来研发AI。”70

如果说这个世界上还有几家纯粹理想主义的公司的话,Open AI一定算一个。Open AI一面聚集了一批AI领域的顶尖高手,研发最前沿的AI技术(主要是强化学习和无监督学习技术),甚至探索实现强人工智能的可能性;一面反复强调自己的使命是研发“安全的”人工智能,通过实践来探寻将人工智能技术的潜在威胁降至最低的方法。

马斯克和奥尔特曼的Open AI看上去是在做一件自相矛盾的事情:既积极地研发人工智能甚至是强人工智能,又希望将人工智能关在道德或制度的“牢笼”里,让AI难以威胁人类。事实上,目前Open AI所开展的工作,和其他人工智能科研机构所做的并没有本质的不同。据说,Open AI的研究总监伊尔亚·苏茨克维(Ilya Sutskever)表示,Open AI最重要的目标,就是发表有影响力的文章71。或许,马斯克和奥尔特曼的意思是说,既然奇点来临无法避免,那不如积极投入,至少,当威胁来临时,我们对威胁本身的理解会更加深刻。

2017年年初,霍金和马斯克均表示,为了防止人工智能威胁人类,他们支持加州阿西洛马(Asilomar)会议通过的23条基本原则72。这23条基本原则涵盖了三个范畴:1)科研问题;2)伦理和价值观;3)长期问题。

阿西洛马23条基本原则像科幻大师阿西莫夫笔下著名的“机器人三定律”一样,从方法、特征、伦理、道德等多方面,限定未来的人工智能可以做什么,不可以做什么。例如,有关人工智能相关的伦理和价值观,其中几条原则是这样规定的:

·安全性:人工智能系统应当在整个生命周期内确保安全性,还要针对这项技术的可行性以及适用的领域进行验证。

·价值观一致性:需要确保高度自动化的人工智能系统在运行过程中秉承的目标和采取的行动,都符合人类的价值观。

·由人类控制:人类应当有权选择是否及如何由人工智能系统制定决策,以便完成人类选择的目标。