11 美丽新世界 严肃新问题(第5/9页)

大数据和数学方法的发展使我们已经可以把很多人类学现象数字化,但依然不足以研究人类。帕里西说:“(这些方法)甚至未曾试着去识别隐藏于这些行为现象和社会现象之后的机制与过程,更不要说去解释了。”

人工智能为表达关于人类的科学理论提供了新的可能,帕里西提出了“作为人工构造的理论”(theories as artefacts)——创造人工构造(类人机器人)来代替研究。这个理论基于这样一条原则:“无论X是什么,要理解X,就必须以人工对其进行再现。”如果你的理论不好,人工构造就无法造出来。如果你能造出类人机器人,就说明你的研究成功了。从根本上说,这是把研究和实践统一了,研究就是实践,实践就是研究。这个过程除了可以克服前面所说的人文学科问题,还能把多种学科诸如社会学、心理学、生物学、政治学、语言学、经济学、文史哲等整合在一起,打破目前各类学科机械分割的局面。

帕里西认为,目前的机器人或者人工智能与人的区别在于,人的思维中包含了动机与认知两种模式。人的任何行为都有动机,比如为了吃喝与生存、为了安全与繁殖、为了荣誉与理想等。而现有的机器人只有认知,无所谓动机,因为它的目的是由人设定的。机器人只是工具,为了满足人的特定需要而存在。

但是机器人可以是人的影子,为此他区分了两类机器人:实用机器人和类人机器人。后者正是科学家需要的。前者只有认知思维,后者却设定了动机,比如设定机器人需要定期获取能量以求得生存。具体做法是在计算机中构造一个机器人程序,可以为它装配饥饿传感器,令它在一定的虚拟空间里寻找食物和水。食物用食物令牌代替,水用水令牌代替,两种令牌分布在不同区域,然后让机器人自主决定获取这些令牌的路线和顺序,找不到就会死亡。以此观察机器人如何做出决定。

同理,可以设定机器人需要规避一些危险令牌以保障安全,需要通过与其他机器人交换编码而产生新的后代(繁殖),甚至设立财产观念、遵守规则的动机等。观察在这些动机的驱动下,机器人如何进化出类人的社会意识、语言、文化、情感乃至艺术和宗教。比如,制造男性机器人和女性机器人,并赋予机器人保护后代机器人的动机,观察它们如何发展出家庭观念和实体。

科学家这样制造的机器人可能没有任何实际应用价值,比如会犯错的机器人,会生病的机器人,会做梦的机器人,会难过、会高兴的机器人……而工具是不应该犯错误、开小差的,这些是人类的特性。在这种思想方法下,制造人工智能的过程不再只是制造服务于人类外在需求的工具,而正是人类了解自己的过程。

这样的研究已经有了一定成果,开拓了过去的心理学、社会学从来没有过的视野。

不过读者可能会看出一点点“危险”,类人机器人会不会最终演化出自我意识?它如何处理与人类的关系?这种研究会被宗教人士看作是一种僭越吗?因为科学家在做上帝做的事情——造人。不过科学研究与宗教不同,本质是对人类自身的对象化研究。生命就是不断地“生成创造”。工具理性问题在这里遇到了新的场景:在机器人内部实现对工具理性的超越。归根结底,这是借助人工智能展开自我反思,同时又指导人类发展人工智能,对我们思考机器人如何融入人类社会,如何参与人类的文化、社会生活都会有丰富启发。

基督教新教把人类看作上帝实现自我意志的工具,而人类的自我反思总是在克服这种工具性。人不应该只是工具手段,人应该是目的和手段的统一,这一点可以在人工智能身上付诸实践。

二十三条军规

为“类人机器人”设定伦理和规则看来也是必要的。

在2017年1月5~8日举行的“Benificial AI 2017”会议上,1980名来自产业、学术和研究界的人工智能相关人士共同制定了“二十三条原则”,宗旨在于确保人工智能的健康发展,人人都能从人工智能中受益。这二十三条原则分为研究问题、伦理价值观和长期问题三个部分。[2]

研究问题方面,提出人工智能研究的目标是创造有益的智能,而不是让它像经历生物演化一样没有确定的发展方向。投资人工智能应该附带确保该研究是用于发展有益的人工智能,包括计算机科学、经济学、法律、伦理和社会研究中的棘手问题,例如:我们如何使未来的人工智能系统具有高度鲁棒性[3]?这样才能够让它们在没有故障或被黑客入侵的情况下做我们想要它们做的事情。我们如何通过自动化实现繁荣,同时不打破资源和目的的平衡?我们如何更新法律制度实现更大的公平和更高的效率,跟上人工智能的发展步伐,管控与人工智能相关的风险?人工智能应该具有怎样的价值观,应该具有何等法律和伦理地位?