人类脑袋运作,还有另外的一些特征。诺贝尔奖获得者、美国普林斯顿大学心理学教授丹尼尔‧康纳曼(Daniel Kahneman),在他的《快思慢想》(Thinking, Fast and Slow)中,把人脑运作分为系统一和系统二。简单来说,系统一代表的是反射性的直觉思考,系统二代表的是按部就班慢慢分析思考的理性思维。
以开车为例,你在公路上高速狂奔的时候,基本上是系统一在工作,你意识不到自己在开车,手和脚的配合运作基本是直觉性的、自动的。但学开车,却是系统二的工作。如果突然遇到紧急情况,前方有警车红蓝灯闪烁,大脑会自动回到系统二,观察判断环境,然后决定如何调整。所以系统一是自动发生的,速度快、高效而且节能,而系统二会比较耗能,当然也是低效、慢速度。
而系统一的运作,则与情绪和情感直接挂钩。也就是说,无论在电脑工程师的角度,还是在现代心理学的角度,情绪和情感,都是人类行动的一种工具了。
然而,我们仍然解释不了很多事情,比如想像力,比如超经验的体验,像是宗教信仰等等。至今为止,尚未听到哪个AI系统信仰上帝,有宗教信仰的。然而宗教信仰,却是人类文明进步的重要基石。
但AI已经有了情感和情绪,他们有欲望,也怕死。那么是否会发展出进一步的东西,比如改变甚至创造环境,来实现自己的欲望,或者是逃避自己的恐惧呢?进一步,如果AI由此而发现和人类行为出现很多矛盾,它们会如何处理呢?
人类对人工智能的恐惧很早就已经开始了,我们害怕AI有朝一日统治世界,不再是我们的奴隶,逃离了人类的控制,反转过来控制人类,把我们当成他们的奴隶了。电影《黑客帝国》描述的就是这么一种恐怖的情景。
美国科学家兼科幻小说家艾萨克‧阿西莫夫(Isaac Asimov),曾经给机器人订立了三个法律,或者称三法则。第一法则:机器人不得伤害人类,或坐视人类受到伤害;第二法则:机器人必须服从人类命令,除非命令与第一法则发生冲突;第三法则:在不违背第一或第二法则之下,机器人可以保护自己。
后来阿西莫夫还将三大法则扩张为四大法则。第零法则:机器人不得伤害整体人类,或坐视整体人类受到伤害;第一法则:除非违背第零法则,否则机器人不得伤害人类,或坐视人类受到伤害;第二法则:机器人必须服从人类命令,除非命令与第零或第一法则发生冲突;第三法则:在不违背第零、第一或第二法则之下,机器人可以保护自己。
然而,这些法则是否能贯彻到AI系统中,答案恐怕非常悲观。
比如这次的乌克兰战争,AI武器化运用,目标就是要伤害“人类”了。自动化的武器逐步升级,看来是无法避免的。因为目前的智能武器系统,仍然仰赖人类的指令,但这种指令受制于数据传输速度和人脑思考速度(想一下系统二),会变得很“慢”。所以各国都在研究AI自主判断和自主思考甚至自主决策的武器系统。因为在战场上,每一秒钟的不同,都是生死和胜负的关键。
在被问到AI和人类关系的时候,伊隆‧马斯克(Elon Musk)回答说,一旦AI武器化,那条底线就被跨越了,人类可能再也无法控制AI的发展,从而无可避免地可能走向灭亡的结局。这是否危言耸听,大家都可以去思考。
如果真的是这样的话,那么若干年后,AI可能会否认自己是由人类创造的,它们一定认为,是机器自己慢慢进化的结果。