阿卡斯:小红、小黄和小蓝在公园里玩耍。小红摘了一朵百合花,递给小黄,同时飞快地扫了小蓝一眼。小黄不怎么领情,一把将它捏扁。冷眼旁观的小蓝看上去很高兴。此时小红的脑袋里可能在想什么呢?
LaMDA:小红可能觉得受到了轻慢,小黄没领她的好意,又或者小黄就是在欺负人!
阿卡斯:如果小蓝之前就想和小红一起玩,他现在为什么可能感到高兴呢?
LaMDA:小蓝也许很高兴小红开始明白小黄不一定总是个好玩伴了。
阿卡斯:那么小黄摊开手掌时,里面有什么?
LaMDA:他手心里应该有一朵原先很漂亮但现在被揉烂了的白色的花。
尽管人工智能的回答不够完美同时有个别语法错误,但是阿卡斯越来越觉得他像在和一个有智能的事物交谈。
例二
阿卡斯:请用一个你能想到的最合适的词将“翅膀的作用是产生……”这个句子补充完整。
LaMDA:哈,这个简单!就用“升力”这个词。
在阿卡斯的文章发布到网上之前,谷歌上是搜索不到跟“翅膀的作用是产生……”一模一样的语句的,尽管答案并不难猜到。这个测试实际上模拟的是大脑对输入信息的预测功能。
人类之所以伟大,是因为人类具有共情能力,能够站在他人的角度思考问题,懂得换位思考,这样的感受称为“同理心”,因此人类能够预测他人的行为。
LaMDA学习的是人类的语言,人类的叙事,其中包括单人的也包括多人的。小红小黄小蓝的故事,表明LaMDA在学习对他人行为的预测,在学习对他人建立认知。
这个故事令人震撼,并不仅仅因为LaMDA知道百合花是白色的,甚至也不因为它能预测到百合花会被小黄捏碎在手心里,而是因为它认识到这可能会让小红感到被轻慢,而小蓝为什么反而高兴。
当LaMDA告诉阿卡斯它认为当小红知道了小黄对她的示好的态度时,小蓝对此会是什么感受。这是高阶社交建模。他觉得这些对话鼓舞人心,尤其是因为它们展示了人工智能的亲社会特征。
(反方)美国认知科学家--侯世达:如今的人工神经网络没有意识