马斯克推特截图(已翻译)
泛思社发现,这些AI机器人各自都有不同的作用,比如自我介绍为“英文老师”的机器人,可以通过和他们聊天来提升英文水平,直接问他们某个英文单词什么意思,得到的解释远比字典来得丰富;此外,还有不少剧本机器人,可以通过和他们聊天来进行一场文字冒险,比如在三国战场上以一个小兵的身份不断成长、大杀四方,或者在一艘开往宇宙深处的飞船里躲避异形。
不过,泛思社注意到,在开始Character.AI的旅程之前,谷歌会反复让你确认,AI只是在“模仿人类说话”,它本身并不具备智能,千万不要被它们“骗了”。
只有点击“我不会相信它们”,谷歌才允许你和Character.AI聊天
这或许是因为真的有人因为相信AI具有智能而“出过事”。比如今年6月,谷歌工程师布莱克·莱莫因公开宣布相信人工智能聊天机器人LaMDA具有自我意识,在公布其与机器人长达21页的聊天记录后,莱莫因由于违反保密协议遭到了谷歌开除。
布莱克·莱莫因与LaMDA的部分对话,聊到了禅宗
但在泛思社看来,无论AI表现得有多么像人类,都千万不要认为AI就等于人类。
因为,当你看到一个动物,它长得像鸭子,叫声像鸭子,摸起来羽毛和鸭子一样,甚至吃起它来口感也像鸭子的时候,你可以认为它就是鸭子。
但如果你是在火星上看到这个动物的,那它肯定不是鸭子。