而Lemoine则责怪记者问题的措辞不当:你问起来不把它当人,它就不会给出人性回答。
03.舆论
与以往的争议事件不同,此次事情发生后,业界大佬和媒体的反应基本一致。
加里·马库斯(Gary Marcus)为此专门写了一篇文章,表示这完全是「胡说八道」。

《华盛顿邮报》则委婉地表示:
Lemoine应该是很容易相信AI模型活过来了。毕竟他在一个路易斯安那州的保守派基督教徒农场家庭里长大、于一个神学立场倾向神秘主义的小宗派教会中任牧师、参过军、研究过异端教派、坐过牢……
总而言之,AI觉醒,距离我们还很遥远。
LaMDA之所以可以做出看似深奥的回答,可能因为它具备一个特殊的与众不同的语料库;而在回答研究员和记者问题上的差异,则代表了另一种可能:在与研究员的对话中,大部分问题都是刻意设计过,并非自然状态下的回答。
退一步说,即使问题没有设计过,LaMDA也通过了图灵测试,也只能说明它具有智能,而不是具有人格或意识。
尽管近年来人工智能出现的次数越来越多,应用的场景越来越广泛,但不得不承认的是,它还有很远的路要走。
在很多应用场景下,人工智能尚未达到人们的理想状态:
对话时依旧会前言不接后语,机器人走路还会摔倒,无人驾驶原型车也需要人为干预....
从想到,到做到,AI还需要一段时间去发展和完善。
对于相关研究方向的学者们而言,除了专注于自身的研究,也应该多关注业界新闻动态以及更多地与其他人共同交流学习,掌握一线的知识和前沿的技术,唯有如此,才能更好地了解这个行业和未来的趋势。
温馨提示:本文未经允许禁止转载、洗稿,如需转载请后台联系。