我们究竟能否阻止机器人和AI战胜人类自身吗?
他的捐赠策略是有条理的,就像他做的其他事情一样。他把钱分给了11家机构,每家机构都在研究不同的人工智能安全方法,希望其中一家能够坚持下去。2012年,他与他人共同创办了剑桥生存风险研究中心(CSER),初期投入近20万美元。
生存风险或者像塔林所说的x-risk,是对人类生存的威胁。除了人工智能,CSER的20多位研究人员还研究气候变化、核战争和生物武器。但是,对塔林来说,那些其他学科“实际上只是入门药物”。对气候变化等更广泛接受的威胁的担忧,可能会吸引人们加入进来。他希望,人工智能机器统治世界的恐惧将说服他们留下来。他访问剑桥是为了参加一个会议,因为他希望学术界能更严肃地对待人工智能的安全性。
在耶稣大学,我们的用餐同伴都是随机参加会议的人,包括一名学习机器人的香港女性和一名上世纪60年代从剑桥大学毕业的英国男性。老人问在座的每一个人他们在哪里上的大学(爱沙尼亚塔尔图大学塔林分校的回答并没有给他留下深刻印象)。然后他试图把谈话引向新闻。塔林茫然地看着他。“我对近期风险不感兴趣”他说。
塔林把话题转到了人工智能的威胁上。当不与其他程序员交谈时,他会默认使用隐喻,然后浏览他的一套隐喻:高级人工智能可以像人类砍伐树木一样迅速地处理我们。人工智能之于我们,就像我们之于大猩猩。
一个人工智能将需要一个身体来接管。没有某种物理外壳,它怎么可能获得物理控制?
塔林还准备了另一个比喻:“把我关在有互联网连接的地下室里,我可以造成很大的破坏,”他说完,吃了一口意大利烩饭。
每一个人工智能,无论是Roomba还是其潜在的统治世界的后代,都是由结果驱动的。程序员分配这些目标,以及一系列关于如何实现它们的规则。先进的人工智能并不一定需要被赋予统治世界的目标才能实现它,它可能只是一个偶然。计算机编程的历史上充满了引发灾难的小错误。例如,2010年,共同基金公司Waddell & Reed的一名交易员卖出了数千份期货合约,该公司的软件在帮助执行交易的算法中漏掉了一个关键变量。其结果是万亿美元的美国“闪电崩盘”。
塔林基金的研究人员认为,如果超级人工智能的奖励结构没有得到恰当的编程,即使是善意的目标也可能有阴险的结局。牛津大学哲学家尼克·博斯特罗姆(Nick Bostrom)在他的著作《超智能》中列举了一个著名的例子,那就是一个虚构的特工,他的任务是制造尽可能多的回形针。人工智能可能会决定,将人体中的原子更好地用作原材料。
塔林的观点也有批评者,甚至在关注人工智能安全的社区中也是如此。有人反对说,当我们还不了解人工智能人工智能时,担心限制它还为时过早。还有人说,把注意力集中在流氓技术行动者身上,会分散人们对该领域面临的最紧迫问题的注意力,比如大多数算法是由白人男性设计的,或者基于对他们有偏见的数据。“如果我们不在短期内应对这些挑战,我们就有可能建立一个我们不想生活的世界,”专注于人工智能安全和其他问题的科技行业联盟AI伙伴关系执行董事塔拉·莱昂斯(Terah Lyons)说。但是,她补充说,研究人员近期面临的一些挑战,比如消除算法偏见,是人类可能在人工智能人工智能中看到的一些问题的先兆。
塔林并不这么认为。他反驳说,人工智能人工智能带来了独特的威胁。最终,他希望人工智能社区能够效仿上世纪40年代的反核运动。在广岛和长崎爆炸之后,科学家们联合起来试图限制进一步的核试验。“曼哈顿计划的科学家可能会说:‘看,我们在这里进行创新,创新总是好的,所以让我们勇往直前,’”他告诉我。“但他们的责任更大。”
塔林警告说,任何有关人工智能安全的方法都将很难正确。如果人工智能足够聪明,它可能比它的创造者对约束有更好的理解。想象一下,他说,“在一群五岁的盲人建造的监狱里醒来。“对于一个被人类限制的人工智能人工智能来说,情况可能就是这样。