AI前沿观察③丨迈向人工智能的未来:可信、可靠、可解释和重新定义的人机关系
武汉大学计算机学院教授、资深区块链技术专家蔡恒进不这么看。“人机对弈”后,机器在多个领域超越人类,目前并未显露颓势。“问题在于我们对现有技术的理解存在问题,也即从根本上如何看待智能和意识。”
他表示,以AlphaGo为例,尽管它战胜了人类,但多数人仍将其看作工具,并不承认其可能拥有的想象力。深度学习亦同理,若能从物理限制中跳出,透彻理解其思维运转模式,或可为技术优化另辟蹊径。“这种观念的变化将在近期发生。”
AGI之梦
对人工智能未来的预测往往率先发生在科幻想象中。经典影片《她(her)》讲述了AI系统OS1化身女主萨曼莎,不仅博学广知,还拥有自主感受、思考、学习、决策的能力,甚至与人类深陷爱河。
这并非天方夜谭。很长时间里,人类都怀揣着企盼却担忧的复杂情感,致力于推动类似萨曼莎的通用人工智能(Artificial general intelligence,简称AGI)的实现。
深度学习技术在过去十年的迅猛发展,让不少人觉得造出类人的智能体指日可待。今年5月,马库斯与马斯克的赌局就赚足了噱头。
此事起因于埃隆·马斯克(Elon Musk)在推特放言:“2029年感觉是关键一年。如果那时我们还没有AGI,我会感到惊讶。”
加里·马库斯随即提出与马斯克对赌10万美元,并与纽约大学计算机科学家合作编制了五个检验AGI是否实现的标准,包括AI无法看懂电影、阅读小说、担任厨师等,作为打赌的内容。
“这是我的建议,如果你(或任何其他人)在2029年设法完成至少三个,就算你赢了。十万美元如何?”马库斯写道。可惜的是,直到奖金池滚到50万美元,马斯克都再无回应。
打造全知全能的AGI曾经承载着人类追求AI的终极梦想,然而也有不少声音指出,该目标能否实现目前来看尚是未知数。
通俗来说,AGI要求人工智能能够解决多种不同类型的问题。“即使放在一个人身上,要求其既能下棋,又能写小说,还能炒股,这也很难达到。何况我们连人类的思维尚未研究透彻。”刘伟提到。
蔡恒进则认为AI冠以“通用”一词本身就建立在错误的理解上。这好比爱因斯坦和乔丹间的智慧不可互通,亦无法对比出谁的智能更加高明。“我更愿意用‘强人工智能’这个词,如AlphaGo就是在围棋领域的强人工智能。”
“我也不完全认可下一代人工智能就是往可通用发展。它可以是未来方向,但短期内未必能实现。”在刘祥龙看来,实现AGI需先解决两方面问题。首先,从应用角度,人工智能如何深度赋能各行业还面临挑战,“AI+”应该是未来5-10年的突破重点;其次,相比于可通用,安全可信、可解释才是人工智能发展急需攻破的难题,也是“AI+”落地、实现AGI的前提条件。
实现“可解释”为何是关键一步?蔡恒进指出,“可解释”包含多个层次。从结论A证明到结论B,是一种强可解释,如人脑用概念理解世界,举一反三;而通过处理足够多的参数间接得到结论的,则是一种弱可解释,如深度学习需要同时处理上万亿个特征,眉毛胡子一把抓,因此其可信性可靠性欠佳,可迁移性也不强。
换句话说,如果将人脑的思维过程比作“把书读厚再读薄”,机器目前仍处在“读厚”的阶段。例如,当人类定义出“红黄蓝”等颜色概念,即使出现一种从未见过的颜色,依然能够根据其基本特征将其归类进少数几个颜色概念中。这是机器还需要继续训练、努力向人类靠近之处。
进到机器的世界里面去!
当AGI的前路迷雾重重,人工智能未来应走向何方?
“首先需要回答的是,机器能否从每个方面超越人类?以及,这样的发展是否有风险?”蔡恒进认为,发展没有壁垒但存在风险。为了回避风险,人类应进入到AI的世界中。
这也许是人机交互和人机混合(或称人机环境系统智能)提出的初衷之一。早在30年前,钱学森就给虚拟现实技术取名“灵境”,并为人工智能选择了人机结合、以人为主的发展方向。
从最基础的人和手机等电子设备的交互,到辅助驾驶、脑机接口、AR眼镜、智能语音、肌电手环、隔空手势识别……近年来,人机交互的基础研究和应用落地不断推进。