AI 人工智能已经被应用于许多领域;就在最近,艺术领域也受到了 AI 的 " 入侵 ",在一场艺术博览会中,有参赛者利用 AI 制图工具生成作品,并获得了奖项。一时之间,有关 AI 人工智能发展的相关讨论又沸沸扬扬,人们也思考起了 AI 背后的利与弊。
人工智障和 AI 艺术家的差距,更多是人工智能中 " 人 " 的差距。
在美国举行的一场艺术博览会中,Allen 利用 AI 制图工具 Midjourney 生成的《太空歌剧院》获得数字艺术类别冠军后,不少艺术家指责 Allen 使用 AI 生成作品是作弊。
事实上,这副作品并非是由 AI 软件生成后,直接拿去参加比赛,中途作者还用 Photoshop 对作品进行了调色。
与冠军作品《太空歌剧院》形成对比的,是网友在社交平台贴出的自己通过 AI 关键词 " 鲑鱼回溯 " 生成的照片。
理想中成群结对的鲑鱼结伴相游的照片并没有出现,取而代之的是一片片漂浮在水面上试图游泳的的三文鱼片。
同样是 AI 制图,一个拿了艺术大奖,一个被调侃人工智障。制作团队在模型设计、数据选择上的差异,包括用户使用软件时描述方式的不同,导致了最终不同的呈现效果。
人工智能应用于某行业时,该行业的信息化程度应处于高水平,事实上不同行业的信息化建设程度不尽相同,这也意味着,AI 进场首先将面临不同程度的信息化挑战。
以医疗行业来说,虽然医疗数据已经实现了数据化,但数据化程度不高,内部系统分散,数据很难流通共享,而 AI 药研需要医疗全过程的数据。
有医疗行业人士对银杏科技表示,有些医生在录入信息时,会使用到业内人士才能明白的黑话,或者只记录下关键词。这些被省略的部分需要人工 " 翻译 " 出来,经过人工规范后的数据才能用于 AI 模型训练。
AI 进行训练的语言通常较为规范,而人们日常生活的语言会更为通俗。为了让 AI 在日常应用中更有人情味,会有专门的工作人员对它们的语言进行 " 润色 "。
以智能语音为例,用户在与智能语音对话时,往往会省略掉一些关键性修饰词,默认智能语音明白。而用户默认智能语音懂的这部分关键信息,就需要设计师 " 补 " 上去。
腾讯的车机系统在进入车载市场时曾遇到这样一个小插曲。用户要求语音助手播放《在路上》,但这既是一首歌曲名,也是一个电台名称。
面对这样一词多义的情况,正确的做法似乎是语音助手询问用户播放歌曲《在路上》还是电台《在路上》。
在实际的使用过程中,出于客户要求,设计者将歌曲版作为默认选项。而有的厂商在面对这样的问题时,考虑到电台版关注者并不多,而歌曲版近期大热,会将播放歌曲《在路上》作为默认选项。
这一种排序的优先级是人为对 AI 进行的一个程序设置,目的是增加用户在使用过程中对人工智能的亲切感,然而这样的设定会让想听电台版《在路上》的用户对语音助手的好感度下降。
当 AI 足够智能化后,它可以根据用户的喜好自动生成用户喜好或者习惯的排序优先级。
从数据收集、产品测试、再到正式投入使用,人们全程参与,及时根据 AI 的反馈调整模型和数据,确保在技术上达到理想效果。
从另一个角度讲,到底是播放歌曲,还是电台,这取决于平台干预,从而让 AI 平台们拥有了某种 " 权力 ",它们可以根据好恶选择。
人工智能的一大技能,是可以根据蛛丝马迹找出人们试图隐藏的信息,这能帮助福尔摩斯破案,也可能导致科技公司信息被泄密。
前几年闹得沸沸扬扬的亚马逊智能音箱 echo 劝人自杀事件中,智能音箱只是从自己的数据库中调取信息作为对用户提问的回复,它并不理解其中的含义,也无法共情这样的答复会带给用户怎样的情感伤害。
从技术的角度讲,语音助手 Alexa 对用户的提问做出了回答,答案也不智障(抛开人类立场不谈),但人们无法在情感上接受这一回答,于是向亚马逊提出了抗议。
echo 的工程师解释,Alexa 很可能是从维基百科上下载了带有恶意文件的文本,才做出这样反人类的回答。
这就是为什么它会劝用户自杀,它的数据源出现了污染。
" 机器人通过这些有缺陷的神经网络模型,学习到了有毒的刻板印象。" 佐治亚理工大学的博士后研究员安德鲁 · 亨特表示。
本质上,Alexa 的错误言论是人类社会的偏激言论,通过人工智能传递回了人类社会。