也是因为考虑到这一点,即使是智能产品已经在市场上成熟运行了一段时间,科技公司通常也会安排专门的人员,负责对产品的数据库、模型进行监测。
智能音箱数据被污染后,劝用户自杀带来的是可能发生的潜在伤害,而智能驾驶汽车的数据如果出现污染,带来的伤害几乎不可避免。
破坏者在系统中混入具有干扰性的数据,从而影响车辆对客观环境的判断,干扰车辆的正常行驶,很可能导致车辆失控。
严重情况下,攻击者甚至可以还原出系统的算法逻辑,对装载同款系统的汽车进行无差别攻击,给厂商带去不可估量的损失。
人工智能已经参与到互联网内容生产流通过程之中,抖音、快手的流量分发,内容审核,大部分都是交给人工智能完成。
机器负责第一遍信息筛选,根据以往数据对疑似违规的内容进行拦截或标红提示;之后再由审核人员对标红信息进行核实。
为什么没有办法完全交给机器呢?一位抖音的审核人员对银杏科技表示,机器是根据量化的指标做决定,比如一旦识别到 " 果体 " 画面或相关的关键词,就会自动拦截或作限流处理,但很多东西无法量化,比如意境、内涵,机器尚无法对只能意会不能言传的信息做出准确判断。现在不少擦边视频,画面与文字都不含敏感词,组合在一起却是妥妥的性暗示,像这样机器审核的漏网之鱼就只能人工抓捕。
纪录片《监视资本主义:智能陷阱》中,两拨人在算法推荐营造的茧房里将自身观看到的信息奉为真理,并在算法的推荐下不断强化这一信念,双方的信仰差异逐渐演成暴力事件,而他们最初争论的可能仅仅只是地球是圆是方。
一条具有倾向性的言论,一个投其所好的推荐机制,分开看都没什么问题,凑上一起再加上时间的催化就演变成了一场暴力事件。哪一方都没有责任,哪一方又好像都有责任。
迈过技术关卡,规避掉各类各类风险后,乖乖为我们所用的 AI 就一定能为公司带来更好的经济效益吗?未必。
对于曲库量高达七千万的音乐平台来说,要求音乐编辑听完所有内容后再进行作品推荐显然不现实。
诚然,AI 可以快速 " 听 " 完所有音乐后,根据听众的审美偏好推荐相似风格的小众作品,从而提高整个曲库的利用率,当年虾米音乐凭借独特的算法逻辑在版权弱势的情况下,依旧能与网易腾讯抗衡。
不过算法推荐也有弊端,不少用户反应推荐的音乐风格过于单一,音乐平台也尝试改变算法的逻辑,在日推中加入风格差异大的作品,以此缓解听众的审美疲劳。
即使是看似完全交给机器的算法推荐,背后依旧是按照人的意志来执行。
机器推荐始终稍显冰冷,这缺失的人情味便由用户自发上传的各类歌单补足。用户自建的歌单歌曲的风格连贯性不高,却热情饱满,大家自发地收藏评论,用户与用户的距离、用户与平台的距离,也就由此拉近了。
内容行业由于其文化上的特殊性,不能完全交给机器;而完全可以用 AI 代替,代替后效果更佳的工业,不少公司依旧使用人工,部分原因在于使用 AI 后带来的收益并不能覆盖前期投入的成本。
一位从事传统行业的从业者对银杏科技表示:如果采用 AI 技术,带来了 100 万的收益,却让成本增加了 110 万,并且这个成本在三五年内并不一定会下降,那么他倾向于保持现状。如果成本与收益基本持平,但成本有望在三五年内大幅下降,那么他会愿意尝试。
除了成本问题,上述从业者还表示,希望能够在确保公司数据绝对隐私、绝对安全的情况下进行 AI 模型训练,如果不能保证这一点,即使采用 AI 技术收益会更高,他也很可能不会采用 AI 技术。
事实上,该从业者担心的数据安全、隐私泄露问题,即使是完全采用普通机器或者人工,担忧的事情也可能发生。
他告诉银杏科技,在他看来 AI 的信息泄露肯定比传统技术信息泄露造成的影响大,并且,法律对于传统技术中出现的泄密等问题是有明确的相关规定的,出现问题直接走法律程序。
而 AI 技术在这方面的法律规定还在制定当中,他表示,自己还是更愿意在这些配套设施基本完善之后再考虑 AI 技术。
从技术本身、到技术与人类社会的磨合、再到 AI 真正给用户带来价值,这其中的每一个环节都需要人参与,人的角色从一线的劳动者变成指挥 AI 进行一线劳动的调控者。
人们利用数据和模型培养一个助手,如何引导这个助手以达到自己想要的市场效果,还在摸索阶段。