指望AI永远保持客观,才真是一种奢望
发表于2019-03-27 15:30:29

  原标题:指望AI永远保持客观,才真是一种奢望

  如果你在某个周末抽空回顾十多年前的经典科幻片,会发现好莱坞非常擅长将人工智能设置为肩负统治人类重担的终极大BOSS。无论是黑客帝国里的史密斯,还是终结者里的天网,甚至是生化危机里的红后,都展现出一种高效、理智、冷酷,视万物为蝼蚁的形象。

  这也多少影响到了普通人对人工智能的认知。比如说在近年比较热门的无人驾驶领域,我们就经常能听到这样的声音,“如果世界上所有的汽车都交给AI来驾驶,或许就能根治由司机操作不当导致的车祸了”。

  而这种“交给AI会更好”的想法正在从汽车出行领域不断蔓延。近期,外媒曾报道有一份名为《欧洲技术启示2019》的调查报告主题显示,在针对西欧八国2500人的在线调查后发现,超过25%的受访者更倾向于将政策的制定交给人工智能——看来人类社会离被机器人统治的时代似乎越来越近了,只不过这次人类不再是被迫接受管理,而是主动将决定权交给了人工智能的手上。

  【AI真的能保持绝对中立吗?】

  导致人们产生“交给AI会更好”的原因,无非是我们觉得人工智能在作出判断时更少受到情绪和利益的影响,因此所做的决定会更加高效且客观。不过老实说,由大数据搭建起来的人工智能,真的能做到如影视作品里表现的一般保持完全的理智吗?实际上,越来越多的研究表明,在人工智能的算法背后,同样饱含人类的各种陋习。甚至从某种角度来讲,以大数据作为基础的人工智能简直是各种世俗偏见的“集大成者”。

  就拿最敏感的种族歧视来说,早在2012年就有研究指出,供应商Cognitec 公司开发的人脸识别算法在非裔美国人身上的表现比白种人差5%到10%。此外,在性别歧视方面,人工智能与人类固有的刻板印象相比,也不遑多让。有研究显示,当一张图片中出现厨房背景,那么识图软件大概率会将出现在图片中的人物识别为女性。而如果图片中的背景与运动相关,则很有可能让软件联想到男性。

  甚至于在硬件方面,也多多少少存在着难以察觉的偏见。去年华盛顿邮报进行的一项研究中显示,谷歌和亚马逊的智能语音助手识别非美国本地口音的准确率,要比美国本地口音低30%,这被不少媒体和学者认为存在“地域歧视”。与此同时,人们也发现,无论是Siri、Alexa、Google Assistant、Cortana、Bixby,还是国内的小爱同学、天猫精灵等,几乎所有的语音助手都是默认女性声音。有观点认为,这种发展趋势会导致人们在潜意识中,更倾向于让女性从事助理等辅助型、服务型的职务。

  【AI搞起歧视来,比人类更理直气壮】

  为何现实中的人工智能不能做到如影视作品里表现的一般,保持绝对的冷酷和客观呢?

  人工智能有关的硬件设备在发展之初,产品价格大多比较高昂,所以产品多是瞄准那些经济更加优渥的中产阶级或者富人阶级,这就导致他们的最初的数据样本就是来源于这类人群。华尔街日报曾引用Kaggle数据科学家Rachael Tatman的言论之初,当前市面上所流行的智能语音系统无疑“最适合白人,受过高等教育的中产阶级美国人”。在此基础上,口音不够主流的英语,比如澳式英语等,就很容易受到来自智能音箱的“歧视”。

  而在一些用户群体貌似更加开放的软件、平台中,则是因为要用到大量的用户数据对人工智能进行训练,而这也就意味着人工智能必然会受到原始数据的“污染”。举例来说,当大数据中【厨房】的关联词大量出现【妻子】、【母亲】等字样时,人工智能就会将【厨房】与【女性】视为强关联性。经过这种强化训练的人工智能,在识图的过程中若发现了符合厨房的要素,它就很容易判断身处图片中的人形图案是一名女性——但实际上这可能是一张厨师长王刚的宽油截图。

  我国知名的导航系统MOSS曾经说过,“让人类永远保持理智是种奢求”。而归纳总结人类用户的大数据,并用这些数据进行计算和演练的人工智能们,从根源上就在不断整合人类的优缺点。因此让现阶段的人工智能做到完全理性和中立,似乎也是不可能是事情。

投稿:lukejiwang@163.com
Copyright © 2002-2024 鹿科技