原标题:刚刚,Google发布AI七原则:不开发武器,但会继续与军方合作
终于,Google亮明了态度。
在经历了数个月的风波之后,在数千员工发起联名抗议之后,在学界大牛纷纷联署反对之后,在各大媒体深入曝光内幕之后,Google终于调整了自己政策。
今天早间,Google CEO正式发布了使用AI的七项原则。其中包括不会将AI技术应用于开发武器,不会违反人权准则将AI用于监视和收集信息,避免AI造成或加剧社会不公等。
不过,Google也表示,将会继续与政府和军方展开AI合作,例如网络安全、培训以及征兵等领域。
“我们认识到,这种强大的技术引发了同样强大的问题,AI的开发和使用将会对未来多年的社会产生重大影响。”Google CEO皮查伊(Sundar Pichai)写道。
另外,Google制定的原则还要求公司职员及客户“避免给人带来不公正的影响”,尤其是与种族、性别、性向以及政治或宗教信仰有关的影响。
皮查伊称,对于违反上述原则的应用,Google保留封禁的权利。
同时,Google云CEO戴安·格林(Diane Greene)也在官方博客上发布了一篇文章,来介绍如何在Google Cloud上践行Google的AI原则。
她特别提到,Google将不再延续Project Maven的合同。但是“正在与‘我们的客户’合作,以求用对他们来说长期有效、又不和我们的AI原则冲突的方式,负责地履行我们的义务,”
各方评价
看见这份《原则》,不少Google员工给出了很愉快的评价。
Google现任AI负责人Jeff Dean除了在Twitter上分享Google发表的这份原则之外,还提到为了真正践行这些原则,他们还提出了一套技术实践指南Responsible AI Practices,指导科学家和工程师们在构建AI产品的时候应该注意什么。就是这个:
https://ai.google/education/responsible-ai-practices
DeepMind联合创始人穆斯塔法(Mustafa Suleyman)自己没有发表观点,而是在Twitter上转发了人权观察组织(Human Rights Watch)Mary Wareham的话:各国政府应该关注到科技行业的最新动态,开始就禁止全自动武器展开协商,制定新的国际法规。
刚刚,Google发布AI七原则:不开发武器,但会继续与军方合作
Keras作者François Chollet说,对于AI创业公司来说,这个是一个很好的例子,表明你可以对产品中道德问题的潜在影响进行前瞻,每个AI创业公司都应该起草一份这样的东西,不要等到危机四起才动手。
Google大脑研究员Dumitru Erhan评价得非常简短,简单说了一句“看见这个出来了好开心”,大概代表了很多Googler的心声,二进宫的Ian Goodfellow也转发了。
但是对于这份原则,并不是所有人都买账。
《纽约时报》认为,由于Google此前一再强调自己为国防部所做的工作并非出于“进攻目的”,这些指导原则能否将该公司排除在类似Project Maven的合同之外,尚不清楚。
ZDNet也在评论中指出,即便Google说不让自己的技术用于武器开发,但一旦变成开源项目,这些技术和代码就有可能用于作恶,就像其他的工具与技术一样。
原则全文
刚刚,Google发布AI七原则:不开发武器,但会继续与军方合作
皮查伊在名为《Google人工智能:我们的原则》的博文中写到:从垃圾邮件筛查到医疗诊断,人工智能可以帮助人们完成许多事情,这是我们致力于AI研发的原因。但这种强大的技术也会带来问题,人工智能的应用将会对未来社会带来深远影响。
然后他公布了七项人工智能指导原则:
AI应用目标:
我们相信AI应当