Google 人工智能:我们的原则(中文版全文)

原创 Ling  2018-06-08 12:40  阅读 49 次 评论 0 条
摘要:

上周五,谷歌宣布与美国防部的合作项目 Project Maven 在明年到期后不再续约,并表示将发布关于使用 […]

上周五,谷歌宣布与美国防部的合作项目 Project Maven 在明年到期后不再续约,并表示将发布关于使用 AI 的新道德准则。今天,谷歌 CEO 桑达尔 · 皮查伊(Sundar Pichai)发表了署名题为《AI at Google: our principles》的文章,列出7大指导原则,阐述谷歌在研发和使用AI时将遵循的目标。

以下为文章全文:Google 人工智能:我们的原则

AI的核心是可以学习和适应的计算机编程,它不能解决所有的问题,但拥有巨大的潜力改善我们生活。在谷歌,我们使用AI让产品更有用,从没有垃圾邮件并且更容易撰写的电子邮件,到可以自然对话的数字助理,再到突出有趣内容供你欣赏的照片。

除了我们的产品,我们正在使用AI来帮助人们解决紧急问题。一对高中生正在构建AI驱动的传感器来预测野外火灾的风险。农民正在使用AI监测牛群的健康状况。医生也开始用AI来帮助诊断癌症并预防失明。这些显而易见的好处是Google大力投入人工智能研发,并通过我们的工具和开源代码使其他人也能普遍使用人工智能技术的原因。

我们认识到,这种强大的技术对其使用也提出了同等重要的问题。人工智能如何开发和使用,将对未来多年的社会产生重大的影响。作为人工智能领域的领导者,我们深感重任。所以今天,我们宣布了七项原则来指导我们今后的工作。这些不是理论概念,而是具体的标准,将积极主导我们的研究和产品开发,并会影响我们的业务决策。

我们也意识到,这个领域是不断变化和不断发展的,我们将以谦逊态度对待我们的工作,对内对外都是如此,我们也愿意随时间的推移调整我们的方法。

AI 应用的目标

我们将根据以下目标评估AI应用。我们认为AI应该:

1、对社会有益

新技术的应用范围越来越广,社会渗透率越来越高。人工智能的进步将对包括医疗保健、安全、能源、运输、制造和娱乐在内的各种领域产生变革性的影响。当我们考虑AI技术的潜在发展和应用时,我们将考虑各种社会和经济因素,并将在我们认为整体可能的收益大大超过可预见的风险和缺点的情况下继续进行。

人工智能还增强了我们理解大规模内容含义的能力。我们将努力使用AI来随时提供高质量和准确的信息,同时继续尊重所在国家的文化、社会和法律准则。我们将继续深入评估何时将我们的技术用于非商业情况。

2、避免制造或加强不公平的偏见

人工智能算法和数据集可以反映、加强或减少不公平的偏见。我们认识到,区分公平和不公平的偏见并不总是很简单,并且在不同的文化和社会中是不同的。我们将努力避免对人们造成不公正的影响,特别是与种族、民族、性别、国籍、收入、性取向,能力以及政治或宗教信仰等敏感特征有关的人。

3、建立并测试安全性

我们将继续开发和应用强大的安全措施,避免造成危害的意外结果。我们在设计人工智能系统时会保持适当谨慎,并根据人工智能安全研究的最佳实践寻求开发它们。在适当的情况下,我们将在受限环境中测试AI技术,并在部署后监控其操作。

4、对人负责

我们将设计能够提供反馈、相关解释和说明的AI系统。我们的AI技术将接受适当的人类指导和控制。

5、纳入隐私设计原则

在开发和使用AI技术时我们将融入隐私原则。我们将提供通知和同意,鼓励具有隐私保护措施的架构,并对数据的使用提供适当的透明度和控制。

6、坚持科学卓越的高标准

技术创新的根本在于科学方法和对开放式调查的努力,学术严谨、诚信和合作。人工智能工具有可能在生物学、化学、医学和环境科学等关键领域开拓科学研究和知识的新领域。我们致力于促进人工智能的发展,我们也追求高标准的科学卓越。

我们将与一系列利益相关者合作,以科学严谨和多学科的方式来全面引领领域发展。我们将通过发布教育材料,最佳实践和研究,负责任地分享人工智能知识,使更多人能够开发有用的人工智能应用。

7、为符合这些原则的用途提供

许多技术都有多种用途。我们将努力限制可能有害或滥用的应用程序。在开发和部署AI技术时,我们将根据以下因素评估可能的用途:

  • 主要目的和用途:技术和应用的主要目的和可能的用途,包括解决方案与有害用途的相关度或适用程度
  • 性质和唯一性:我们的技术是独一无二的还是更普遍可用的
  • 规模:这项技术的使用是否会产生大规模的影响
  • Google参与的性质:我们是提供通用的工具,为客户集成工具,还是开发定制的解决方案

我们不会追求的 AI 应用

除了上述目标之外,我们不会在以下应用领域设计或部署AI:

  1. 已造成或可能造成整体性伤害的技术。在存在重大伤害风险的情况下,我们只会在我们认为好处远远超过风险的情况下继续进行,并且会纳入适当的安全限制。
  2. 武器或其他主要目的是导致或直接造成人身伤害的技术。
  3. 收集或使用信息的技术违反国际公认的规范。
  4. 其目的与国际法和人权普遍接受的原则相违背的技术。

我们希望明确的是,虽然我们没有在开发用于武器的AI,但我们将继续在其他许多领域与政府和军方合作,包括网络安全、培训、军人招募、退伍军人医疗、搜索和救援。这些合作是很重要的,我们将积极寻找更多方法来加强这些组织的关键工作,并确保服役人员和平民的安全。

长期的人工智能

虽然这是我们选择的应用人工智能的方式,但我们明白,在这场讨论中还有许多观点存在空间。随着人工智能技术的进步,我们将与一系列利益相关者合作,采用科学严谨、多学科方法提升这一领域的领导力。我们将继续分享我们在改进AI技术和实践方面的经验。

我们相信这些原则是我们公司和人工智能未来发展的正确基础。这种做法与2004年我们最初的“创始人的信”中提出的价值观是一致的。在那封信中,我们明确表示,我们打算从长远的角度出发,即使这意味着要做出短期的权衡。这一理念我们当时说过,现在我们确信了。

Via 译文来自“新智元”

历史上的今天:

本文地址:https://www.yseeker.com/archives/17917.html
版权声明:本文为原创文章,版权归 Ling 所有,欢迎分享本文,转载请保留出处!

发表评论


表情