欧盟发布人工智能伦理指南:AI系统要负责任且无偏见

  新浪科技讯,北京时间 4 月 19 日早间消息,据美国科技媒体 The Verge 报道,欧盟本周一发布了一系列关于发展人工智能(AI)伦理的新指南,作为企业和政府开发人工智能伦理应用的指导方针。

  这些规则不同于美国科幻小说作家艾萨克·阿西莫夫(Isaac Asimov)的“机器人三定律”,没有直截了当地提供一个道德框架来帮助人类控制凶残的机器人。相反,当人工智能整合至医疗、教育和消费技术等领域时,它们可澄清一些影响社会的模糊而分散的问题。

  因此,举例来说,如果一套 AI 系统在未来某个时候诊断出你患有癌症,欧盟的指导方针将确保下列事情的发生:软件不会因种族或性别而产生偏见;不会推翻人类医生的反对意见;患者有权选择听取 AI 诊断意见。

  这些指导方针有助于阻止人工智能胡作非为,并保证在行政和官僚主义的层面上,不会制造出阿西莫夫式的谋杀谜团。

  为了帮助实现这一目标,欧盟召集了 52 名专家组成的小组,提出了他们认为未来 AI 系统应该满足的七项要求。具体如下:

  - 人类作用和监督:人工智能不应该践踏人类的自主性。人们不应该被 AI 系统操纵或胁迫,而且,人类应该能够干预或监督软件做出的每一个决定。

  - 技术的稳健性和安全性:人工智能应该是安全的、准确的。它不应该易于受到外部攻击(例如对抗性实例)的影响,而且,应该是相当可靠的。

  - 隐私和数据管理:人工智能系统收集的个人数据应该是安全的、私有的。它不应该让任何人接触,也不应该轻易被盗。

  - 透明性:用于创建人工智能系统的数据和算法应该是可访问的,软件所做的决定应“由人类理解和跟踪”。换句话说,操作员应该能够解释 AI 系统所做的决定。

  - 多样性、非歧视和公平性:人工智能提供的服务应面向所有人,无论年龄、性别、种族或其他特征。同样地,系统不应该在这些方面存在偏见。

  - 环境和社会福祉:人工智能系统应该是可持续的(即它们应该对生态负责)并“促进积极的社会变革”。

  - 问责制:人工智能系统应该是可审计的,并被纳入企业可举报范畴,以便受到现有规则的保护。应事先告知和报告系统可能产生的负面影响。

  人们会注意到上述一些需求非常抽象,很难从客观的角度进行评估。(例如,“积极的社会变革”的定义因人而异,因国而异),但其他定义内容更为直截了当,可以通过政府监督进行检验。例如,用于训练政府 AI 系统的数据实行共享,可能是对抗偏见性算法的好方法。

  这些指导方针不具有法律约束力,但它们可能对欧盟未来起草的所有法律造成影响。欧盟一再表示,希望成为 AI 伦理领域的领导者,并通过《通用数据保护条例》(GDPR)表明,愿意制定影响深远的法律,以保护公众的数字权利。

  不过在一定程度上,欧盟是由于环境因素而迫不得已充当这一角色的。在投资和前沿研究方面,欧盟无法与美国和中国——AI 领域的世界领先者——一争高下,因此,它选择了伦理作为塑造技术未来的最佳选择。

  作为这项工作的一部分,本周一的报告包括了一份所谓的“值得信赖的 AI 评估列表”,以便帮助专家找出 AI 软件中存在的潜在弱点或危险。此列表中的问题包括“是否对系统在意外情况和环境中的行为进行了验证?”和“是否对数据集内的数据类型和范围进行了评估?”

  这些评估清单只是初步措施,欧盟将在未来几年收集企业反馈,并在 2020 年期限内提供一份最终报告。

  范尼·希德韦吉(Fanny Hidvegi)现在是数字版权集团 Access Now 的政策经理,也是参与撰写这份指南的专家之一,他说评估列表是报告中最重要的部分。希德韦吉向 The Verge 透露,“它提供了一个实用的、前瞻性的视角”,来缓解人工智能的潜在危害。

  “在我们看来,欧盟有能力、有责任站在这项工作的最前线,”希德韦吉说,“但我们认为,欧盟不应停留在伦理指南水平……而应该上升到法律层面。”

  另有一些人怀疑,欧盟试图通过影响巨大的伦理研究来规范全球人工智能的发展方式。

  智库机构数据创新中心(Center for Data Innovation)的高级政策分析师艾琳·奇沃特(Eline Chivot)在接受 The Verge 采访时说:“通过为 AI 伦理创建黄金标准来确认欧盟在全球 AI 发展中的地位,我们对正在采取的这种方法持怀疑态度。要成为 AI 伦理的领导者,首先你必须在人工智能领域遥遥领先。”(斯眉)

Published by

风君子

独自遨游何稽首 揭天掀地慰生平

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注