您的位置::大葱机械网 >> 真空设备

欧盟发布人工智能伦理指南ai系统要负责任且无偏见调音台

时间:2022年10月28日

新浪科技讯 北京时间4月9日早间消息,据美国科技媒体the verge报道,欧盟本周一发布了一系列关于发展人工智能(ai)伦理的新指南,作为企业和政府开发人工智能伦理应用的指导方针。

这些规则不同于美国科幻小说作家艾萨克·阿西莫夫(isaac asimov)的“机器人三定律”,没有直截了当地提供一个道德框架来帮助人类控制凶残的机器人。相反,当人工智能整合至医疗、教育和消费技术等领域时,它们可澄清一些影响社会的模糊而分散的问题。

因此,举例来说,如果一套ai系统在未来某个时候诊断出你患有癌症,欧盟的指导方针将确保下列事情的发生:软件不会因种族或性别而产生偏见;不会推翻人类医生的反对意见;患者有权选择听取ai诊断意见。

这些指导方针有助于阻止人工智能胡作非为,并保证在行政和官僚主义的层面上,不会制造出阿西莫夫式的谋杀谜团。

为了帮助实现这一目标,欧盟召集了52名专家组成的小组,提出了他们认为未来ai系统应该满足的七项要求。具体如下:

- 人类作用和监督:人工智能不应该践踏人类的自主性。人们不应该被ai系统操纵或胁迫,而且,人类应该能够干预或监督软件做出的每一个决定。

- 技术的稳健性和安全性:人工智能应该是安全的、准确的。它不应该易于受到外部攻击(例如对抗性实例)的影响,而且,应该是相当可靠的。

- 隐私和数据管理:人工智能系统收集的个人数据应该是安全的、私有的。它不应该让任何人接触,也不应该轻易被盗。

- 透明性:用于创建人工智能系统的数据和算法应该是可访问的,软件所做的决定应“由人类理解和跟踪”。换句话说,操作员应该能够解释ai系统所做的决定。

- 多样性、非歧视和公平性:人工智能提供的服务应面向所有人,无论年龄、性别、种族或其他特征。同样地,系统不应该在这些方面存在偏见。

- 环境和社会福祉:人工智能系统应该是可持续的(即它们应该对生态负责)并“促进积极的社会变革”。

- 问责制:人工智能系统应该是可审计的,并被纳入企业可举报范畴,以便受到现有规则的保护。应事先告知和报告系统可能产生的负面影响。

人们会注意到上述一些需求非常抽象,很难从客观的角度进行评估。(例如,“积极的社会变革”的定义因人而异,因国而异),但其他定义内容更为直截了当,可以通过政府监督进行检验。例如,用于训练政府ai系统的数据实行共享,可能是对抗偏见性算法的好方法。

这些指导方针不具有法律约束力,但它们可能对欧盟未来起草的所有法律造成影响。欧盟一再表示,希望成为ai伦理领域的领导者,并通过《通用数据保护条例》(gdpr)表明,愿意制定影响深远的法律,以保护公众的数字权利。

不过在一定程度上,欧盟是由于环境因素而迫不得已充当这一角色的。在投资和前沿研究方面,欧盟无法与美国和中国——ai领域的世界领先者——一争高下,因此,它选择了伦理作为塑造技术未来的最佳选择。

作为这项工作的一部分,本周一的报告包括了一份所谓的“值得信赖的ai评估列表”,以便帮助专家找出ai软件中存在的潜在弱点或危险。此列表中的问题包括“是否对系统在意外情况和环境中的行为进行了验证?”和“是否对数据集内的数据类型和范围进行了评估?”

这些评估清单只是初步措施,欧盟将在未来几年收集企业反馈,并在2020年期限内提供一份最终报告。

范尼·希德韦吉(fanny hidvegi)现在是数字版权集团access now的政策经理,也是参与撰写这份指南的专家之一,他说评估列表是报告中最重要的部分。希德韦吉向the verge透露,“它提供了一个实用的、前瞻性的视角”,来缓解人工智能的潜在危害。

“在我们看来,欧盟有能力、有责任站在这项工作的最前线,”希德韦吉说,“但我们认为,欧盟不应停留在伦理指南水平……而应该上升到法律层面。”

另有一些人怀疑,欧盟试图通过影响巨大的伦理研究来规范全球人工智能的发展方式。

智库机构数据创新中心(center for data innovation)的高级政策分析师艾琳·奇沃特(eline chivot)在接受the verge采访时说:“通过为ai伦理创建黄金标准来确认欧盟在全球ai发展中的地位,我们对正在采取的这种方法持怀疑态度。要成为ai伦理的领导者,首先你必须在人工智能领域遥遥领先。”(斯眉)

无锡编写节能报告互惠互利今日机构2022已更新

江苏省无锡市回收茅台酒今日价格一览表

本地推选高密铁将军保险柜维修指南一览表今日行情

道孚智能消杀机器人批发价格今日市场一览表

加入深户需要哪些条件深户迁入条件

友情链接