solidot新版网站常见问题,请点击这里查看。

欧盟发布 AI 伦理准则

人工智能
WinterIsComing (31822)发表于 2019年04月11日 18时27分 星期四
来自
欧盟委员会发布 AI 伦理准则,同时宣布启动 AI 伦理准则的试行阶段,邀请工商企业、研究机构和政府机构对该准则进行测试。该准则由欧盟 AI 高级别专家组起草,列出了 “可信赖人工智能” 的 7 个关键条件——人的能动性和监督能力、安全性、隐私数据管理、透明度、包容性、社会福祉、问责机制,以确保人工智能足够安全可靠。欧盟将 “人工智能” 定义为“显示智能行为的系统”,它可以分析环境,并行使一定的自主权来执行任务。根据官方解释,“可信赖的人工智能” 有两个必要的组成部分:一是应尊重基本人权、规章制度、核心原则及价值观;二是应在技术上安全可靠,避免因技术不足而造成无意的伤害。举例来说,如果人工智能在未来诊断出一个人患有某种病症,欧盟的准则可以确保系统不会做出基于患者种族或性别的偏见诊断,也不会无视人类医生的反对意见,患者可以自行选择获得对诊断结果的解释。