solidot新版网站常见问题,请点击这里查看。

让 AI 算法更透明工作

人工智能
wanwan (42055)发表于 2021年12月06日 19时50分 星期一
来自梦海
算法在生活中扮演的作用越来越重要,即使其缺陷越来越明显:一名被错误指控欺诈的密歇根男子不得不申请破产;自动筛选工具不成比例地伤害想要买房或租房的有色人种;Facebook 的黑人用户比白人用户受到更多的辱骂。其他自动化系统不公正地对教师、学生进行评分,频繁地将深色皮肤的人标记为在考试中作弊。现在人们努力更好地了解人工智能的工作原理并让用户负责。纽约市议会上个月通过一项法律,要求对雇主在在招聘或晋升时使用的算法进行审查。该法律在全美尚属首例,要求雇主引入外部人员评估算法是否存在性别、种族或民族方面的偏见。如果人工智能在雇佣和晋升决策过程中发挥作用,雇主还必须告知居住在纽约的求职者。在华盛顿特区,国会议员正在起草一项法案,要求企业评估用于医疗保健、住房、就业或教育等领域的自动化决策系统,将调查结果报告给联邦贸易委员会(FTC); FTC 的五个成员中有三个支持对算法进行更严格的监管。白宫上个月提出的人工智能权利法案要求如果人工智能做出影响一个人的公民权利的决定,需要进行披露,表示人工智能系统应该“仔细审核”其准确性和偏见等问题。
显示选项 样式:
声明: 下面的评论属于其发表者所有,不代表本站的观点和立场,我们不负责他们说什么。
  • 进入死循环了(得分:1 )

    solidot1639106886(42413) Neutral 发表于2021年12月10日 11时31分 星期五
    使用程序(代码)进行自动筛选,曾经被描述为不带偏见 - 因为计算机不带偏见。

    结果最后发现偏见依然存在,因为代码是人写的,AI(人工智能)也是基于人模拟的智能,所以,最后程序也带偏见了 (狗头.gif)