机器学习与社会不公

互联网  /  houtizong 发布于 2年前   114
随着越来越多的 AI 进入到我们的生活中,如何确保它公正没有偏见?新西兰的 Rhema Vaithianathan 和同事开发算法去识别有关虐待儿童的报警电话是否值得进一步调查。这个算法包含了对家庭背景和犯罪记录的数据训练,能在接到报警电话时生成风险分数。一位父亲对此提出疑问,说自己曾与毒瘾作斗争,过去社会工作者曾把他的孩子从家里带走。但他已经有很长时间不再吸毒。如果用一台电脑评估他的档案,他为改变自己的生活所作的努力会毫无意义吗?换句话说:算法会不公平地评判他吗?Vaithianathan 向他保证,会有人一直参与其中,所以他的努力不会被忽视。计算机算法越来越多地被用于指导可能改变生活的决定,包括在被指控犯罪后拘留哪些人,应该调查哪些家庭潜在的虐待儿童问题,以及被称为“预测性警务”的趋势,如警察应该关注哪些社区。这些工具被认为可以让决策更加一致、准确和严谨。但 2016 年,美国记者称,一个用于评估未来犯罪活动风险的系统会歧视黑人被告。其潜在不公平性正在引起警惕。且监管是有限的:没有人知道该类工具有多少正在被使用。

请勿发布不友善或者负能量的内容。与人为善,比聪明更重要!

留言需要登陆哦

技术博客集 - 网站简介:
前后端技术:
后端基于Hyperf2.1框架开发,前端使用Bootstrap可视化布局系统生成

网站主要作用:
1.编程技术分享及讨论交流,内置聊天系统;
2.测试交流框架问题,比如:Hyperf、Laravel、TP、beego;
3.本站数据是基于大数据采集等爬虫技术为基础助力分享知识,如有侵权请发邮件到站长邮箱,站长会尽快处理;
4.站长邮箱:[email protected];

      订阅博客周刊 去订阅

文章归档

文章标签

友情链接

Auther ·HouTiZong
侯体宗的博客
© 2020 zongscan.com
版权所有ICP证 : 粤ICP备20027696号
PHP交流群 也可以扫右边的二维码
侯体宗的博客