首页> 外文期刊>New scientist >Bias test to keep algorithms ethical
【24h】

Bias test to keep algorithms ethical

机译:偏差测试以保持算法道德

获取原文
获取原文并翻译 | 示例
           

摘要

COMPUTERS are getting ethical. A new approach for testing whether algorithms contain hidden biases aims to prevent automated systems from perpetuating human discrimination. Machine learning is increasingly being used to make sensitive decisions, says Matt Kusner at the Alan Turing Institute in London. In some US states, judges make sentencing decisions and set bail conditions using algorithms that calculate the likelihood that someone will reoffend. Other algorithms assess whether a person should be offered a loan or a job interview.
机译:计算机正变得越来越道德。一种测试算法是否包含隐藏偏见的新方法旨在防止自动化系统使人类歧视永久化。伦敦的艾伦·图灵研究所(Alan Turing Institute)的马特·库斯纳(Matt Kusner)说,机器学习正越来越多地用于做出敏感的决策。在美国的某些州,法官使用计算某人再次犯罪的可能性的算法做出判决判决并设定保释条件。其他算法评估是否应向某人提供贷款或工作面试。

著录项

  • 来源
    《New scientist》 |2017年第3119期|10-10|共1页
  • 作者

    Matt Reynolds;

  • 作者单位
  • 收录信息 美国《科学引文索引》(SCI);美国《化学文摘》(CA);
  • 原文格式 PDF
  • 正文语种 eng
  • 中图分类
  • 关键词

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号