首页> 外文期刊>New scientist >Bias in the machines
【24h】

Bias in the machines

机译:机器中的偏见

获取原文
获取原文并翻译 | 示例
           

摘要

IN HER first semester as a graduate student at the MIT Media Lab, Joy Buolamwini encountered a peculiar problem. Commercial face-recognition software, which detected her light-skinned classmates just fine, couldn't "see" her face. Until, that is, she donned a white plastic mask in frustration. Coded Bias is a timely, thought-provoking documentary from director Shalini Kantayya. It follows Buolamwini's journey to uncover racial and sexist bias in face-recognition software and other artificial intelligence systems. Such technology is increasingly used to make important decisions, but many of the algorithms are a black box. "I hope this will be a kind of Inconvenient Truth of algorithmic justice, a film that explains the science and ethics around an issue of critical importance to the future of humanity," Kantayya told New Scientist.
机译:在她的第一个学期作为MIT Media Lab的研究生,Joy Buolamwini遇到了一个特殊的问题。商业面部识别软件,它检测了她的轻皮肤同学只是罚款,不能“看到”她的脸。直到那个,她在挫折中弄得一块白色的塑料面膜。编码偏见是董事Shalini Kantayya的及时,想法的纪录片。它遵循Buolamwini的旅程,揭示了面部识别软件和其他人工智能系统中的种族和性别歧视偏见。这种技术越来越多地用于制定重要的决策,但许多算法是黑匣子。 “我希望这将是算法正义的一种不方便的真理,这是一部解释对人文未来至关重要的科学和道德的电影,”康亚塔告诉新科学家。

著录项

  • 来源
    《New scientist》 |2020年第3295期|30-30|共1页
  • 作者

    Vijaysree Venkatraman;

  • 作者单位
  • 收录信息 美国《科学引文索引》(SCI);美国《化学文摘》(CA);
  • 原文格式 PDF
  • 正文语种 eng
  • 中图分类
  • 关键词

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号