首页> 外文期刊>Design & Elektronik >Vom Algorithmus benachteiligt
【24h】

Vom Algorithmus benachteiligt

机译:缺点算法

获取原文
获取原文并翻译 | 示例
获取外文期刊封面目录资料

摘要

Nicht nur Unternehmen, auch staatliche Institutionen setzen verstärkt auf automatisierte Entscheidungen durch algorithmenbasierte Systeme. Ihre Effizienz spart Zeit und Geld - birgt jedoch vielfältige Gefahren der Benachteiligung einzelner Menschen und ganzer Bevölkerungsgruppen. Zu diesem Ergebnis kommt eine jetzt vorgestellte Studie der Technikfolgenabschätzung des Karlsruher Instituts für Technologie (KIT) im Auftrag der Anti-diskriminierungsstelle des Bundes. Ob bei der Kreditvergabe, der Auswahl neuer Mitarbeitender oder bei juristischen Entscheidungen - in immer mehr Bereichen werden Algorithmen dazu eingesetzt, menschliche Entscheidungen vorzubereiten oder sie ihnen gleich ganz abzunehmen. »Dass dies zwangsläufig zu objektiveren und damit faireren Entscheidungen führt, erweist sich heute leider oft als Trugschluss«, sagt Carsten Orwat, vom Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) des KIT. »Kritisch wird es insbesondere dann, wenn die Algorithmen mit tendenziösen Daten arbeiten«, so der Autor. Hierzu gehören vor allem Alter, Geschlecht, ethnische Herkunft, Religion, sexuelle Orientierung oder Behinderungen.
机译:不仅公司,而且州机构也越来越依赖使用基于算法的系统的自动化决策。它们的效率可以节省时间和金钱-但对个人和整个人口群体都有不利的各种危险。这是卡尔斯鲁厄技术学院(KIT)代表联邦反歧视局对技术评估进行研究的结果。无论是用于借贷,选择新员工还是制定法律决策-越来越多的领域都在使用算法来准备人为决策或直接将其从决策中撤走。 KIT技术评估和系统分析研究所(ITAS)的卡斯滕·奥瓦(Carsten Orwat)表示:“事实上,这不可避免地导致更加客观,因此更公平的决定,今天常常被证明是谬论。”作者说:“当算法使用趋势数据时,这一点尤其重要。”最重要的是,这包括年龄,性别,种族,宗教,性取向或残疾。

著录项

  • 来源
    《Design & Elektronik》 |2019年第12期|8-8|共1页
  • 作者

  • 作者单位
  • 收录信息
  • 原文格式 PDF
  • 正文语种 eng
  • 中图分类
  • 关键词

相似文献

  • 外文文献
  • 中文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号