首页> 中文会议>中国自然辩证法研究会2017年学术年会 >我们能将伦理规范嵌入人工智能机器吗?——以无人驾驶汽车为例

我们能将伦理规范嵌入人工智能机器吗?——以无人驾驶汽车为例

摘要

无人驾驶汽车和其他许多配备了人工智能的机器必须能够做出道德决定,但这种方法面临着严重的困难.那种主张无人驾驶汽车不是道德能动体而'自治'通常应用于这些智能机器的说法是一种误导.并且这也使那种认为智能机器可以保持道德的方式的结论是无效的.由人工智能的机器所带来的挑战的一个重要部分,可以通过数千年来人类的伦理选择得以解决.因此,几乎不需要教给机器任何伦理,即使这能够在第一时间完成.最后,认为这是一个利用极端的例外情形的严重错误,也是作为像'电车难题'等伦理问题概念化的基础.大多数时候,智能机器可以通过法律手段来保持一致。在其他情况下,他们可以遵守用户的道德偏好。(在这两种情况下他们受到第二规则的协助而监督人工智能程序。)当然,这两种道德的指导模式将揭示百万英里一次的情况(每一个都是独特的和往往难以预测的)。总是会有一些无法预见的事件和程序会发生,例如,当一个金属的气球正好飞向无人驾驶汽车的前面时,带来了困惑。在这些情况下,最好的选择是离开了随机性哪个当事人会伤害。如果这些情况是重复的,法律的指导或机器人的道德指导需要人类持续更新。似乎人们不需要把伦理植入机器,机器也不能拿道德就像孩子一样使它们能够自己做出道德决策,这也是最不可能的。在很多情况下,社会可以设置法律限制这些机器做什么;在其他情况下,用户可以为他们提供伦理指导,运用伦理机器人与保持配备了人工智能的机器有秩序。在不忽视对那些伤害进行补偿的情况下,人们可以不干涉那仅一百万分之一的情况。

著录项

相似文献

  • 中文文献
  • 外文文献
  • 专利
获取原文

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号