摘要
自动驾驶汽车在上路前需要预置某种应对突发事故的道德决策算法,权衡不同对象的生存值,选择最佳的碰撞方案。那么,谁来决定自动驾驶汽车事故的道德算法?目前,学术界已经提出两种相互竞争的解决方案:强制的伦理设定和个人的伦理设定。前者主张由全社会集体来决定事故算法的伦理设定;后者认为每一位司机或乘客都有权对自己所乘坐的汽车进行伦理设定。按照哥格尔和缪勒的分析,个人的伦理设定很可能导致"囚徒困境",最终造成交通事故不降反升的局面。他们认为,解决"囚徒困境"的唯一办法是采用强制的伦理设定。不过,这种方案同样面临种种困难。强制的伦理设定需要适度改进,加入情境归责的考虑才是更有前景的一种解决方案。
出处
《伦理学研究》
CSSCI
北大核心
2018年第2期97-101,共5页
Studies in Ethics
基金
国家社会科学基金青年项目“人工智能的道德决策研究”(17CZX019)