期刊导航
期刊开放获取
河南省图书馆
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
1
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
可问责的算法
被引量:
23
1
作者
约叔华·A.克鲁尔
乔安娜·休伊
+6 位作者
索伦·巴洛卡斯
爱德华·W.菲尔顿
乔尔·r.瑞登伯格
大卫·G.罗宾逊
哈兰·余
沈伟伟(译)
薛迪(译)
《地方立法研究》
2019年第4期102-150,共49页
许多传统上由人做出的重要决策,现在都是由计算机做出的。算法统计选票、批准贷款和信用卡申请、指定公民或社区进行警务审查、选择纳税人进行税务审计、批准或拒绝移民签证等。然而,监管此类决策流程的问责机制和法律标准,尚未跟上技...
许多传统上由人做出的重要决策,现在都是由计算机做出的。算法统计选票、批准贷款和信用卡申请、指定公民或社区进行警务审查、选择纳税人进行税务审计、批准或拒绝移民签证等。然而,监管此类决策流程的问责机制和法律标准,尚未跟上技术的步伐。目前,可供决策者、立法者和法院使用的工具,是为监督人类决策而设计的,当把它们应用于监督计算机决策时,通常会失灵。例如,如何判断一个软件的意图?由于自动化决策系统可能会输出不正确、不合理或不公平的结果,因此,我们需要采取其他手段,以使此类算法具有可问责性和可操控性。本文提出了一套新的技术措施,它能够以法律公平为准绳,来验证自动化决策。法学界的主流文献认为,算法透明可以解决这些问题。本文对这一主流观点提出挑战。通常而言,源代码的公开,既不必要(由于计算机科学中的替代技术),也不足以证明决策流程的公平性(由于分析代码时所存在的问题)。此外,算法透明也可能是不可取的,例如,它可能会披露个人信息,也可能会帮助不法分子或恐怖分子与税务审计或安全检查的系统进行周旋。真正的核心问题是:如何使自动化决策更具可问责性,以确保公民个体和整个社会的利益?本文认为,技术正在创造新的机会——以比算法完全透明更巧妙、更灵活的方式,来设计自动化决策的算法,使其更好地顺应法律和政策的目标。这样做不仅可以改善当前对自动化决策的治理,而且在某些情况下,还可以改善普通决策的治理。人类决策者的内在(或外在)偏见,很难被发现和根除,但我们却可以窥视算法的“大脑”:计算过程和目的规范可以在事前声明,并在事后验证。本文介绍的技术可以得到广泛应用。它们可以用来设计私营机构和公共部门的决策流程,并可根据决策者、监管者或公众的需要进行定制,用以验证不同的特性。通过更加仔细地权衡决策规则的影响,它们也会激活政策讨论,以及更细致的法律标准审查。因此,这些工具在整个法律制度和社会制度中,将有深远的影响。文章分四部分。第一部分简单介绍了相关基础计算机科学技术。这些技术可用于检验和证明自动化决策是否符合法律公平,而无须公开决策的关键属性或做出决策的整个过程。接下来,第二部分阐述了这些技术如何确保决策具有程序规制性(proceduralregularity)这一关键治理属性,即决策是根据在每个案例中统一适用的、既定的规则做出的。我们介绍了如何使用这种手段,来重新设计和解决签证抽签的问题。在第三部分,我们进一步探讨了其他计算技术如何确保自动化决策对实质性法律和政策选择的忠实程度。我们论证了如何使用这些工具,来确保避免某些不公正歧视,以及自动化决策的过程如何顺应管理决策的社会标准或法律标准。我们还论证了自动化决策如何使现有的差别对待和差别影响的理论变得更为复杂。除此之外,我们还讨论了,计算机科学——尤其是在大数据和机器学习的背景下——近期在监督和消除算法歧视方面的努力。最后,在第四部分,我们提议进一步加强计算机科学、法律和政策之间的协作,以推进问责制自动化决策流程的设计。
展开更多
关键词
自动化决策
可问责性
算法透明
算法审计
程序规制性
下载PDF
职称材料
题名
可问责的算法
被引量:
23
1
作者
约叔华·A.克鲁尔
乔安娜·休伊
索伦·巴洛卡斯
爱德华·W.菲尔顿
乔尔·r.瑞登伯格
大卫·G.罗宾逊
哈兰·余
沈伟伟(译)
薛迪(译)
机构
普林斯顿大学信息技术政策研究中心
普林斯顿大学
普林斯顿大学计算机科学与公共政策
福特汉姆大学法学院
耶鲁大学法学院信息社会研究中心
斯坦福大学法学院互联网与社会研究中心
中国政法大学法学院
清华大学法学院
出处
《地方立法研究》
2019年第4期102-150,共49页
基金
国家社会科学基金重大项目《互联网经济的法治保障研究》 (批准号:18ZDA149)阶段性成果
文摘
许多传统上由人做出的重要决策,现在都是由计算机做出的。算法统计选票、批准贷款和信用卡申请、指定公民或社区进行警务审查、选择纳税人进行税务审计、批准或拒绝移民签证等。然而,监管此类决策流程的问责机制和法律标准,尚未跟上技术的步伐。目前,可供决策者、立法者和法院使用的工具,是为监督人类决策而设计的,当把它们应用于监督计算机决策时,通常会失灵。例如,如何判断一个软件的意图?由于自动化决策系统可能会输出不正确、不合理或不公平的结果,因此,我们需要采取其他手段,以使此类算法具有可问责性和可操控性。本文提出了一套新的技术措施,它能够以法律公平为准绳,来验证自动化决策。法学界的主流文献认为,算法透明可以解决这些问题。本文对这一主流观点提出挑战。通常而言,源代码的公开,既不必要(由于计算机科学中的替代技术),也不足以证明决策流程的公平性(由于分析代码时所存在的问题)。此外,算法透明也可能是不可取的,例如,它可能会披露个人信息,也可能会帮助不法分子或恐怖分子与税务审计或安全检查的系统进行周旋。真正的核心问题是:如何使自动化决策更具可问责性,以确保公民个体和整个社会的利益?本文认为,技术正在创造新的机会——以比算法完全透明更巧妙、更灵活的方式,来设计自动化决策的算法,使其更好地顺应法律和政策的目标。这样做不仅可以改善当前对自动化决策的治理,而且在某些情况下,还可以改善普通决策的治理。人类决策者的内在(或外在)偏见,很难被发现和根除,但我们却可以窥视算法的“大脑”:计算过程和目的规范可以在事前声明,并在事后验证。本文介绍的技术可以得到广泛应用。它们可以用来设计私营机构和公共部门的决策流程,并可根据决策者、监管者或公众的需要进行定制,用以验证不同的特性。通过更加仔细地权衡决策规则的影响,它们也会激活政策讨论,以及更细致的法律标准审查。因此,这些工具在整个法律制度和社会制度中,将有深远的影响。文章分四部分。第一部分简单介绍了相关基础计算机科学技术。这些技术可用于检验和证明自动化决策是否符合法律公平,而无须公开决策的关键属性或做出决策的整个过程。接下来,第二部分阐述了这些技术如何确保决策具有程序规制性(proceduralregularity)这一关键治理属性,即决策是根据在每个案例中统一适用的、既定的规则做出的。我们介绍了如何使用这种手段,来重新设计和解决签证抽签的问题。在第三部分,我们进一步探讨了其他计算技术如何确保自动化决策对实质性法律和政策选择的忠实程度。我们论证了如何使用这些工具,来确保避免某些不公正歧视,以及自动化决策的过程如何顺应管理决策的社会标准或法律标准。我们还论证了自动化决策如何使现有的差别对待和差别影响的理论变得更为复杂。除此之外,我们还讨论了,计算机科学——尤其是在大数据和机器学习的背景下——近期在监督和消除算法歧视方面的努力。最后,在第四部分,我们提议进一步加强计算机科学、法律和政策之间的协作,以推进问责制自动化决策流程的设计。
关键词
自动化决策
可问责性
算法透明
算法审计
程序规制性
Keywords
automated decisionmaking
accountability
algorithm transparency
algorithm audit
procedural regularity
分类号
D912.1 [政治法律—宪法学与行政法学]
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
可问责的算法
约叔华·A.克鲁尔
乔安娜·休伊
索伦·巴洛卡斯
爱德华·W.菲尔顿
乔尔·r.瑞登伯格
大卫·G.罗宾逊
哈兰·余
沈伟伟(译)
薛迪(译)
《地方立法研究》
2019
23
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部