摘要
可信任人工智能的构建发端于人对技术伦理旨趣的审度,可信任的存在逻辑在于人工智能创建了基于任务和基于目标信任得以产生的可能条件,并在与人类的交互之中呈现出某种关联性的信任。可信任人工智能应基于信任边界厘清的前提下,兼顾技术伦理学的通用原则和人工智能自身的技术特性,在有效监督和对技术动态的发展与应用的审慎批判中,确保人工智能向善。反观欧盟的“可信任人工智能的伦理框架”,其所阐述的技术与非技术两个方面的构建路径、判别标准为可信任人工智能实现提供了有效的实践保障,但其对信任边界问题的搁置或排除则使其有效性遭遇质疑。
出处
《理论探索》
CSSCI
北大核心
2019年第4期38-42,63,共6页
Theoretical Exploration
基金
上海市社会科学规划一般课题“数据记忆的伦理研究”(2017BZX004),负责人闫宏秀