-
题名人工智能中的“解释”:来自社会科学的洞见(上)
- 1
-
-
作者
蒂姆·米勒
张菁(译)
-
机构
澳大利亚昆士兰大学电气工程与计算机科学学院
-
出处
《数字人文研究》
2024年第1期18-41,共24页
-
文摘
随着研究人员和从业者寻求为其算法提供更多透明度,可解释人工智能(Explainable Artificial Intelligence)有一场新近的复苏。这项研究的大部分聚焦于向人类观察者明确地解释决策或行动。观察人类如何相互解释可以作为人工智能解释的一个有用起点,这应该没有争议。诚然,公正地说,大多数关于可解释人工智能的工作仅利用研究人员对什么构成“好”解释的直觉。哲学、心理学和认知科学领域存在大量关于人们如何定义、生成、选择、评估和呈现解释的有价值的研究,这些研究认为人们在解释过程中运用了某些认知偏见和社会期望。文章认为,可解释人工智能领域可以建立在这些现有研究的基础上,并回顾了研究这些主题的哲学、认知心理学/科学和社会心理学的相关论文,由此获取了一些重要的发现,并讨论了如何将这些发现融入可解释人工智能的相关工作中。
-
关键词
解释
可解释性
可阐释性
可解释人工智能
透明度
-
Keywords
explanation
explainability
interpretability
explainable Al
transparency
-
分类号
TP18
[自动化与计算机技术—控制理论与控制工程]
B84-05
[哲学宗教—基础心理学]
-