期刊文献+
共找到138篇文章
< 1 2 7 >
每页显示 20 50 100
可解释人工智能在电力系统中的应用综述与展望 被引量:5
1
作者 王小君 窦嘉铭 +3 位作者 刘曌 刘畅宇 蒲天骄 和敬涵 《电力系统自动化》 EI CSCD 北大核心 2024年第4期169-191,共23页
可解释人工智能(XAI)作为新型人工智能(AI)技术,具有呈现AI过程逻辑、揭示AI黑箱知识、提高AI结果可信程度的能力。XAI与电力系统的深度耦合将加速AI技术在电力系统的落地应用,在人机交互的过程中为电力系统的安全、稳定提供助力。文中... 可解释人工智能(XAI)作为新型人工智能(AI)技术,具有呈现AI过程逻辑、揭示AI黑箱知识、提高AI结果可信程度的能力。XAI与电力系统的深度耦合将加速AI技术在电力系统的落地应用,在人机交互的过程中为电力系统的安全、稳定提供助力。文中梳理了电力系统XAI的历史脉络、发展需求及热点技术,总结了XAI在源荷预测、运行控制、故障诊断、电力市场等方面的电力应用,并围绕解释含义、迭代框架、数模融合等方面展望了电力系统XAI的应用前景,可为推动电力系统智能化转型与人机交互迭代提供理论参考与实践思路。 展开更多
关键词 电力系统 人工智能 可解释性 机器学习
下载PDF
基于可解释性人工智能的软件工程技术探究
2
作者 王晶昱 《家电维修》 2024年第5期65-67,共3页
人工智能的可解释性是影响人工智能进一步发展的关键阻碍,深受各个领域研究人员的关注。将人工智能应用于软件工程技术能有效解决大量复杂问题,但神经网络本身并不具备推理能力,提高人工智能的可解释性,对软件工程技术的进一步突破起着... 人工智能的可解释性是影响人工智能进一步发展的关键阻碍,深受各个领域研究人员的关注。将人工智能应用于软件工程技术能有效解决大量复杂问题,但神经网络本身并不具备推理能力,提高人工智能的可解释性,对软件工程技术的进一步突破起着关键作用。基于此,本文分析了可解释性人工智能的相关概念,以及可解释性人工智能在软件工程技术中的主要应用方向,并提出它的未来发展方向,以期推动人工智能软件工程技术的发展。 展开更多
关键词 可解释性 人工智能 软件工程 技术研究
下载PDF
人工智能可解释性:发展与应用 被引量:6
3
作者 王冬丽 杨珊 +2 位作者 欧阳万里 李抱朴 周彦 《计算机科学》 CSCD 北大核心 2023年第S01期9-15,共7页
近年来人工智能在诸多领域和学科中的广泛应用展现出了其卓越的性能,这种性能的提升通常需要牺牲模型的透明度来获取。然而,人工智能模型的复杂性和黑盒性质已成为其应用于高风险领域最主要的瓶颈,这严重阻碍了人工智能在特定领域的进... 近年来人工智能在诸多领域和学科中的广泛应用展现出了其卓越的性能,这种性能的提升通常需要牺牲模型的透明度来获取。然而,人工智能模型的复杂性和黑盒性质已成为其应用于高风险领域最主要的瓶颈,这严重阻碍了人工智能在特定领域的进一步应用。因此,亟需提高模型的可解释性,以证明其可靠性。为此,从机器学习模型可解释性、深度学习模型可解释性、混合模型可解释性3个方面对人工智能可解释性研究的典型模型和方法进行了介绍,进一步讲述了可解释人工智能在教学分析、司法判案、医疗诊断3个领域的应用情况,并对现有可解释方法存在的不足进行总结与分析,提出人工智能可解释性未来的发展趋势,希望进一步推动可解释性研究的发展与应用。 展开更多
关键词 人工智能 机器学习 深度学习 可解释性
下载PDF
医疗领域中人工智能应用的可解释性困境与治理 被引量:9
4
作者 张姝艳 皮婷婷 《医学与哲学》 北大核心 2023年第3期25-29,35,共6页
人工智能在医疗领域的应用,推动了医疗事业的发展,但人工智能作为新生事物,其可解释性成为医疗领域面临的重大挑战,导致人工智能难以有效在医疗领域广泛应用。阐述了增强人工智能在医疗领域可解释性的原因,浅析人工智能在医疗领域中的... 人工智能在医疗领域的应用,推动了医疗事业的发展,但人工智能作为新生事物,其可解释性成为医疗领域面临的重大挑战,导致人工智能难以有效在医疗领域广泛应用。阐述了增强人工智能在医疗领域可解释性的原因,浅析人工智能在医疗领域中的可解释性困境,指出提高医疗领域人工智能可解释性的要求,以避免出现医疗事故定责不清、医疗数据隐私泄露、诊疗决策与患者信任相悖、患者医疗公平上的困境等诸多问题。为提高医疗领域中人工智能的可解释性,提出了健全医疗事故法律问责机制、培养医疗数据伦理观、加强医疗监督治理、防止医疗人工智能歧视等路径,以便推动人工智能在医疗领域的深入发展。 展开更多
关键词 人工智能 可解释性 医疗领域 智能医疗
下载PDF
一种人工智能模型算法的解释方法
5
作者 刘滨 栗向龙 +2 位作者 古文刚 李乃鑫 黄创绵 《电子产品可靠性与环境试验》 2024年第3期71-74,共4页
首先,对人工智能模型算法的可解释性风险和算法可解释性难题进行了描述;其次,对当前人工智能模型算法的几种解释方法的优缺点进行了分析,包括人工智能自动化解释法、等价解释法和局部解释法;最后,提出了一种人工智能模型解释方法的新思... 首先,对人工智能模型算法的可解释性风险和算法可解释性难题进行了描述;其次,对当前人工智能模型算法的几种解释方法的优缺点进行了分析,包括人工智能自动化解释法、等价解释法和局部解释法;最后,提出了一种人工智能模型解释方法的新思路,即通过对人工智能芯片电磁场的监测分析,实现对算法程序物理运行逻辑的复现,从而实现对算法的解释。 展开更多
关键词 人工智能 算法 可解释性 电磁场
下载PDF
基于可解释人工智能的数据安全风险识别研究
6
作者 贾晓旭 《信息系统工程》 2024年第1期50-54,共5页
在构建以数据驱动为主要学习模式的深度神经网络模型过程中,如何有效辨识数据的安全风险已成为研究中的重要议题。数据安全风险识别面临的“黑盒”挑战,致使其难以被人类现有的认知结构完全理解,并对数据安全风险治理带来诸多影响。在... 在构建以数据驱动为主要学习模式的深度神经网络模型过程中,如何有效辨识数据的安全风险已成为研究中的重要议题。数据安全风险识别面临的“黑盒”挑战,致使其难以被人类现有的认知结构完全理解,并对数据安全风险治理带来诸多影响。在厘清可解释人工智能的基本概念、可解释性是提高识别数据安全风险效率的基础需求、基于数据安全风险沟通的可解释人工智能范式的基础上,探讨可解释性强的深度学习模型和基于表征一致性技术的解释方法在数据安全风险识别中的具体应用。 展开更多
关键词 xai 生成式人工智能 深度学习 深度神经网络
下载PDF
人工智能司法的可解释性困境及其纾解 被引量:3
7
作者 周媛 张晓君 《财经法学》 2023年第2期3-20,共18页
加强对人工智能司法发展及风险的研究是时代课题,其中人工智能司法的可解释性困境尤为关键。人工智能司法可解释性指的是司法决策或行为的可理解与透明性,涉及基础数据、目标任务、算法模型以及人的认知这四类关键要素。不可解释困境主... 加强对人工智能司法发展及风险的研究是时代课题,其中人工智能司法的可解释性困境尤为关键。人工智能司法可解释性指的是司法决策或行为的可理解与透明性,涉及基础数据、目标任务、算法模型以及人的认知这四类关键要素。不可解释困境主要是由数据失效、算法黑箱、智能技术局限、决策程序和价值缺失等因素所致。但是,人工智能司法的不可解释困境其实是一个伪命题,可解释性具备认知层面和制度层面两方面基础。纾解困境的具体策略包括:构建司法信息公开共享制度,提高有用数据的甄别与利用效率;从软硬法结合视角建构司法系统的运行标准与制度规则;从全过程视角强化主体之间的协同治理;通过指导性案例和司法解释赋权法官的司法解释空间,提高法律解释技术;强化交叉学科人才建设,提高对人工智能司法决策模型的引领;发挥法官的自律与能动性,实现司法智能决策的人机协同。未来,不仅需要把握司法价值与技术理性的平衡,还需考虑人工智能对司法的差异化介入,推动人工智能司法战略目标实现。 展开更多
关键词 人工智能 司法 算法 可解释性 协同治理
下载PDF
交互失误情境下交互式人工智能拟人化的负面影响——基于ChatGPT和搜索引擎的实验证据 被引量:2
8
作者 孟韬 陈梦圆 +2 位作者 张天锴 赵非非 关钰桥 《情报理论与实践》 北大核心 2024年第1期84-91,共8页
[目的/意义]对人机交互失误情境下用户产生的情绪和态度展开研究,旨在验证人工智能拟人化理论的负面效应并探索交互式人工智能拟人化产生负面影响的缓解机制。[方法/过程]以人机交互失误为情境,基于期望一致性理论和拟人化理论,通过实... [目的/意义]对人机交互失误情境下用户产生的情绪和态度展开研究,旨在验证人工智能拟人化理论的负面效应并探索交互式人工智能拟人化产生负面影响的缓解机制。[方法/过程]以人机交互失误为情境,基于期望一致性理论和拟人化理论,通过实验法分别从交互的结果失误和调用失误两个角度,探索了交互式人工智能不同的拟人化程度对用户产生负面态度的影响机制。[结果/结论]研究发现,人机交互失误时,高拟人化的交互式人工智能会加剧用户对其的厌恶感和负面态度。验证了算法可解释性能够缓解厌恶感和负面态度。综合上述分析,从人机交互健康长远发展角度,提出了人工智能应采用有限拟人化的设计框架和具有可解释性的算法架构等建议。 展开更多
关键词 交互式人工智能 交互失误 拟人化 厌恶感 可解释性
下载PDF
论人工智能透明度原则的法治化实现 被引量:2
9
作者 张永忠 《政法论丛》 北大核心 2024年第2期124-137,共14页
随人工智能应用范围不断扩大,透明度原则成为破解“算法黑箱”难题的钥匙。透明度原则包括形式透明和实质透明。形式透明是对人工智能基础信息的披露,使人工智能的部署使用处于非秘密状态。实质透明与人工智能的可解释性息息相关,强调... 随人工智能应用范围不断扩大,透明度原则成为破解“算法黑箱”难题的钥匙。透明度原则包括形式透明和实质透明。形式透明是对人工智能基础信息的披露,使人工智能的部署使用处于非秘密状态。实质透明与人工智能的可解释性息息相关,强调对披露信息以可被理解的方式进行有意义解释,从而打破知识壁垒,使相关信息实现真正可知。透明度原则应在法治化实现上进行精细考量:在考虑现有技术条件的基础上,有必要根据监管机关和社会公众的能力不同有区别地对披露和解释的信息内容提出义务要求,并针对不同人工智能的风险程度采取分级分类分场景的执行标准,从保护用户与公众知情权行使、确保国家监管权落实两方面推动透明度原则实现。 展开更多
关键词 人工智能治理 透明度原则 披露 可解释性 法治化
下载PDF
可解释性框架下人工智能国际合作监管理念与机制 被引量:1
10
作者 郝家杰 《科技创业月刊》 2023年第7期121-125,共5页
人工智能的迭代发展对国际合作构建相应的监管理念与机制提出了前所未有的挑战。目前,可解释性框架下的人工智能国际合作监管存在着理念层面的创新与规制权衡、社会层面的伴生风险以及监管层面的重叠、浪费等问题,蔓延全球各国,致使单... 人工智能的迭代发展对国际合作构建相应的监管理念与机制提出了前所未有的挑战。目前,可解释性框架下的人工智能国际合作监管存在着理念层面的创新与规制权衡、社会层面的伴生风险以及监管层面的重叠、浪费等问题,蔓延全球各国,致使单一国家难以独善其身。质言之,以可解释性为中心的人工智能国际合作监管的理念与机制应运而生,包括探索性地提出“协调性”、“包容性”以及“开放性”等以问题为导向的监管理念,并且通过完善相关法律规范以及构建法律与技术相互为用的体制机制,希冀拓展更为广泛的人工智能国际合作,引导人工智能健康、有序发展。 展开更多
关键词 人工智能 国际合作 理念与机制 可解释性 监管体系
下载PDF
2023年生成式人工智能技术主要发展动向分析 被引量:1
11
作者 王亚珅 方勇 +2 位作者 江昊 曾园园 白然 《无人系统技术》 2024年第2期101-112,共12页
生成式人工智能已经成为人工智能的最前沿技术之一,被认为是通往通用人工智能的重要阶梯。对2023年生成式人工智能的主要发展动向进行了综合评述。首先盘点生成式人工智能技术当前发展状态;其次概述生成式人工智能技术未来发展趋势;最... 生成式人工智能已经成为人工智能的最前沿技术之一,被认为是通往通用人工智能的重要阶梯。对2023年生成式人工智能的主要发展动向进行了综合评述。首先盘点生成式人工智能技术当前发展状态;其次概述生成式人工智能技术未来发展趋势;最后探讨生成式人工智能的军事应用潜力。综述表明,多模态性和可解释性是当前生成式人工智能技术的热门方向,生成式人工智能技术的应用使强调指令理解推理的机器人、强调归纳推理的基础科学等领域不断取得突破,面向终端用户的“轻量化”和面向开发者的“开源化”势头正盛,与此同时,对生成式人工智能技术应用的监管也迫在眉睫。综述认为,深度融合多模态、建设高质量数据资源及评估手段、强调与环境自主交互、在边缘侧低成本应用部署、平衡技术发展与规制治理等,将是生成式人工智能技术在未来的重要发展方向。 展开更多
关键词 生成式人工智能 多模态 可解释性 具身智能 轻量化 开源 监管
下载PDF
统计学在人工智能发展中的作用及其应用展望
12
作者 李冉 《科技资讯》 2024年第3期43-45,共3页
在人工智能迅猛发展的时代,统计学作为数据科学的基础,对人工智能的发展起着不可忽视的关键作用。旨在深入探讨统计学在人工智能领域中的具体应用和作用,强调统计学对于问题定义、数据收集、数据质量评价、因果分析以及不确定性量化等... 在人工智能迅猛发展的时代,统计学作为数据科学的基础,对人工智能的发展起着不可忽视的关键作用。旨在深入探讨统计学在人工智能领域中的具体应用和作用,强调统计学对于问题定义、数据收集、数据质量评价、因果分析以及不确定性量化等方面的关键性。通过揭示统计学在人工智能中的作用,旨在为更好地应用统计学方法解决实际问题、提高人工智能技术水平提供理论支持。不仅有助于拓展学术研究领域,更为实际应用提供了可行性的方法,具有深远的学科和应用意义。 展开更多
关键词 统计学 人工智能 数据分析 不确定性量化 因果分析 可解释性
下载PDF
可解释人工智能研究综述 被引量:8
13
作者 赵延玉 赵晓永 +1 位作者 王磊 王宁宁 《计算机工程与应用》 CSCD 北大核心 2023年第14期1-14,共14页
随着机器学习和深度学习的发展,人工智能技术已经逐渐应用在各个领域。然而采用人工智能的最大缺陷之一就是它无法解释预测的依据。模型的黑盒性质使得在医疗、金融和自动驾驶等关键任务应用场景中人类还无法真正信任模型,从而限制了这... 随着机器学习和深度学习的发展,人工智能技术已经逐渐应用在各个领域。然而采用人工智能的最大缺陷之一就是它无法解释预测的依据。模型的黑盒性质使得在医疗、金融和自动驾驶等关键任务应用场景中人类还无法真正信任模型,从而限制了这些领域中人工智能的落地应用。推动可解释人工智能(explainable artificial intelligence,XAI)的发展成为实现关键任务应用落地的重要问题。目前,国内外相关领域仍缺少有关可解释人工智能的研究综述,也缺乏对因果解释方法的关注以及对可解释性方法评估的研究。从解释方法的特点出发,将主要可解释性方法分为三类:独立于模型的方法、依赖于模型的方法和因果解释方法,分别进行总结分析,对解释方法的评估进行总结,列举出可解释人工智能的应用,讨论当前可解释性存在的问题并进行展望。 展开更多
关键词 可解释性 人工智能 机器学习 深度学习 评估
下载PDF
人工智能在数字金融风险管理中的应用
14
作者 彭婧 《中国经贸》 2024年第8期25-27,共3页
人工智能作为一种新型的技术工具,正在逐渐应用于数字金融风险管理中。本文旨在探讨人工智能在数字金融风险管理中的应用研究。首先,讲述了数字金融和人工智能的基本概念,然后介绍数字金融风险管理的背景和挑战。其次,本文将讨论人工智... 人工智能作为一种新型的技术工具,正在逐渐应用于数字金融风险管理中。本文旨在探讨人工智能在数字金融风险管理中的应用研究。首先,讲述了数字金融和人工智能的基本概念,然后介绍数字金融风险管理的背景和挑战。其次,本文将讨论人工智能在数字金融风险管理中的具体应用。最后,本文将总结人工智能在数字金融风险管理中的应用研究,探讨了人工智能在数字金融风险管理中的现状,并展望未来的发展方向。尽管人工智能在数字金融风险管理中已取得了一些成果,但仍面临着数据隐私、算法可解释性、模型不稳定性等挑战。未来的研究应更加关注这些问题,并提出有效的解决方案,以推动人工智能在数字金融风险管理中的应用进一步发展。 展开更多
关键词 金融风险 人工智能 展望未来 数字金融 数据隐私 可解释性 不稳定性 基本概念
下载PDF
人工智能的安全性与风险管理
15
作者 孙鹏飞 《计算机产品与流通》 2024年第2期154-156,共3页
本文探讨了人工智能的安全性与风险管理。首先分析了人工智能安全风险的现状及影响,其次识别出风险管理的关键问题,包括数据质量和偏差、算法可解释性、模型稳定性和可靠性、安全和隐私问题、人为因素以及技术漏洞和对抗性攻击,最后针... 本文探讨了人工智能的安全性与风险管理。首先分析了人工智能安全风险的现状及影响,其次识别出风险管理的关键问题,包括数据质量和偏差、算法可解释性、模型稳定性和可靠性、安全和隐私问题、人为因素以及技术漏洞和对抗性攻击,最后针对各关键问题提出了解决思路与方法。通过对这些问题的深入研究,以期为人工智能的安全应用和可持续发展提供参考。 展开更多
关键词 人工智能 可解释性 风险管理 可持续发展 数据质量 现状及影响 安全风险 安全和隐私
下载PDF
重新找回人工智能的可解释性 被引量:32
16
作者 何华灿 《智能系统学报》 CSCD 北大核心 2019年第3期393-412,共20页
针对深度神经网络 AI研究的可解释性瓶颈,指出刚性逻辑(数理形式逻辑)和二值神经元等价,二值神经网络可转换成逻辑表达式,有强可解释性。深度神经网络一味增加中间层数来拟合大数据,没有适时通过抽象把最小粒度的数据(原子)变成粒度较... 针对深度神经网络 AI研究的可解释性瓶颈,指出刚性逻辑(数理形式逻辑)和二值神经元等价,二值神经网络可转换成逻辑表达式,有强可解释性。深度神经网络一味增加中间层数来拟合大数据,没有适时通过抽象把最小粒度的数据(原子)变成粒度较大的知识(分子),再把较小粒度的知识变成较大粒度的知识,把原有的强可解释性淹没在中间层次的汪洋大海中。要支持多粒度的知识处理,需把刚性逻辑扩张为柔性命题逻辑(命题级数理辩证逻辑),把二值神经元扩张为柔性神经元,才能保持强可解释性。本文详细介绍了从刚性逻辑到柔性逻辑的扩张过程和成果,最后介绍了它们在 AI研究中的应用,这是重新找回 AI研究强可解释性的最佳途径。 展开更多
关键词 人工智能 可解释性 演化 不确定性 泛逻辑学 柔性命题逻辑 柔性神经元 数理辩证逻辑
下载PDF
人工智能司法决策的可解释性及其路径研究 被引量:8
17
作者 翁晓斌 饶淑慧 《学习论坛》 北大核心 2022年第5期130-136,共7页
人工智能在司法领域获得诸多应用。智能司法应用通常具有的不可解释性存在过程审查无法进行、加剧算法歧视等内部隐忧,以及司法系统内部关联断裂的外部风险,因而遭遇诸多质疑。究其根本,算法技术的内在机理以及法律与技术的职业障碍、... 人工智能在司法领域获得诸多应用。智能司法应用通常具有的不可解释性存在过程审查无法进行、加剧算法歧视等内部隐忧,以及司法系统内部关联断裂的外部风险,因而遭遇诸多质疑。究其根本,算法技术的内在机理以及法律与技术的职业障碍、智慧司法的技术瓶颈是人工智能司法决策可解释性缺失的缘由。随着世界范围内智能司法可解释性相关制度文件的出台,以及算法可解释性与准确性可兼容并存的认知革新,人工智能司法决策的解释路径与透明化势在必行。提高技术应用深度、借鉴已有的技术解释路径针对性研发智慧司法应用的解释方法,能够促进人工智能司法决策可解释性的有效提升,助力司法公正。 展开更多
关键词 人工智能司法决策 可解释性 算法歧视 公正司法
下载PDF
走向道德人工智能(AI)——赋予人工智能系统道德人格和构建可解释人工智能 被引量:1
18
作者 吕雯瑜 曹康康 《学术探索》 2023年第12期24-34,共11页
走向道德AI(artificial intelligence)包含两层内涵:一是赋予人工智能系统(systems of artificial intelligence,SAI)道德人格,二是构建可解释人工智能(explainable artificial intelligence,XAI)。赋予SAI道德人格是将人的道德价值观嵌... 走向道德AI(artificial intelligence)包含两层内涵:一是赋予人工智能系统(systems of artificial intelligence,SAI)道德人格,二是构建可解释人工智能(explainable artificial intelligence,XAI)。赋予SAI道德人格是将人的道德价值观嵌入AI系统中,使其在决策过程中能够遵循这些准则。构建XAI即形成可解释AI,促使AI的决策更加透明和可解释。赋予SAI道德人格和构建XAI共同为道德AI的生成奠定基础。然而,走向道德AI在现实中仍然面临诸多的挑战。一方面,目前关于AI的解释方法仍然面临准确性和可理解性方面的问题;另一方面,人们对于是否赋予AI道德人格也存在观点上的分歧。为此,可以通过代入道德编码、进行道德学习和迭代、构建可解释性模型等技术方法来克服走向道德AI的困境。 展开更多
关键词 人工智能 可解释性 道德人格 道德
下载PDF
人工智能可解释性与评估方法 被引量:2
19
作者 吴新松 马珊珊 赵春昊 《信息技术与标准化》 2021年第7期21-26,32,共7页
由于AI缺乏可解释性,人们无法得知AI作出错误决策的原因,也很难直接改进AI模型,因此对人工智能可解释性的研究非常必要。通过研究提出了AI可解释性的概念和研究的必要性,综合目前主流的研究成果,提出了实现AI可解释性的建模前、建模中... 由于AI缺乏可解释性,人们无法得知AI作出错误决策的原因,也很难直接改进AI模型,因此对人工智能可解释性的研究非常必要。通过研究提出了AI可解释性的概念和研究的必要性,综合目前主流的研究成果,提出了实现AI可解释性的建模前、建模中、建模后三类方法,在此基础上提出AI模型可解释性的评估方法。 展开更多
关键词 人工智能 可解释性 评估 方法
下载PDF
浅析可解释人工智能在金融业的应用及发展 被引量:1
20
作者 林阳 《中国信用卡》 2023年第7期55-58,共4页
可解释人工智能是指人类可以理解决定或预测逻辑的人工智能,强调复杂算法运作的“可解释性”。人工智能,尤其是深度学习的可解释性较低的问题一直是亟待解决的问题之一,阻碍了人工智能算法在金融业的进一步应用,也对金融服务的消费者权... 可解释人工智能是指人类可以理解决定或预测逻辑的人工智能,强调复杂算法运作的“可解释性”。人工智能,尤其是深度学习的可解释性较低的问题一直是亟待解决的问题之一,阻碍了人工智能算法在金融业的进一步应用,也对金融服务的消费者权益构成了一定威胁。各国政府和监管机构都要求提升人工智能算法的可解释性。《中华人民共和国个人信息保护法》要求,个人信息处理者利用个人信息进行自动化决策,应当保证决策的透明度和结果公平、公正,以及通过自动化决策方式作出对个人权益有重大影响的决定,个人有权要求个人信息处理者予以说明,并有权拒绝个人信息处理者仅通过自动化决策的方式作出决定。 展开更多
关键词 消费者权益 个人权益 人工智能 可解释性 深度学习 个人信息保护法 金融业 结果公平
下载PDF
上一页 1 2 7 下一页 到第
使用帮助 返回顶部