期刊文献+
共找到9篇文章
< 1 >
每页显示 20 50 100
有意义人类控制(MHC)在AI影视创作中的探索与应用
1
作者 王雷 《现代电影技术》 2024年第9期12-17,共6页
当前AI工具存在自动化程度过高、人类控制不足造成生成结果可控性差的问题,成为其应用于专业影视创作的主要壁垒。本文通过总结自主视频生成流程“墨池”(Inkstone)设计与应用中的经验,结合人工智能(AI)与自动化领域的有意义人类控制(Me... 当前AI工具存在自动化程度过高、人类控制不足造成生成结果可控性差的问题,成为其应用于专业影视创作的主要壁垒。本文通过总结自主视频生成流程“墨池”(Inkstone)设计与应用中的经验,结合人工智能(AI)与自动化领域的有意义人类控制(Meaningful Human Con⁃trol,MHC)概念,对比了三种不同的自动化工具设计思路,分析了基于MHC的AI影视创作流程和工具开发具体方式,以及目前加强人类控制的若干可行技术路径。研究表明,加强AI训练和生成过程中的MHC,有望在发挥AI工具优势的前提下,对生成内容进行准确控制,从而使创作能够体现艺术家意图,适应专业影视创作需求。 展开更多
关键词 生成式人工智能 有意义人类控制 影视创作 AIGC
下载PDF
走向“有意义的人类控制”——自动驾驶汽车的主体悬置与责任锚定
2
作者 刘成科 葛燕 《山东科技大学学报(社会科学版)》 2023年第1期27-34,44,共9页
自动驾驶作为一个动态发展的技术连续体,在具体应用场景中呈现出从人类主导过渡到人机协同再到机器主导等不同人机关系样态,其自主性与人类控制权之争引发了各种伦理、法律和社会等问题。人机互动关系演变背后折射的是人类控制形式的不... 自动驾驶作为一个动态发展的技术连续体,在具体应用场景中呈现出从人类主导过渡到人机协同再到机器主导等不同人机关系样态,其自主性与人类控制权之争引发了各种伦理、法律和社会等问题。人机互动关系演变背后折射的是人类控制形式的不断进化,从本质上看,自动驾驶汽车的责任鸿沟问题与不同技术嵌入层级下的人类控制密切相关。源于应对人工智能伦理困境的“有意义的人类控制”,可作为解决自动驾驶汽车责任鸿沟问题的一种全新技术治理理念。借助“追踪-回溯”双向路径设计,实现对多元责任主体的锚定。在“有意义的人类控制”框架下,将自动驾驶置于技术层级与人类控制的关系界面之上,坚持以科学的数据系统为支撑,以责任锚定为导向,以人类控制为中心,通过伦理与法律的整合进路,并结合完善的保险制度,破解自动驾驶主体悬置的困境。未来,应加强自动驾驶的跨学科交叉研究,尤其需要借助科技与人文的常态化对话机制,强化各利益相关方的伦理自觉和法律认知,摈弃简单的技术设计视角,实现“有意义的人类控制”转向,从而进一步推动自动驾驶技术的发展。 展开更多
关键词 自动驾驶 主体悬置 责任锚定 技术嵌入 有意义人类控制
下载PDF
“有意义的人类控制”:智能时代人机系统“共享控制”的伦理原则解析
3
作者 俞鼎 《自然辩证法研究》 北大核心 2024年第2期83-88,129,共7页
智能时代的决策机制显现出人机系统“共享控制”的协作关系,但要谨防智能机器被赋予自主权的同时可能引发的责任扩散效应,这就要求人类对自主系统的控制与道德责任之间有新的伦理规约机制。由此,人工智能全球治理领域新近提出了“有意... 智能时代的决策机制显现出人机系统“共享控制”的协作关系,但要谨防智能机器被赋予自主权的同时可能引发的责任扩散效应,这就要求人类对自主系统的控制与道德责任之间有新的伦理规约机制。由此,人工智能全球治理领域新近提出了“有意义的人类控制”(MHC)这一人机交互伦理原则。当前,MHC在具体应用中存在系统设计的哲学基础与工程实践之间的显著鸿沟,除了对MHC做出概念界定,还要揭示其理论局限并做出拓展,进而提出一种“全方位人类监督框架”来规范应用MHC。 展开更多
关键词 有意义人类控制 人机交互伦理 自主系统 全方位人类监督框架
原文传递
自动驾驶算法设计中的伦理决策--基于“有意义的人类控制”
4
作者 李德新 宫志超 《科技导报》 CAS CSCD 北大核心 2023年第7期47-54,共8页
基于“有意义的人类控制”这一人工智能伦理学的核心概念,总结了自动驾驶在算法设计阶段的伦理难题;分析了“有意义的人类控制”运用于自动驾驶的可行性;从“跟踪”和“追踪”2大条件,围绕“问责制与透明度”和“价值敏感设计”进行“... 基于“有意义的人类控制”这一人工智能伦理学的核心概念,总结了自动驾驶在算法设计阶段的伦理难题;分析了“有意义的人类控制”运用于自动驾驶的可行性;从“跟踪”和“追踪”2大条件,围绕“问责制与透明度”和“价值敏感设计”进行“有意义的人类控制”框架构建,以为自动驾驶的算法设计提供系统方法论指导。 展开更多
关键词 自动驾驶 伦理困境 电车难题 有意义人类控制 价值敏感设计
原文传递
在有意义的人类控制下发展负责任的人工智能 被引量:6
5
作者 刘永安 《自然辩证法通讯》 CSSCI 北大核心 2022年第9期95-101,共7页
人工智能技术的“责任缺口”是从技术的社会属性中衍生出来的规范性问题,其实质是人类对基于AI技术的技术性行动不能有效控制,因而不能承担相应的道德责任的问题,而不是AI技术系统或人工智能体能不能承担道德责任的问题。“有意义的人... 人工智能技术的“责任缺口”是从技术的社会属性中衍生出来的规范性问题,其实质是人类对基于AI技术的技术性行动不能有效控制,因而不能承担相应的道德责任的问题,而不是AI技术系统或人工智能体能不能承担道德责任的问题。“有意义的人类控制”理论不仅为“责任缺口”问题的解决提供了可行的方案,而且为人工智能的负责任发展提出了规范性的指引。 展开更多
关键词 人工智能 责任缺口 技术性行动 有意义人类控制
原文传递
致命性自主武器系统议题下有意义的人类控制原则 被引量:2
6
作者 冷新宇 《国际法学刊》 2022年第2期1-36,154,共37页
《常规武器公约》框架下政府专家组会议对致命性自主武器的讨论,确定了有意义的人类控制原则的中枢地位。有意义的人类控制原则之所以被提出,是因为人工智能带来武器系统自主化的背景下,使用武器人的行为与武器系统攻击存在不一致性,后... 《常规武器公约》框架下政府专家组会议对致命性自主武器的讨论,确定了有意义的人类控制原则的中枢地位。有意义的人类控制原则之所以被提出,是因为人工智能带来武器系统自主化的背景下,使用武器人的行为与武器系统攻击存在不一致性,后者并不一定是前者的必然结果。为消除伦理危机,实践中在两个方面阐述有意义的人类控制原则:一方面从军控角度出发,建立自开发至使用全流程监管,以期实现武器攻击反映操作员、指挥官意图的目标;另一方面从国际刑法、国家责任法角度出发,落实人(国家)的责任不得被转移至机器的原则。有意义的人类控制原则在约束国家行为以及追究个人刑事责任、国家责任两个层次发挥作用,对我国法律的完善及未来塑造规制致命性自主武器的国际法规则,均有重要参考意义。 展开更多
关键词 有意义人类控制原则 致命性自主武器系统 第36条审查
原文传递
论自主武器军控的国际法及政策要点 被引量:1
7
作者 冷新宇 《国防科技》 2021年第4期43-51,共9页
如何规制自主武器是1980年《常规武器公约》框架下讨论的热点问题,目前这一议题已进入到政府专家组讨论阶段,对自主武器的研发、测试、部署及使用的关键问题,进行了比较深入的讨论。2018年以来,政府专家组会议最后文件已包含了未来谈判... 如何规制自主武器是1980年《常规武器公约》框架下讨论的热点问题,目前这一议题已进入到政府专家组讨论阶段,对自主武器的研发、测试、部署及使用的关键问题,进行了比较深入的讨论。2018年以来,政府专家组会议最后文件已包含了未来谈判的若干指导性原则。本文认为,结合国际军控博弈的背景和各军事大国人工智能技术发展现状考虑,《日内瓦公约:第一附加议定书》第36条下缔约国审查义务、使用自主武器违反国际人道法的责任不得转移规则,以及2013年《武器贸易条约》对自主武器贸易的管制,是三个法律、政策背景极其复杂的问题。以自身军事能力不受到国际军控规则的严重削弱为基础考量,我国应该对此采取审慎的态度,尽力完善法律和政策。 展开更多
关键词 自主武器 责任不得转移规则 有意义人类控制 《武器贸易条约》
下载PDF
智能社会实验:场景创新的责任鸿沟与治理 被引量:1
8
作者 俞鼎 李正风 《科学学研究》 CSCD 北大核心 2024年第6期1121-1128,共8页
人工智能社会实验具有场景驱动创新的显著特征,而前者需要迫切解决的人工智能应用中最困扰人类的“责任鸿沟”问题也是在具体场景中生成并得到解决的。通过分析人工智能赋能场景驱动创新的技术逻辑、场景创新对人工智能伦理规约的内在要... 人工智能社会实验具有场景驱动创新的显著特征,而前者需要迫切解决的人工智能应用中最困扰人类的“责任鸿沟”问题也是在具体场景中生成并得到解决的。通过分析人工智能赋能场景驱动创新的技术逻辑、场景创新对人工智能伦理规约的内在要求,可以得知,“人工智能社会实验伦理”与“人工智能伦理”之间存在“责任鸿沟”方面的共性问题,因此消解人工智能社会实验的“责任鸿沟”成了新的当务之急,这将直接助益人工智能伦理原则与法规的制定。根据实验场景的不同,实验伦理挑战的归责类型可以就性质、界限上的差异做出细分即罪责鸿沟、道德问责鸿沟、公共问责鸿沟、积极责任鸿沟,通过引入“有意义的人类控制”这一当前人工智能全球治理领域最具发展前景的指导思想及实践框架,可以为综合解决人工智能社会实验场景内就认知、具身、道德意义上的控制形式与其多元责任形式之间的脱节提供一种新思路。 展开更多
关键词 人工智能社会实验 场景驱动创新 责任鸿沟 有意义人类控制
原文传递
美国规制自主武器系统的法律政策及其启示 被引量:2
9
作者 孟誉双 《战术导弹技术》 北大核心 2021年第5期43-54,共12页
针对美国政府在规制自主武器系统方面法规和政策的形成,考察了美国国防部出台3000.09号指令以来法律和政策的发展,详细分析了在2018年美国国防部人工智能战略下就发展自主武器系统及人工智能技术的顶层设计,剖析了美国国防创新委员会作... 针对美国政府在规制自主武器系统方面法规和政策的形成,考察了美国国防部出台3000.09号指令以来法律和政策的发展,详细分析了在2018年美国国防部人工智能战略下就发展自主武器系统及人工智能技术的顶层设计,剖析了美国国防创新委员会作为互动交流平台的独特作用。同时还考察了美国国内法律、政策对塑造国际军控规则所起的积极作用和法律理念输出,以便使国际军控规则的演变成为其国内法规则的自然延伸;另一方面,分析了美国在确保其军事利益前提下,在涉及自主武器的法律审查、训练和使用、违法责任等关键问题上模糊处理的技术性考量。美国的上述做法对如何积极影响国际军控规则、如何通过学术编纂争取国际话语权等问题,均有重要的价值。 展开更多
关键词 人工智能 自主武器系统 有意义人类控制原则 态势感知 责任不得转移规则
原文传递
上一页 1 下一页 到第
使用帮助 返回顶部