期刊文献+
共找到3篇文章
< 1 >
每页显示 20 50 100
欧盟《人工智能法》中的风险防控机制及对我国的镜鉴
1
作者 皮勇 《比较法研究》 北大核心 2024年第4期67-85,共19页
欧盟《人工智能法》是世界上第一部促进人工智能安全发展的区域性国际法律文件,将人工智能系统定性为自主性工具,立足于人工智能安全风险全球化视角,以保障本土安全与发展利益为导向,规定了针对不同类型人工智能安全风险的、全过程多方... 欧盟《人工智能法》是世界上第一部促进人工智能安全发展的区域性国际法律文件,将人工智能系统定性为自主性工具,立足于人工智能安全风险全球化视角,以保障本土安全与发展利益为导向,规定了针对不同类型人工智能安全风险的、全过程多方协同防控机制。该法根据风险的类别和大小程度,将防控对象分为禁止的人工智能活动、人工智能系统和通用人工智能模型三大类六小类,分别采取禁止和不同程度的管控措施,重点防控高风险人工智能系统和通用人工智能模型的安全风险。以上防控机制主要通过规定人工智能安全管理义务及其处罚规定来实现,重点规定了高风险人工智能系统和通用人工智能模型的要求及相关方的安全管理义务,并对违反不同义务的自然人、公司以及欧盟机构、部门或实体设置了与行为人类型及义务相称的罚款。我国制定人工智能安全立法应考虑借鉴该法的成功经验,同时避免其出现的防控不全面不充分、法律责任制度存在缺漏、风险防控责任分配不合理等缺点。 展开更多
关键词 欧盟《人工智能法》 风险类型化 全程协同防控 安全管理义务
原文传递
人工智能应用责任的主体识别与归责设计
2
作者 郑志峰 《法学评论》 北大核心 2024年第4期123-137,共15页
应用责任可以同时适用于人工智能产品和服务,全方位解决人工智能部署应用端的风险致害责任,是未来我国《人工智能法》需要重点关注的课题。在明确《人工智能法》三分主体架构的基础上,按照救济、一站式与风险原则,不宜将开发者作为人工... 应用责任可以同时适用于人工智能产品和服务,全方位解决人工智能部署应用端的风险致害责任,是未来我国《人工智能法》需要重点关注的课题。在明确《人工智能法》三分主体架构的基础上,按照救济、一站式与风险原则,不宜将开发者作为人工智能应用责任的第一责任主体,至于提供者、使用者则需要区分人工智能产品和服务分别界定。整齐划一的归责思路缺乏灵活性,应当引入基于风险的类型化思维,不仅契合侵权责任归责的一般原理,也是贯彻人工智能分级治理的理念。对于高风险人工智能,确立无过错责任有助于充分救济受害人,公平分配人工智能技术的风险,避免归责体系的内在冲突;对于有限风险与低风险人工智能,应当分别适用过错推定责任与过错责任,以实现风险与归责的动态平衡。 展开更多
关键词 《人工智能法》 应用责任 提供者 使用者 无过错责任
原文传递
人工智能监管的路径选择——欧盟《人工智能法》的范式、争议及影响
3
作者 王天凡 《欧洲研究》 2024年第3期1-30,I0002,共31页
中国的人工智能立法已提上日程,而该立法应遵循何种监管路径尚无定论,不同法域的前期探索均值得参考。欧盟《人工智能法》是欧洲数字立法版图展开的重要一步,是欧盟人工智能战略的基础性法律。欧盟《人工智能法》采取横向立法模式,选择... 中国的人工智能立法已提上日程,而该立法应遵循何种监管路径尚无定论,不同法域的前期探索均值得参考。欧盟《人工智能法》是欧洲数字立法版图展开的重要一步,是欧盟人工智能战略的基础性法律。欧盟《人工智能法》采取横向立法模式,选择了“基于风险”的监管方法,将人工智能系统分为四个不同的风险级别,对其设置相应强度的监管措施:被禁止的人工智能系统、受详细规则约束的高风险人工智能系统、其他人工智能系统,以及通用人工智能模型。其中,公共场所“实时”远程生物特征识别及通用人工智能模型监管等问题备受争议。欧盟《人工智能法》面临标准制定、市场主体成本增加、实施成本高昂等问题。欧盟与美国、英国等代表性国家对人工智能的规制路径各不相同。中国应立足于本国人工智能战略,选择横纵结合的监管路径。 展开更多
关键词 欧盟 《人工智能法》 通用人工智能 生物特征识别 监管沙盒
原文传递
上一页 1 下一页 到第
使用帮助 返回顶部