期刊文献+
共找到7篇文章
< 1 >
每页显示 20 50 100
论欧盟《人工智能法案》中的标准化模式及对我国启示
1
作者 张辛鑫 冀瑜 《标准科学》 2024年第5期39-46,共8页
2024年3月13日,经欧盟议会全会投票,正式通过了全球首个人工智能领域的综合性立法《人工智能法案》。本文对该法案的制定背景、规范体系与其中涉及标准化的内容进行了分析。该法案通过设置1025/2012号条例准用性条款,为法律适用提供了... 2024年3月13日,经欧盟议会全会投票,正式通过了全球首个人工智能领域的综合性立法《人工智能法案》。本文对该法案的制定背景、规范体系与其中涉及标准化的内容进行了分析。该法案通过设置1025/2012号条例准用性条款,为法律适用提供了大范围、开放的标准“接口”,一方面可一定程度弥合人工智能技术与法律条款之间的鸿沟,另一方面标准化法规也为欧盟未来人工智能的标准化治理提供了法律保障。此外,本文结合该法案中标准与法律的互通机制提出了我国未来人工智能的治理建议,以供参考。 展开更多
关键词 人工智能法案 人工智能治理 准用性条款 人工智能技术标准
下载PDF
基于风险的通用人工智能监管——从欧盟《人工智能法案》视角展开
2
作者 江海洋 魏书敏 《科技与法律(中英文)》 2024年第2期88-97,共10页
以ChatGPT为代表的通用人工智能火爆全球,在改变我们生活以及提升生产效率的同时,也引发了一系列的监管挑战。为此,欧盟《人工智能法案》采取了一种基于风险的监管方法,通过对不同人工智能的风险进行评估,将人工智能风险分为不可接受的... 以ChatGPT为代表的通用人工智能火爆全球,在改变我们生活以及提升生产效率的同时,也引发了一系列的监管挑战。为此,欧盟《人工智能法案》采取了一种基于风险的监管方法,通过对不同人工智能的风险进行评估,将人工智能风险分为不可接受的风险、高风险、有限风险、最小风险几个等级,并对应赋予了相应等级的义务。但是,鉴于通用人工智能无固定任务性、适应性、突现性等特点,对其监管有别于传统人工智能,欧盟此种自上而下的静态风险规制路径难以有效监管通用人工智能。因此,有必要采取一种动态风险规制方法,将人工智能风险类别转化为动态风险情景,把风险的主要因素类型化为危害、暴露、脆弱性以及反应。在判断风险的等级时,需综合危害、暴露、脆弱性以及反应四个要素。同时,鉴于提供者、私人机构制定高风险标准的缺陷,应由立法者授权相关行政主管机关制定高风险的标准,并立足于通用人工智能的开发到使用进行全流程监管。 展开更多
关键词 通用人工智能 欧盟人工智能法案 基于风险的方法 动态风险 ChatGPT
下载PDF
生成式人工智能训练数据风险的规制路径研究
3
作者 邢露元 沈心怡 王嘉怡 《网络安全与数据治理》 2024年第1期10-18,共9页
探讨了生成式人工智能如ChatGPT在训练数据方面的法律风险与规制问题。首先分析了生成式人工智能在数据来源、歧视倾向、数据质量以及安全风险等方面的问题,通过对中欧法律体系的比较研究,建议明确界定治理原则,并针对数据合规性制定完... 探讨了生成式人工智能如ChatGPT在训练数据方面的法律风险与规制问题。首先分析了生成式人工智能在数据来源、歧视倾向、数据质量以及安全风险等方面的问题,通过对中欧法律体系的比较研究,建议明确界定治理原则,并针对数据合规性制定完善路径。最后,从具体措施层面,对中国现行的法律规制提出了具体的完善建议,为生成式人工智能的健康发展与法律规制提供有益参考。 展开更多
关键词 生成式人工智能 人工智能法案 训练数据风险 数据合规
下载PDF
《欧盟人工智能法案》的背景、主要内容与评价——兼论该法案对劳动法的影响
4
作者 《环球法律评论》 2024年第3期5-27,共23页
为了应对人工智能系统带来的各种挑战,《欧盟人工智能法案》采用基于风险分类的监管路径。法案首先明确禁止了某些存在不可接受风险的人工智能系统,然后重点规制高风险人工智能系统,任何在欧盟市场上提供此类系统的企业都必须满足法案... 为了应对人工智能系统带来的各种挑战,《欧盟人工智能法案》采用基于风险分类的监管路径。法案首先明确禁止了某些存在不可接受风险的人工智能系统,然后重点规制高风险人工智能系统,任何在欧盟市场上提供此类系统的企业都必须满足法案规定的从风险管理、数据治理到全面的记录义务等诸多要求。但是,法案的监管要求可能造成小微企业负担过重,模糊的规定也可能导致实施方面的困难。在劳动关系领域,对雇员进行社会评分、预测雇员犯罪风险、分析雇员情绪等人工智能系统可能因为存在不可接受的风险而被禁止。对岗位申请者和雇员使用人工智能系统的,则根据是否属于高风险系统而负担不同的义务。除了要让雇主向雇员提供相关人工智能技能培训以外,工作中使用ChatGPT的问题也值得关注。 展开更多
关键词 欧盟 人工智能法案 风险分类 劳动法 ChatGPT
原文传递
欧盟人工智能立法:社会评分被禁止了吗?
5
作者 蔡培如 《华东政法大学学报》 2024年第3期55-68,共14页
对个人进行社会评分是自动化决策和数字行政的典型应用场景。欧盟人工智能立法采用了风险分级监管模式,符合特定条件的社会评分可能产生不可接受的风险而应当受到禁止。在立法演进过程中,最初试图禁止的是公共机构对个人可信度或道德人... 对个人进行社会评分是自动化决策和数字行政的典型应用场景。欧盟人工智能立法采用了风险分级监管模式,符合特定条件的社会评分可能产生不可接受的风险而应当受到禁止。在立法演进过程中,最初试图禁止的是公共机构对个人可信度或道德人格的一般性评估,后来删除了主体要件和目的要件,扩大了受禁止的社会评分的范围。根据欧盟议会在2024年3月通过的《人工智能法案》的规定,通过分析个人的社会行为、个人的或人格的特征数据作出社会评分,并由此对个人或其群体做出不利对待时,若使用了超出原初场景的数据,或者此不利对待是不公正的、不成比例的,则该类社会评分应受禁止。禁止社会评分的立法目的在于防止其侵犯基本权利所保障的个人自主性和公正对待。通过在人工智能立法中禁止特定情形下的社会评分,可以弥补既有法律框架下以程序性赋权为主的数据法规范模式的不足,为个人提供实质性保护。 展开更多
关键词 人工智能法案 社会评分 自动化决策 社会信用
下载PDF
欧盟人工智能数据安全监管制度特点及启示
6
作者 徐伟 李文敏 《中国信息安全》 2024年第4期81-83,共3页
在数字经济快速发展的时代背景下,构建全面、有效的人工智能数据安全监管制度具有重要意义。深入探讨人工智能在数据处理过程中涉及的多种风险,并以欧盟人工智能数据安全监管制度为研究对象,可以总结出三个明显的特点,即公开透明的监管... 在数字经济快速发展的时代背景下,构建全面、有效的人工智能数据安全监管制度具有重要意义。深入探讨人工智能在数据处理过程中涉及的多种风险,并以欧盟人工智能数据安全监管制度为研究对象,可以总结出三个明显的特点,即公开透明的监管原则、硬性规定与软性约束相结合的监管模式,以及风险分级与监管沙盒协同治理的监管措施。通过深入分析这些特色,结合我国的实际情况,可以得出三个重要启示,即建立健全相关制度确保公开透明、构建一体化的监管体系规范发展和试点开展风险规制路径提高治理效能。 展开更多
关键词 人工智能 数据安全 数据监管制度 人工智能法案
下载PDF
“人工智能法总则”建构原则与理念——欧盟立法经验之镜鉴
7
作者 董新义 梅贻哲 《数字法治》 2024年第2期195-210,共16页
人工智能技术作为新一代科技革命的重要范式,在各国的科技竞赛中具有重要地位,然而“科技异化”始终如“达摩克利斯之剑”一般如影随形。在人工智能深度融入并影响我们生活的大背景下,从法律维度进行因应是新时代我国法治体系完善的重... 人工智能技术作为新一代科技革命的重要范式,在各国的科技竞赛中具有重要地位,然而“科技异化”始终如“达摩克利斯之剑”一般如影随形。在人工智能深度融入并影响我们生活的大背景下,从法律维度进行因应是新时代我国法治体系完善的重要环节。欧盟的《人工智能法案》作为世界上第一部人工智能专项规制文件,其建构思路具备一定的先进性与可借鉴性,从比较法视域探索其立法经验对我国的人工智能法律构建具有积极意义。目前我国人工智能立法非体系化特征明显,主体交叉、位阶较低,不能有效适配技术发展,结合域外立法经验建构“人工智能法总则”是解决当下碎片式、迭代式立法难以完美适配技术发展困境的有效手段。在人工智能法律总则框架的搭建过程中,要有意识地避免法律滞后性的固有弊端,保证客体概念之周延,秉持差异化、场景化理念,在规制的同时给技术发展以自由。借鉴欧盟分级分类思想及“全链条”监管模式对我国现有人工智能法律体系予以完善,在保证人工智能安全底线的同时实现其创新发展。 展开更多
关键词 人工智能 人工智能法案 人工智能法总则 分级分类原则
原文传递
上一页 1 下一页 到第
使用帮助 返回顶部