摘要
从数据输入、模型运算以及输出结果的运作流程来看,生成式人工智能具有使虚假信息在数以万计的数量级上成倍扩散或者合并的能力。为此,世界各国政府正在面临为生成式人工智能系统设置护栏和保障措施的任务,主要面临以下困难:高拟真生成式人工智能生成内容加剧了事实核查的难度、虚假信息治理时国家公权力的介入不足、监管责任的互相推诿等。据此,生成式人工智能开发者、部署者、服务提供者等利益相关主体应当紧密合作,共同承担虚假信息排查与管控的风险,具体分为三个方面:一是分层式治理,虚假信息治理的整体布局(包含数据层、内容层、服务层);二是纠正式治理,保障受生成式人工智能生成内容侵害主体救济权;三是协同式治理,责成AI价值链上最密切利益主体对虚假信息的不良后果承担不真正连带责任。
出处
《理论月刊》
北大核心
2024年第9期115-129,共15页
Theory Monthly
基金
重庆市教委人文社科研究项目“健全知识产权惩罚性赔偿制度研究”(20JD031)。