期刊文献+

提升大模型安全能力,共建健康AI生态

下载PDF
导出
摘要 以ChatGPT等为代表的大语言模型,已经成为人工智能发展应用的风向标。随着应用范围的不断扩大,大语言模型的安全风险,如内容安全、数据隐私泄露、合规问题、算法偏见、模型欺骗和系统漏洞等问题日益显现。这些问题不仅对大语言模型技术的可靠性构成了挑战,更是对社会信任和伦理道德问题的深度触碰。面对这些挑战,业界和学界深入探讨和研究大语言模型带来的影响,积极寻找解决方案,确保该项前沿技术的健康发展。为此,本期专题聚焦大模型的安全风险与防护,从多个维度展开探讨,以期为相关领域的研究者、开发者和决策者提供有价值的参考和指导。
出处 《中国信息安全》 2024年第6期13-13,共1页 China Information Security
  • 相关文献

相关作者

内容加载中请稍等...

相关机构

内容加载中请稍等...

相关主题

内容加载中请稍等...

浏览历史

内容加载中请稍等...
;
使用帮助 返回顶部