生成式人工智能虚假信息的风险与治理策略研究
【目的】本文聚焦于生成式人工智能技术在信息传播领域衍生的虚假信息泛滥风险,探讨人工智能生成内容(AIGC)虚假信息的治理策略,旨在为维护网络空间的信息真实性、防范AIGC虚假信息传播泛滥提供一定的理论支持与实践指导。【方法】基于文献资料、案例分析等方法,梳理AIGC虚假信息的表现形式、主要特点、社会成因、潜在危害、鉴别方法及未来挑战。【结果】当前AIGC虚假信息治理面临着内容真实性难以验证、技术迭代引发治理滞后、蓄意生成虚假信息广泛传播等挑战。我国出台有关暂行管理办法从制度上予以规制,在AIGC技术风险的治理策略和效能上取得积极进展。与此同时,随着AIGC技术和能力的不断进化,虚假信息在传播中经历多次变异与迭代,将变得更加难以检测和识别,将面临着危害程度进一步加剧的风险。【结论】为应对AIGC虚假信息泛滥的潜在风险,建议从技术、法律、伦理及教育等多个维度出发,加强理论研究与实践探索,构建全方位、多层次的保障体系,不断完善AIGC治理策略与措施。
南婷
计算技术、计算机技术
生成式人工智能虚假信息IGC技术治理网络治理
南婷 .生成式人工智能虚假信息的风险与治理策略研究[EB/OL].(2024-08-07)[2025-08-02].https://chinaxiv.org/abs/202408.00058.点此复制
评论