生成式AI时代的虚假信息泛滥
近年来,生成式AI技术在深度伪造、自动驾驶、医疗诊断等领域取得突破性进展,但也带来了虚假信息泛滥的隐患。2024年国庆期间,“雷军AI配音”恶搞视频在抖音、B站等平台广泛传播,播放量迅速突破1亿次。这些视频中,“雷军”不仅锐评堵车、假期等热门话题,甚至包含不雅谩骂,给雷军本人和小米带来了极大困扰。类似事件频发,如演员刘晓庆被AI生成视频用于商业推广,甚至有不法分子利用AI深度伪造技术实施诈骗。
虚假信息的危害与挑战
虚假信息在生成式AI时代被进一步放大,其危害主要体现在以下几个方面:
-
侵犯个人权益:未经授权的AI换脸拟声行为侵犯了肖像权、名誉权等个人权益。
-
社会秩序威胁:虚假信息可能引发公众恐慌、误导决策,甚至导致诈骗等犯罪行为。
-
技术治理难点:平台难以判断名人是否反对或乐见其成,治理成本高、效率低。
-
大模型幻觉问题:大模型生成的“幻觉数据”可能被循环学习,形成恶性循环,影响公众信任。
多维治理路径
针对虚假信息问题,社会各界提出了多维度治理建议:
立法与监管
-
加快单行法立法:全国人大代表雷军建议加快“AI换脸拟声”相关立法进程,明确责任与处罚标准。
-
强化平台责任:要求平台对AI生成内容进行强制标识,并建立健全审核机制。
-
国际合作:推动全球AI治理合作,形成统一监管框架。
技术创新
-
以模制模:360集团创始人周鸿祎建议通过安全大模型技术解决大模型应用安全问题。
-
自动检测与标记:研发AIGC幻觉治理技术,定期清理虚假信息,并提供检测工具与服务。
公众教育与防范
-
增强鉴别力:加大普法宣传力度,提高公众对虚假信息的警惕性。
-
畅通维权渠道:整合法律资源,降低普通人维权成本。
技术向善的未来
尽管生成式AI技术带来了虚假信息挑战,但其推动社会进步的潜力不可忽视。正如全国人大代表李东生所言,技术普惠是当今世界的大势所趋,我们应以人性之善引导科技向善。通过立法、技术、平台责任等多维度治理,虚假信息安全问题有望得到有效解决,为生成式AI技术的健康发展保驾护航。
生成式AI时代的虚假信息安全治理不仅关乎技术创新,更关乎社会公平与正义。唯有各方共同努力,才能在享受技术红利的同时,守护社会的信任与秩序。