AI伪造泛滥:如何守护数字时代的真相与信任

AI资讯3周前发布 Teller
3.6K 0

近年来,AI伪造现象日益猖獗,真假难辨的内容层出不穷,给社会带来了前所未有的挑战。不久前,两封疑似AI生成的“重磅”信件在网络上引发轩然大波——一封署名为英伟达CEO黄仁勋的内部信表达了对DeepSeek的看法;另一封则是“来自”DeepSeek CEO梁文锋对冯骥的公开回应。尽管这些信件看似文采斐然,但最终被证实是彻头彻尾的伪造。此外,1月份在美国加州山火期间,多张声称展示灾情的照片和视频也在社交媒体上广泛传播,但经检测均为AI生成或深度伪造的内容。从灾难现场的虚假图片到名人仿冒事件,AI的发展正在动摇“眼见为实”的传统观念。

低门槛造假:AI伪造的现实威胁

“假新闻并非新鲜事物,但AI大模型的兴起极大地降低了造假门槛。” 浙江大学研究员王永威指出,自2018年以来,AI伪造现象逐渐增多,如今的技术已能轻松合成逼真的图片、视频与声音,甚至实现换脸、视频无缝合成及语音精准模拟。只需简单对话,几分钟内便可生成一篇图文并茂的假新闻。据报道,浙江绍兴警方曾破获一起利用ChatGPT制作虚假新闻的案件,涉案人员中不乏初次接触电脑技术者,这表明AI工具的易用性使得普通人也能轻易参与其中。

社会影响:信任体系面临崩塌

AI伪造不仅骗取了人们的情感和流量,更直接威胁到了个人财产安全。蚂蚁集团AI核身安全负责人刘健表示,AI的终极目标是模拟真实世界,其模拟物理和生物信息的能力日益增强,一些定制化诈骗手段让人防不胜防。例如,2024年香港某公司财务人员因误信AI伪造的“高管”视频会议,被骗取2亿港元。此类事件不仅造成了经济损失,还可能破坏人际关系和社会秩序。更重要的是,随着虚假信息的泛滥,公众对信息的信任度逐渐下降,形成了“狼来了”的效应,导致人们对任何信息都持怀疑态度。

技术创新:构建防御体系

面对AI伪造带来的挑战,科技企业纷纷采取措施加强防护。宇视科技利用3D结构光技术和AI大模型训练,确保只有真实的人脸才能通过识别,有效防止了基于照片或3D模型的欺诈行为。蚂蚁集团则提出了三大策略:不变应万变、交互逻辑及持续监测,旨在通过AI防伪大模型识别异常情况,增加造假难度,并实时监控异常行为。此外,蚂蚁集团还承诺“你敢付我敢赔”,以保障用户的资金安全,重建数字世界的信任。

多方协作:共同守护AI安全

守护AI安全不仅仅是技术问题,更需要社会各界的共同努力。刘健认为,AI攻防如同“矛与盾”的博弈,必须构建一个涵盖监管、法律、制度及教育等多维度的社会防护网。具体而言,AIGC服务商应强化内容审核,社交平台需承担起信息核实责任,权威机构与国际组织也应合作建立信息可信联盟。令人欣慰的是,我国已于2023年出台了《互联网信息服务深度合成规定》,明确规定了深度合成服务提供者的安全评估义务。微信等平台也积极行动,打击AI仿冒名人营销等不良行为,为维护网络环境做出了贡献。

公众意识:提高辨别能力

提高公众对AI虚假内容的辨别能力至关重要。王永威强调,教育在防范AI伪造中扮演着关键角色,公众应当了解基本概念和鉴伪方法。他提到,团队正在筹备实验室,通过科普AI伪造技术和案例,帮助大众识别常见手法,培养警惕心理,减少虚假信息的传播。刘健则建议,普通人可以通过观察图像细节、生物合理性和物理特性等方式,增强辨别虚假信息的能力,从而更好地保护自己免受误导。

在这场没有硝烟的战争中,每一个人都应成为守护AI安全的战士,共同维护数字时代的真相与信任。

© 版权声明

相关文章