“每20个‘80后’中就有1人已经去世”“广州法院对一起某品牌汽车L3级自动驾驶追尾事故作出判决”“四川凉山发生山体滑坡灾害”……近期,多条消息进入公众视野,事后被证明是使用AI编造的谣言,再度引发各界对于这类问题的关注和忧虑。
AI技术的迅猛发展,让近年来卓有成效的网络谣言治理面临新的挑战。
一方面,AI谣言成本更低、速度更快、传播更广。现实表明,AI通过海量数据学习和对用户行为、兴趣的分析,更容易发现其中的模式和规律,反过来也更能“一本正经地胡说八道”,何况还有文字、图片、视频等多种形式。去年4月,在公安部公布的10起打击整治网络谣言违法犯罪典型案例中,就有4起涉及使用AI造谣。最近,据南都大数据研究院不完全统计,2024年搜索热度较高的50个国内AI风险相关舆情案例中,超1/5与AI造谣有关。
另一方面,相较于传统的谣言,AI谣言的迷惑性、欺骗性和伤害性也更强。研究表明,近年来经济领域成为AI谣言多发高发重点领域,经济与企业类谣言占比攀升,严重侵害企业合法权益,破坏营商环境。其中,有的随意编造“股市小作文”,导致股市波动,扰乱资本市场生态;有的恶意中伤企业,严重失实的内容经广泛传播,影响企业品牌声誉;有的批量生成不实文章进行吸粉引流、非法牟利……与此形成鲜明对比的是,事后维权、调查往往面临着取证难、举证难等现实问题,让企业和相关部门有心无力。
网络不是法外之地,AI也不是“造谣工具”,全链条的有效治理迫在眉睫。从建立多层次法律法规体系,到开展一系列专项行动,我国针对滥用甚至违法使用人工智能乱象“亮剑”。比如最高法等联合发布的《关于依法惩治网络暴力违法犯罪的指导意见》中规定,对“利用‘深度合成’等生成式人工智能技术发布违法信息”的情形,依法从重处罚。《生成式人工智能服务管理暂行办法》明确提出,生成式人工智能服务提供者发现违法内容的,应当及时采取停止生成、停止传输、消除等处置措施,采取模型优化训练等措施进行整改,并向有关主管部门报告。总体来看,由于AI谣言涉及主体多、背后产业链条长,从企业平台、监管部门、技术提供者、用户等多方面发力,方能最大程度挤压AI谣言的生存空间。
当然,如何在挑战中寻得机遇,让AI技术“加持”谣言治理同样值得重视。考虑到AI在谣言识别追踪、自动辟谣等方面的实力和潜力,不少专家建议关注重点放在源头治理上来。鼓励人工智能在辟谣领域的创新应用,不断探索优化应用场景,“以魔法打败魔法”是一条可行之路。
我们期待向上向善的AI,不仅意味着生成积极健康的优质内容,也可以打开向虚假信息说“不”的新方式。(陆夷)