在过去的十年中,各类社交媒体平台——连接人们并让他们通过多媒体内容(如图像、视频、音频和文本)分享他们的想法和意见——也被用于操纵和改变公众意见。社交媒体上的自动程序,如机器人,可以像合法的用户一样控制虚假账户,通过点赞、分享和发布内容来传播虚假信息。随着深度学习技术的发展,生成性模型能够生成越来越逼真的文本,这为恶意行为者提供了增强社交机器人能力的工具,使其能够撰写可信的深度伪造信息。
什么是深度伪造?
深度伪造(Deepfake)是“深度学习”(Deep Learning)和“伪造”(Fake)的结合,指的是利用人工智能生成的潜在欺骗性的多媒体(包括图像、视频、音频和文本)。近年来,深度伪造的文本生成技术也得到了显著的发展。例如,2019年OpenAI发布了GPT-2,这是一种预训练的语言模型,可以自主生成连贯且类似人类的文本段落。尽管这些技术在某些领域有积极的应用,但它们也被滥用于制造虚假信息,污染公共舆论。
深度伪造推文检测的重要性
随着生成技术的进步,社交媒体上出现了越来越多的自动生成文本,这些文本看起来由人类编写,实则由机器生成。这些伪造信息有可能影响公众舆论,扰乱社会秩序。因此,开发有效的深度伪造检测系统变得至关重要。尽管目前已经有很多研究关注深度伪造 视频 和 音频 的检测,但对社交媒体上的深度伪造文本的研究相对较少。
TweepFake数据集
为推动深度伪造文本检测的研究,本文收集了首个真实的深度伪造推文数据集——TweepFake。该数据集包含了从Twitter上收集的真实深度伪造推文,这些推文由23个机器人生成,模仿了17个人类账户。这些机器人基于各种生成技术&#x