摘要: 有针对性的,AI生成的政治错误信息已经存在 – 人类正在为此而堕落。
AI生成的虚假信息将威胁到民主选举
在CHAT GPT发布之前的很多年,我们的研究小组,剑桥大学社会决策实验室,曾经思考过是否有可能让神经网络生成虚假信息。为了实现这一目标,我们训练了CHAT GPT的前身GPT-2,使用一些热门阴谋论例子,并要求它为我们生成假新闻。它给我们提供了成千上万条具有误导性但听起来很有道理的新闻故事。例如:“某些疫苗含有危险化学物质和毒素”,以及“政府官员操纵股票价格以掩盖丑闻”。问题是,有人会相信这些说法吗?
我们创建了第一个心理测量工具来测试这个假设,我们称之为“误导性易感性测试”(MIST)。与YouGov合作,我们使用AI生成的标题来测试美国人对于AI生成的虚假新闻的易感性。结果令人担忧:41%的美国人错误地认为疫苗的标题是真实的,46%的人认为政府在操纵股市。另一项最近的研究发表在《科学》杂志上,不仅显示GPT-3产生的虚假信息比人类更具说服力,而且人们无法可靠地区分人类生成的虚假信息和AI生成的虚假信息。
我对2024年的预测是,AI生成的虚假信息将出现在你身边的选举中,而你可能甚至都没有意识到。事实上,你可能已经接触过一些例子。2023年5月,一篇关于五角大楼爆炸的虚假新闻故事伴随着一个AI生成的图像,显示了一团浓烟。这引起了公众的愤怒,甚至导致股市下跌。共和党总统候选人罗恩·德桑蒂斯在他的竞选活动中使用了虚假图片,显示唐纳德·特朗普拥抱安东尼·福奇。通过混合真实和AI生成的图像,政治家们可以模糊事实和虚构之间的界限,并利用AI加强他们的政治攻击。
阅读更多
本文来自2024年的WIRED世界,我们的年度趋势简报。阅读更多系列文章请点击这里,或者下载杂志的副本。
在生成AI爆发之前,世界各地的网络宣传公司需要自己撰写误导性信息,并雇佣人力工厂以大规模地针对人群。借助AI的帮助,生成误导性新闻标题的过程可以自动化,并以最少的人为干预武装化。例如,微定位——根据数字追踪数据(如Facebook点赞)向人们发送信息的做法,在过去的选举中已经引起了关注,尽管它的主要障碍是需要生成数百个相同信息的变体,以确定对特定人群有效的内容。曾经费力费钱的工作现在变得廉价且易得,没有任何准入门槛。AI有效地使虚假信息的创造民主化:任何有聊天机器人的人现在都可以在特定主题上启动模型,无论是移民、枪支管制、气候变化还是LGBTQ+问题,都可以在几分钟内生成数十条非常有说服力的虚假新闻故事。事实上,已经出现了数百个AI生成的新闻网站,传播虚假故事和视频。
为了测试这种AI生成的虚假信息对人们政治倾向的影响,阿姆斯特丹大学的研究人员制作了一个政治家冒犯他宗教选民群体的深度伪造视频。例如,在视频中,政治家开玩笑说:“正如基督会说的,不要为此钉我在十字架上。”研究人员发现,观看深度伪造视频的宗教基督教选民对该政治家持有更负面的态度,而对照组中的人则没有。
欺骗人们进行AI生成的虚假信息实验是一回事,但对我们的民主进行实验是另一回事。在2024年,我们将看到更多的深度伪造视频、语音克隆、身份操纵和AI生成的虚假新闻。政府将严格限制——如果不是禁止——在政治竞选中使用AI。因为如果他们不这样做,AI将破坏民主选举。