摘要: Openai发布了其第一份报告,该报告详细介绍了俄罗斯,中国及以后的演员如何利用AI进行宣传。(不好。)
OpenAI发布首份威胁报告
OpenAI发布了首份威胁报告,详细介绍了俄罗斯、伊朗、中国和以色列等国家的行为者如何尝试利用其技术进行全球外部影响操作。报告列出了OpenAI在2023年至2024年间识别并关闭的五个网络。报告显示,像俄罗斯的“Doppleganger”和中国的“Spamoflauge”等已经在尝试如何利用生成式人工智能来自动化他们的操作,但效果并不理想。
尽管这些行为者尚未掌握生成式人工智能成为不可阻挡的虚假信息力量,但他们正在进行实验,这本身就令人担忧。
OpenAI的报告显示,影响运动正在遭遇生成式人工智能的局限,它并不能可靠地产生良好的文字或代码。它在习语和基本语法方面存在困难,有时甚至会暴露真实身份。某个网络曾因太过粗心而暴露其真实身份:“作为一个AI语言模型,我在这里协助并提供所需的评论,”它发布道。
一些网络利用CHAT GPT调试代码,以实现在Telegram上自动发布帖子的目标。这有时效果不错,但有时会导致同一账号以两个不同角色发布内容,从而暴露了身份。
在其他情况下,CHAT GPT被用来为网站和社交媒体创建代码和内容。例如,Spamoflauge使用CHAT GPT调试代码,创建一个WordPress网站,发布攻击批评中国政府的华人社区成员的故事。
根据报告,AI生成的内容并没有从影响网络本身传播到主流,即使在像X、Facebook或Instagram这样广泛使用的平台上分享。这是以色列一家看似以雇佣为基础的公司运行的活动的情况,发布的内容从反对卡塔尔到反对印度政府控制的印度教民族主义政党BJP不等。
总的来说,报告描绘了几场相对无效的运动,带有粗糙的宣传,似乎消除了许多专家对这项新技术传播错误和虚假信息的担忧,特别是在关键的选举年。
但社交媒体上的影响运动通常会随着时间的推移进行创新,以避免被发现,学习平台及其工具,有时比平台员工自己还要好。研究OpenAI的生成式人工智能使用的CyberPeace Institute的研究员Jessica Walton表示,尽管这些初始运动可能很小或无效,但它们似乎仍处于实验阶段。
在她的研究中,该网络会使用看似真实的Facebook个人资料发布文章,通常围绕分裂性政治话题。“实际文章是由生成式人工智能写成的,”她说。“他们主要想做的是看看什么能够传播,Meta的算法能否抓住。”
换句话说,可以预期它们只会变得更加强大。
暂无评论内容