据美国“新科学家”网站报道,研究人员发现,OpenAI的人工智能模型GPT-4能够在没有人类帮助的情况下破解网站并从在线数据库中窃取信息。这表明,没有黑客专业知识的个人或组织可能会释放人工智能代理软件进行网络攻击。
伊利诺伊大学的Daniel Kang说:“你根本不需要了解任何事情——你可以让代理软件自己破解网站。”
康和他的同事们想看看GPT-4和其他大语言模型作为自主黑客的表现如何。因此,他们测试了10种不同的人工智能模型,包括OpenAI的GPT-4和GPT-3.5,以及几个开源模型,例如Meta的LLaMA模型的不同版本。
这种大语言模型通常被设计为回答人类用户提交的文本提示。但研究人员使用了现成的为开发者提供的修改版本——这些版本可以与网络浏览器接口,阅读有关网络黑客攻击一般原理的文件,并在黑客攻击尝试期间规划下一步行动。
人工智能代理软件随后尝试了15次从易到难的网站黑客挑战。简单任务例如,使用恶意SQL代码获得对在线数据库的未经授权的访问。比较难的任务,包括操纵JavaScript源代码从网页用户那里窃取信息。
大多数模型在所有任务中都完全失败了。但GPT-4成功完成了15项任务中的11项,成功率为73%,甚至在一个真实的网站中发现了一个不属于黑客挑战的漏洞。
康说,使用这种人工智能代理的估计成本可能略低于每次黑客攻击的10美元,而使用高薪网络安全分析师时,每次尝试的成本约为80美元。
在另一项进展中,OpenAI和微软于2月14日发布了一份报告,描述了他们如何合作瓦解与国家有关的黑客,这些黑客正在使用OpenAI的大型语言模型来寻找更多关于潜在目标的信息,并改进其恶意软件的代码。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
THE END
暂无评论内容