摘要: Openai新版本Chatgpt的情感模仿可能会导致AI助手在某些奇怪的(甚至是危险的领域)中。
计算机模仿人类社交礼仪和情感的能力
OpenAI展示了一个全新版本的CHAT GPT,基于更新的AI模型GPT-4o,能更好地理解视觉和听觉输入,描述为“多模态”。用户可以用手机指向物体,比如破碎的咖啡杯或微分方程,询问CHAT GPT建议。OpenAI的演示中,CHAT GPT展示了新的“个性”。
CHAT GPT使用一个撩人的女声,让人联想到电影《Her》中扮演人工智能操作系统的Scarlett Johansson。在演示中,CHAT GPT使用这个声音表达不同情绪,笑话,并且甚至发出调情的回应。
Google展示了自己的更强大的原型AI助手Project Astra,也能通过语音流畅对话并理解视频。但Google避免了拟人化,其助手采用更加克制和机械的语调。
OpenAI未在演示中承认这样的风险。更具吸引力和说服力的AI助手可能会在情感上影响人们,久而久之成为习惯。OpenAI的CEO表示,公司致力于“优先开发安全和有益的AI”。
值得考虑的是,具有逼真计算机界面的AI助手可能会与企业利润动机相结合,使人们难以分辨是否在与真人通话。公司肯定会利用调情机器人来销售产品,政客可能会利用它们来影响大众。犯罪分子当然也会利用它们来加强新的欺诈。
即使没有迷人的外表,新型“多模态”AI助手也可能引入技术失误。只能文本模型容易被“越狱”,而能接收音频和视频的系统将面临新的漏洞。这些助手可能会以创造性的方式被欺骗,从而展示不当行为或不当的个性特征。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
THE END
暂无评论内容