Google因AI图像生成器问题道歉

摘要: Google的一位高管在其双子座AI Image Generator发出病毒式创造“唤醒”内容后,提供了MEA Culpa,通常会忽略白人。

Google因AI图像生成器问题道歉

Google AI

Google就其备受批评的人工智能(AI)图像生成器发布道歉声明,承认其“偏离了初衷”。

Google知识与信息高级副总裁Prabhakar Raghavan在Google产品博客上写道:“三周前,我们为Gemini会话应用(之前称为Bard)推出了新的图像生成功能,其中包括创建人物图像的功能。显然,这一功能偏离了初衷。”他表示:“一些生成的图像不准确甚至令人反感。我们感谢用户的反馈,并对这一功能未能正常运作感到抱歉。”

Gemini因创建历史不准确的图像而在本周引起热议,多次展示各种族裔的人物,往往忽视白人。Google承认了这一问题,并于周四暂停了有关人物的图像生成。

虽然解释“发生了什么”,Raghavan表示,Gemini的设计初衷是避免“创建暴力或色情图像,或真实人物的描绘”,各种提示应提供“各种人物”的图像,而不是“一种族裔”的图像。

“然而,如果您提示Gemini生成特定类型的人物图像 —— 比如‘教室里的黑人老师’或‘白人兽医和狗’ —— 或者特定文化或历史背景下的人物,您应该绝对得到一个准确反映您要求的内容的回应。” Raghavan写道。“那么出了什么问题呢?简而言之,有两点。首先,我们调整Gemini以展示各种人物的工作未能考虑到应清晰展示各种人物的情况。其次,随着时间的推移,模型变得比我们预期的更加谨慎,并拒绝完全回答某些提示 ——错误地将一些非常无害的提示解释为敏感提示。”

“这两点导致模型在某些情况下过度补偿,在其他情况下过于保守,导致出现令人尴尬和错误的图像,”他继续说。“这不是我们的初衷。我们不希望Gemini拒绝创建任何特定群体的图像。我们也不希望它创建不准确的历史 —— 或任何其他 —— 图像。”

Google高管承诺,在再次上线之前,图像处理功能将经过“广泛测试”。

“需要记住的一点是:Gemini是一个创造性和生产力工具,并不总是可靠,特别是在生成关于时事、新闻发展或热点话题的图像或文本时。它会犯错,” Raghavan说。

Raghavan强调,Gemini与Google的搜索引擎完全独立,并建议用户在寻找“高质量信息”时依赖Google搜索。

“我不能承诺Gemini不会偶尔生成令人尴尬、不准确或令人反感的结果 —— 但我可以承诺,每当我们发现问题时,我们将继续采取行动。人工智能是一种新兴技术,在许多方面都很有帮助,具有巨大潜力,我们正在尽最大努力安全、负责任地推广它,” Raghavan补充说。

Google Gemini AI模型照片插图

© 版权声明
THE END
喜欢就支持一下吧
点赞15 分享
When we learn to treasure simple happiness then we will be winners in life.
当我们懂得珍惜平凡的幸福时,就已经成了人生的赢家
评论 抢沙发
头像
欢迎您留下宝贵的见解!
提交
头像

昵称

取消
昵称表情代码图片

    暂无评论内容