OpenAI员工发出警告:人工智能建设存在风险

摘要: 前和现任员工在OpenAI和其他AI巨人队签署的一封公开信,随着人工智能迅速发展,举报人保护了举报人。

图片

OpenAI员工发出警告:人工智能建设存在风险

一群现任和前任OpenAI员工发表公开信警告称,公司及其竞争对手正在建设人工智能,存在不必要的风险,缺乏足够的监督,并压制可能目睹不负责任活动的员工。

公开信发表在righttowarn.ai上,指出:“这些风险范围从进一步巩固现有的不平等,到操纵和误导,再到对自主人工智能系统失去控制,可能导致人类灭绝。”信中呼吁所有人工智能公司承诺不惩罚发声批评其活动的员工。信中还呼吁公司建立“可验证”的方式,让员工能匿名提供对其活动的反馈。

上个月,OpenAI因一篇Vox文章受到批评,该公司威胁要收回员工的股权,如果他们不签署禁止批评公司甚至提及存在此类协议的不抨击协议。OpenAI首席执行官Sam Altman最近表示,他对此类安排毫不知情,公司从未收回过任何人的股权。他还表示该条款将被移除,让员工能够发声。

有消息爆料?

你是OpenAI的现任或前任员工吗?我们想听听你的声音。请使用非工作电话或电脑,联系Will Knight,邮箱为will_knight@wired.com,或在Signal上安全联系wak.01。

OpenAI最近也改变了其安全管理方式。上个月,负责评估和应对公司更强大人工智能模型带来的长期风险的OpenAI研究小组被有效解散,几位知名人士离开,剩下的团队成员被吸收到其他团队中。几周后,公司宣布成立了一个安全与保障委员会,由Altman和其他董事会成员领导。

去年11月,Altman因涉嫌未披露信息和故意误导OpenAI董事会而被解雇。经过一场公开的争执,Altman回到公司,大部分董事会成员被罢免。

OpenAI发言人Liz Bourgeois在一份声明中表示:“我们以为提供最有能力和最安全的人工智能系统的记录感到自豪,相信我们的科学方法来应对风险。我们同意,鉴于这项技术的重要性,严格的辩论至关重要,我们将继续与世界各地的政府、公民社会和其他社区保持联系。”

信件的签署者包括曾在OpenAI负责安全和治理的人员、匿名签署的现任员工以及目前在竞争对手人工智能公司工作的研究人员。此外,几位知名人工智能研究人员,包括Geoffrey Hinton和Yoshua Bengio(两位都因开创人工智能研究而获得图灵奖)、以及AI安全领域的主要专家Stuart Russell,也对此表示支持。

© 版权声明
THE END
喜欢就支持一下吧
点赞5 分享
评论 抢沙发
头像
欢迎您留下宝贵的见解!
提交
头像

昵称

取消
昵称表情代码图片

    暂无评论内容