摘要: 一群前和现任的Openai工作人员在一封信中引起了人们的关注,即没有法规,人工智能的竞赛可能会导致人类灭绝之类的事情。
前OpenAI员工发表公开信,警告人工智能技术可能带来的风险
一群前OpenAI员工和现任员工在线发布了一封公开信,表达了他们对人工智能(AI)技术可能对人类造成的影响和严重风险的担忧。
这封信发布在righttowarn.ai上,由五名前OpenAI员工、一名Google DeepMind的现任员工和一名前员工、四名未透露姓名的OpenAI现任员工以及两名前OpenAI员工签署。
这个团体表示,AI带来的风险范围从“进一步巩固现有的不平等,到操纵和误导,再到对自主AI系统失去控制,可能导致人类灭绝”。
他们写道:“AI公司自己已经承认了这些风险,世界各国的政府和其他AI专家也承认了。我们希望这些风险可以在科学界、政策制定者和公众的充分指导下得到有效缓解。”
苹果的WWDC将成为科技巨头的人工智能转折点
这个团体表示,AI公司有强烈的财务动机避免有效监管,以及对其系统的能力和局限性有大量信息。
例如,这些公司拥有关于其保护措施的充分信息以及AI进展可能导致不同类型危害的风险水平的非公开信息。
团体成员之一、前OpenAI治理部门的研究员Daniel Kokotajlo告诉纽约时报,OpenAI对构建人工通用智能(AGI)感到兴奋,但他们“在鲁莽地争先恐后”。
Zoom CEO希望客户将他们的AI助力“数字孪生体”发送到未来会议
Kokotajlo表示,他之前预测AGI可能在2050年到来,但在看到技术进展的速度后,他告诉时报,有50%的可能性在2027年到来。
他还表示,他相信先进的AI会摧毁或对人类造成灾难性伤害的概率为70%。
这个团体表示,他们认为这些公司不能指望他们自愿分享信息。
他们写道:“只要这些公司没有受到有效的政府监督,现任和前任员工是少数可以追究他们对公众责任的人。”
苹果在WWDC上推出“苹果智能”
OpenAI告诉福克斯商业频道,他们同意公开信呼吁政府对AI行业进行监管,因为他们是该行业第一个提出这种监管的公司。
该公司还表示,他们定期与世界各地的政策制定者进行交流,并对取得的进展感到鼓舞。
一位OpenAI发言人还表示,他们有不发布技术直到必要的安全措施就位的良好记录。
由于其产品被92%的财富500强公司使用,安全可靠的系统至关重要。发言人表示,如果产品不安全,公司就不会订阅。
“我们为提供最强大和最安全的AI系统的记录感到自豪,并相信我们的科学方法来应对风险。鉴于这项技术的重要性,我们同意严格的辩论至关重要,我们将继续与世界各地的政府、公民社会和其他社区进行交流。”
“这也是为什么我们有员工表达关切的途径,包括一个匿名的诚信热线和由我们董事会成员和公司安全领导人领导的安全委员会,”发言人补充道。
暂无评论内容