摘要: 可以怀疑科技领导者对我们AI未来的宏伟愿景,但这并不意味着该技术不会产生巨大的影响。
人工智能:从潜力到现实
距离第一次人工智能会议已经将近70年了,会议上人工智能领域的领导者们曾表示这个领域将在十年内完成任务。如今,人工智能领域正准备对我们的生活产生深远影响。并不需要达到人工通用智能(AGI)这个目标,就可以实现这一点。在我之前的一篇专栏文章中,我提到了这一点,指出在CHAT GPT等大型语言模型的惊人突破之后,人工智能的进步并没有像一些批评者所说的那样“停滞不前”。我还反对那些认为OpenAI的GPT-4、Anthropic的Claude 3、Meta的Llama 3以及微软的Copilots只是语言变体的怀疑论者。我坚持认为,炒作是有道理的。
然而,这个结论对很多人来说并不明显。反对声音立即而激烈。我关于专栏文章的中立推文被浏览了超过2900万次,其中很多眼球都在对我进行射杀。我收到了数百条评论,尽管有很多表示同意,但绝大多数都是消极的,以一种不礼貌的方式表达不同意见。
攻击来自几个阵营。首先是那些贬低人工智能进步的人,声称我是一个糟糕的记者,盲目接受科技公司推动人工智能的虚假叙事。“这是一个卖弄,什么都不是,”一位评论者说。另一位说,“你只是在背诵那些骗子提出的谎言。”谷歌发布了AI概述搜索功能后,由于存在惊人的错误,我的回应者们将其错误视为生成式人工智能中没有真正的东西的证据。“享受你的披萨,加点胶水,”有人建议我。
其他人利用这个机会谴责人工智能的危险,尽管这种立场证实了我对人工智能的看法。一位推特用户说,“原子弹也是,那个结果如何?”一部分人谴责LLM,因为它们是在受版权保护的材料上进行训练的。这是一个有效的批评,但并不减少这些模型所能做的事情。
我最喜欢的回应是有人引用我提到的一个LLM通过高分通过律师资格考试的例子。“通过律师资格考试是DeepMind在它在Jeopardy游戏中表现良好时就能做到的事情,”这位批评者说。Jeopardy!的计算机实际上是IBM的Watson,DeepMind当时只是一个新兴的初创公司,并且被精心优化以玩这个电视游戏。由于律师资格考试并不是以需要候选人提供问题以配对答案的格式进行的,所以认为Watson可以通过是荒谬的。即使是最具幻觉性的LLM也很难匹敌这个错误的句子!当我问几个LLM模型Watson计算机是否能通过律师资格考试时,它们都仔细而正确地解释了为什么不行。给机器人加一分。
撇开回应中的不尊重语气,这只是X上的事情发展方式,我发现这种反应是可以理解但是是错误的。我们正处于一个潜伏期,用户只是开始找出如何利用人工智能公司推出的非凡产品。忘记AI概述和其他LLM可能产生的愚蠢答案(但记住谷歌并不是唯一一个产生幻觉的公司)。大型科技公司已经做出了有意识的决定,将不太成熟的产品推向市场,部分原因是这是改进产品的最佳方式,部分原因是竞争如此激烈,以至于没有一家公司能够承担放慢脚步的风险。
暂无评论内容