研究人员提出了一种名为自然语言嵌入程序(NLEPs)的新方法,旨在提高大型语言模型(LLMs)的数字和符号推理能力。

摘要: 研究人员介绍了一种新颖的方法,称为“自然语言嵌入式程序”(NLEP),以提高大语模型(LLMS)的数值和象征性推理能力。

图片

研究人员提出了一种名为自然语言嵌入程序(NLEPs)的新方法,旨在提高大型语言模型(LLMs)的数字和符号推理能力。

LLMs如CHAT GPT在各种任务上表现出色,但在需要数字或符号推理的问题上往往表现不佳。

NLEPs遵循四步问题解决模板:调用必要的软件包,导入所需知识的自然语言表示,实现解决方案计算功能,并将结果以自然语言输出,可选择数据可视化。

研究人员发现,NLEPs使GPT-4在各种符号推理任务上实现了超过90%的准确率,比任务特定提示方法高出30%。

此外,NLEPs可以通过在本地运行程序来提高数据隐私,无需将敏感用户数据发送给外部公司进行处理。该技术还可以提高较小语言模型的性能,而无需昂贵的重新训练。

然而,NLEPs依赖于模型的程序生成能力,可能不适用于在有限数据集上训练的较小模型。未来的研究将探讨使较小LLMs生成更有效NLEPs的方法,并研究提示变化对推理稳健性的影响。

这项研究部分得到了香港感知与互动智能中心的支持,将于本月晚些时候在北美计算语言学协会年会上展示。

(照片由Alex Azabache提供)

© 版权声明
THE END
喜欢就支持一下吧
点赞12 分享
评论 抢沙发
头像
欢迎您留下宝贵的见解!
提交
头像

昵称

取消
昵称表情代码图片

    暂无评论内容