微软发布小型语言模型Orca2性能超对手

微软发布小型语言模型Orca2性能超对手-3

Microsoft发布了Orca 2,小型语言模型在复杂推理任务中表现出色,超越了大型模型。这为资源有限的企业提供了更好的选择。同时,其他公司也在推出小型高性能语言模型,这一领域发展迅速。

尽管OpenAI内部发生了权力斗争和大规模辞职,但长期支持这一人工智能巨头的Microsoft并没有减缓其自己的人工智能研发步伐。如今,由Satya Nadella领导的Microsoft研究部门发布了Orca 2,这是一对小型语言模型,当在复杂推理任务的环境下进行测试时,它们可以与五到十倍大的语言模型(包括Meta的Llama-2 Chat-70B)相媲美甚至表现更出色。

这两个模型分别拥有70亿和130亿参数,并建立在几个月前展示出强大推理能力的原始13B Orca模型的基础上,该模型通过模仿更大、更强大的模型的逐步推理过程来实现这一点。

“通过Orca 2,我们继续证明,改进的训练信号和方法可以让较小的语言模型获得增强的推理能力,而这种能力通常只存在于更大的语言模型中,”Microsoft的研究人员在一篇联合博客文章中写道。

公司已经开源了这两个新模型,以便进一步研究和开发能够与更大模型表现一样出色的较小模型。这项工作可以为企业提供更好的选择,尤其是那些资源有限的企业,以便更好地应对他们的特定用例,而不需要过多投入计算资源。

教导小型模型如何推理

虽然像GPT-4这样的大型语言模型长期以来一直以其能够推理和解答复杂问题的能力令企业和个人印象深刻,但其较小的同类模型通常缺乏这种能力。Microsoft Research决定通过在高度定制的合成数据集上对Llama 2基础模型进行微调来填 补这个差距。

然而,与其训练小型模型模仿更强大模型的行为(一种常用的技术称为模仿学习),研究人员训练这些模型在处理不同任务时采用不同的解决策略。他们的想法是,更大模型的策略并不总是适用于较小模型。例如,GPT-4也许能够直接回答复杂问题,但是没有那种能力的较小模型可能会受益于将相同任务拆分为几个步骤。

“在Orca 2中,我们教导模型多种推理技巧(逐步推理、回忆然后生成、回忆-推理-生成、直接回答等)。更关键的是,我们旨在帮助模型学会确定每项任务的最有效解决策略,”研究人员在今天发表的一篇论文中写道。这个项目的训练数据是从更强大的教师模型那里获得的,以这种方式来教导学生模型如何处理两个方面:如何使用推理策略以及何时对于手头的特定任务使用它。

Orca 2 比更大的模型表现更出色

在进行零射击设置下的 15 项多样化基准测试中,涵盖了语言理解、常识推理、多步推理、数学问题解决、阅读理解、摘要和真实性等方面,Orca 2 模型取得了惊人的成绩,很大程度上与比其大五到十倍的模型相匹敌甚至超越。

所有基准测试结果的平均值显示,Orca 2 的 7B 和 13B 模型在性能上优于 Llama-2-Chat 的 13B 和 70B 以及 WizardLM 的 13B 和 70B。只有在 GSM8K 基准测试中,该测试包含 8.5K 个高质量小学数学问题,WizardLM-70B 表现明显优于 Orca 模型和 Llama 模型。

微软发布小型语言模型Orca2性能超对手-4

Orca 2 基准测试结果

尽管这一性能对于可能需要成本效益高的企业团队来说是个好消息,但值得注意的是,这些模型也可能继承其他语言模型以及它们被微调的基础模型的共同限制。

微软还表示,用于创建 Orca 模型的技术甚至可以应用于其他现有的基础模型。

“虽然它有一些限制……,但 Orca 2 在未来的发展潜力显而易见,特别是在改进推理、专业化、控制和更小模型的安全性方面。在这些改进中,精心筛选的合成数据用于后期培训成为关键策略。随着更大的模型不断取得进展,我们与 Orca 2 的合作标志着语言模型的应用和部署选项多样化的重要一步,”研究团队写道。

未来将出现更多的小型高性能模型

随着开源的 Orca 2 模型的发布以及这一领域的持续研究,可以肯定地说,在不久的将来将会出现更多高性能的小型语言模型。

Mistral AI,这家成立仅六个月的巴黎初创公司,以其独特的 Word Art 徽标和创纪录的 1.18 亿美元种子轮融资登上了头条新闻,还提供了一个 70 亿参数的模型,胜过了更大的产品,包括 Meta 的 Llama 2 的 13 亿参数模型(Meta 最新模型中较小的之一)。

版权声明:
作者:小火箭
链接:https://www.xiaohuojian6.top/367.html
来源:小火箭官网
文章版权归作者所有,未经允许请勿转载。

THE END
分享
二维码
< <上一篇
下一篇>>