0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

优于10倍参数模型!微软发布Orca 2 LLM

jf_WZTOguxH 来源:AI前线 2023-12-26 14:23 次阅读

微软发布 Orca 2 LLM,这是 Llama 2 的一个调优版本,性能与包含 10 倍参数的模型相当,甚至更好。Orca 2 使用了一个合成训练数据集和一项称为 Prompt Erasure(提示词擦除) 的新技术来实现这一性能。

Orca 2 使用了师生模式的训练方案,其中一个较大、较强的 LLM 作为另一个较小的 LLM(学生)的老师,老师的目标是提升学生的性能,使其与更大模型的性能相媲美。微软的训练技术教会较小的模型多种推理技巧,并教其如何为特定任务选择最有效的技巧。

为此,老师被赋予了复杂的提示词来触发某种推理行为。不过,在一种被称为 Prompt Erasure 的方案中,学生只得到任务要求和期望的响应,而不是老师的提示词。在基准测试中,一个拥有 13B 参数的 Orca 2 模型的表现超过了一个 13B 参数的基准 Llama 2 模型,提升了 47.54%。而一个拥有 7B 参数的 Orca 2 模型在推理任务方面与一个拥有 70B 参数的 Llama 2 模型相当,甚至更好。

尽管像 ChatGPT 这样的 LLM 在给定少量提示词的情况下通常表现良好,但由于其内存和计算需求较大,托管这些模型极具有挑战性。经过调优的较小的模型也可以表现良好,许多研究人员已经在研究使用较大 LLM 生成的合成数据集对它们进行训练。

InfoQ 最近报道了谷歌的 Distilling Step-by-Step 方法,该方法会让老师 LLM 自动生成一个小型的调优数据集,其中包含输入和输出标签,以及为何选择输出标签的“基本原理”。InfoQ 还报道了 Stability AI 的 Stable Beluga 模型,它使用微软原始的 Orca 1 方案进行训练,该方案使用了 Explanation Tuning,其中老师 LLM 被提示“生成详细答案”。

与 Orca 1 类似,Orca 2 训练数据集是由老师 LLM 生成的,而老师 LLM 收到了详细的提示词。然而,微软新的训练方法 Cautious Reasoning 将训练任务与提示词相结合,引导老师 LLM 使用特定的问题解决策略,如“一步一步”或“解释你的答案”。然后在学生的训练过程中,老师的提示词被删除,这促使学生学会选择正确的策略。

为了评估这种方法,微软将 Orca 2 模型的性能与几个基准模型进行了比较,包括 Llama 2、ChatGPT(GPT-3.5)和 GPT-4。基准任务包括推理、语言理解、文本完成和摘要。在推理基准测试中,13B 参数 Orca 2 模型优于除 ChatGPT 和 GPT-4 之外的所有基准。他们还发现,给 Orca 2 一个“谨慎”的系统提示词(“你是一个谨慎的助手,你会仔细遵循指示”)相比无系统提示会略微提升其性能。

有几位用户在 X 上发表了关于 Orca 2 的帖子。一位用户指出:“你不需要用‘一步一步解释’这样的技巧来提示它。它自己知道。” AI 研究员 Rudi Ranck 写道:

许多绝妙的想法都很简单……就像 Orca 2 中的“提示词擦除”一样:完整的提示词不会呈现给模型,而只呈现任务和答案(它过滤了生成这些答案所使用的完整提示词)。这有助于模型在更高层次上制定策略。这是一篇非常好的论文。我强烈建议通读全文。







审核编辑:刘清

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • ChatGPT
    +关注

    关注

    27

    文章

    1411

    浏览量

    4776
  • LLM
    LLM
    +关注

    关注

    0

    文章

    202

    浏览量

    233

原文标题:微软发布 Orca 2 LLM,表现优于 10 倍参数模型

文章出处:【微信号:AI前线,微信公众号:AI前线】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    NVIDIA加速微软最新的Phi-3 Mini开源语言模型

    NVIDIA 宣布使用 NVIDIA TensorRT-LLM 加速微软最新的 Phi-3 Mini 开源语言模型。TensorRT-LLM 是一个开源库,用于优化从 PC 到云端的
    的头像 发表于 04-28 10:36 101次阅读

    阿里云通义千问发布320亿参数模型,优化性能及效率

    与之前的模型相比,新版320亿参数模型在性能、效率以及内存占用方面取得了明显改善。具体来说,32B在智能体场景下能力优于14B模型,并且推理成本较小。
    的头像 发表于 04-08 14:44 209次阅读

    模型与人类的注意力视角下参数规模扩大与指令微调对模型语言理解的作用

    近期的大语言模型LLM)在自然语言理解和生成上展现出了接近人类的强大能力,远远优于先前的BERT等预训练模型(PLM)。
    的头像 发表于 01-04 14:06 163次阅读
    <b class='flag-5'>模型</b>与人类的注意力视角下<b class='flag-5'>参数</b>规模扩大与指令微调对<b class='flag-5'>模型</b>语言理解的作用

    微软正式发布一个27亿参数的语言模型—Phi-2

    先后和 OpenAI、Meta 牵手推动大模型发展的微软,也正在加快自家小模型的迭代。
    的头像 发表于 12-14 15:45 490次阅读
    <b class='flag-5'>微软</b>正式<b class='flag-5'>发布</b>一个27亿<b class='flag-5'>参数</b>的语言<b class='flag-5'>模型</b>—Phi-2

    阿里云通义千问720亿参数模型宣布开源

    12月1日,阿里云通义千问720亿参数模型Qwen-72B宣布开源。与此同时,他们还开源了18亿参数模型Qwen-1.8B和音频大模型Qwen-Audio。
    的头像 发表于 12-01 17:08 858次阅读

    如何为Orca-2-13B创建一个与OpenAI兼容的API服务呢?

    Orca-2-13B[1] 是微软最新发布Orca 2 系列中的一款模型Orca 2 另外
    的头像 发表于 11-27 10:46 318次阅读

    专栏发布 | LLM圈走马换将?微软广告“黑五”来袭 !

    望创达2218亿美元。 年度机遇近在眼前,跨境出海企业如何抓住机遇、突破销售记录? 对此,LLM或许能够给出答案。 微软首席执行官萨提亚·纳德拉在刚刚结束的全球Ignite技术大会上曾表示,“生成式AI模型
    的头像 发表于 11-27 08:15 234次阅读
    专栏<b class='flag-5'>发布</b> | <b class='flag-5'>LLM</b>圈走马换将?<b class='flag-5'>微软</b>广告“黑五”来袭 !

    现已公开发布!欢迎使用 NVIDIA TensorRT-LLM 优化大语言模型推理

    NVIDIA 于 2023 年 10 月 19 日公开发布 TensorRT-LLM ,可在 NVIDIA GPU 上加速和优化最新的大语言模型(Large Language Mode
    的头像 发表于 10-27 20:05 540次阅读
    现已公开<b class='flag-5'>发布</b>!欢迎使用 NVIDIA TensorRT-<b class='flag-5'>LLM</b> 优化大语言<b class='flag-5'>模型</b>推理

    如何获取电容的S参数模型

    使用Sigirty进行PDN仿真时,比较关键的一步是设置电容的S参数模型,近来有不少同学和同行朋友来要一些电容的S参数模型
    的头像 发表于 10-02 15:04 1245次阅读
    如何获取电容的S<b class='flag-5'>参数模型</b>?

    mlc-llm对大模型推理的流程及优化方案

    在 MLC-LLM 部署RWKV World系列模型实战(3B模型Mac M2解码可达26tokens/s) 中提到要使用mlc-llm部署模型
    发表于 09-26 12:25 448次阅读
    mlc-<b class='flag-5'>llm</b>对大<b class='flag-5'>模型</b>推理的流程及优化方案

    检索增强LLM的方案全面的介绍

    OpenAI 研究科学家 Andrej Karpathy 前段时间在微软 Build 2023 大会上做过一场关于 GPT 模型现状的分享 State of GPT[3],这场演讲前半部
    的头像 发表于 09-08 16:39 874次阅读
    检索增强<b class='flag-5'>LLM</b>的方案全面的介绍

    最新综述!当大型语言模型LLM)遇上知识图谱:两大技术优势互补

    LLM 是黑箱模型,缺乏可解释性,因此备受批评。LLM 通过参数隐含地表示知识。因此,我们难以解释和验证 LLM 获得的知识。此外,
    的头像 发表于 07-10 11:35 1467次阅读
    最新综述!当大型语言<b class='flag-5'>模型</b>(<b class='flag-5'>LLM</b>)遇上知识图谱:两大技术优势互补

    基于Transformer的大型语言模型LLM)的内部机制

    本文旨在更好地理解基于 Transformer 的大型语言模型LLM)的内部机制,以提高它们的可靠性和可解释性。 随着大型语言模型LLM)在使用和部署方面的不断增加,打开黑箱并了解
    的头像 发表于 06-25 15:08 1042次阅读
    基于Transformer的大型语言<b class='flag-5'>模型</b>(<b class='flag-5'>LLM</b>)的内部机制

    微软将向美国政府客户提供OpenAI的GPT模型

    微软增加了对大型语言模型llm)的支持。openai推出chatgpt后,llm的使用大幅增加,微软持有openai的股份,许多类型的公司
    的头像 发表于 06-08 10:35 799次阅读

    微软发布 Azure Linux 正式版

    在内部使用 Azure Linux 两年,并从 2022 年 10 月开始公开预览后,微软本周终于正式提供其 Azure Linux。Azure Linux 是 Azure Kubernetes
    发表于 05-28 08:34