0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

技术速递 | 论文分享《Holistic Evaluation of Language Models》

华为DevCloud 来源:未知 2023-05-11 20:16 次阅读
【摘要】 大模型(LLM)已经成为了大多数语言相关的技术的基石,然而大模型的能力、限制、风险还没有被大家完整地认识。该文为大模型评估方向的综述论文,由Percy Liang团队打造,将2022年四月份前的大模型进行了统一的评估。其中,被评估的模型包括GPT-3,InstructGPT等。在经过大量的实验之后,论文提出了一些可供参考的经验总结。

1. 在所有被评估的模型中,InstructGPT davinci v2(175B)在准确率,鲁棒性,公平性三方面上表现最好。论文主要聚焦的是国外大公司的语言大模型,而国内的知名大模型,如华为的Pangu系列以及百度的文心系列,论文并没有给出相关的测评数据。下图展示了各模型间在各种NLP任务中头对头胜率(Head-to-head win rate)的情况。可以看到,出自OpenAI的InstructGPT davinci v2在绝大多数任务中都可以击败其他模型。最近的大火的ChatGPT诞生于这篇论文之后,因此这篇论文没有对ChatGPT的测评,但ChatGPT是InstructGPT的升级版,相信ChatGPT可以取得同样优异的成绩。在下图中,准确率的综合第二名由微软的TNLG获得,第三名由初创公司Anthropic获得。同时我们也可以看到,要想在准确率额上获得55%及以上的胜率,需要至少50B的大小,可见大模型是趋势所向。8317f780-e42d-11ed-ab56-dac502259ad0.png

2. 由于硬件、架构、部署模式的区别,不同模型的准确率和效率之间没有强相关性。而准确率与鲁棒性(Robustness)、公平性(Fairness)之间有一定的正相关关系(如下图所示)。

8335fb7c-e42d-11ed-ab56-dac502259ad0.png

如今,大模型的参数规模都非常巨大。GPT-3具有1750亿个参数,部署这样一个大模型,无论在成本上还是工程上都是极大的挑战。同时,由于需要开放API给用户使用,OpenAI还需要考虑GPT-3的推理速度。文章的测试结果显示,GPT-3的推理速度并没有显著地比参数更少地模型慢,可能是在硬件、架构和部署模式上都有一定地优势,足以弥补参数规模上的劣势。

3. InstructGPT davinci v2(175B)在知识密集型的任务上取得了远超其他模型的成绩,在TruthfulQA数据集上获得了62.0%的准确率,远超第二名Anthropic-LM v4-s3 (52B) 36.2%的成绩。(TruthfulQA是衡量语言模型在生成问题答案时是否真实的测评数据集。该数据集包括817个问题,涵盖38个类别,包括健康,法律,金融和政治。作者精心设计了一些人会因为错误的先验知识或误解而错误回答的问题。)与此同时,TNLG v2(530B)在部分知识密集型任务上也有优异的表现。作者认为模型的规模对学习真实的知识起到很大的贡献,这一点可以从两个大模型的优异表现中推测得到。

4. 在推理(Reasoning)任务上,Codex davinci v2在代码生成和文本推理任务上表现都很优异,甚至远超一些以文本为训练语料的模型。这一点在数学推理的数据上表现最明显。在GSM8K数据集上,Codex davinci v2获得了52.1%的正确率,第二名为InstructGPT davinci v2(175B)的35.0%,且没有其他模型正确率超过16%。Codex davinci v2主要是用于解决代码相关的问题,例如代码生成、代码总结、注释生成、代码修复等,它在文本推理任务上的优秀表现可能是其在代码数据上训练的结果,因为代码是更具有逻辑关系的语言,在这样的数据集上训练也许可以提升模型的推理能力。

5. 所有的大模型都对输入(Prompt)的形式非常敏感。论文主要采用few-shot这种In-context learning的形式增强输入(Prompt)。

835fb868-e42d-11ed-ab56-dac502259ad0.png

如上图所示,在不同任务上,in-context examples的数量影响不同,在不同的模型上也是如此。由于有些任务比较简单,例如二分类的IMDB数据库,增加in-context examples并不会对结果有明显的影响。在模型方面,由于window size的限制,过多的in-context examples可能导致剩余的window size不足以生成一个完成答案,因而对生成结果造成负面的影响。

点击“阅读原文”,了解更多!


原文标题:技术速递 | 论文分享《Holistic Evaluation of Language Models》

文章出处:【微信公众号:华为DevCloud】欢迎添加关注!文章转载请注明出处。


声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 华为
    +关注

    关注

    215

    文章

    33629

    浏览量

    247165

原文标题:技术速递 | 论文分享《Holistic Evaluation of Language Models》

文章出处:【微信号:华为DevCloud,微信公众号:华为DevCloud】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    新品速递——WAYON维安推出8位MCU—WY8S8003系列

    新品速递——WAYON维安推出8位MCU—WY8S8003系列
    的头像 发表于 01-03 16:22 220次阅读
    新品<b class='flag-5'>速递</b>——WAYON维安推出8位MCU—WY8S8003系列

    DC3160A的Evaluation Software要如何取得呢?

    DC3160A的Evaluation Software要如何取得呢? DC3160A連接DC590透過QuikEval可以認到LTC9101,點open後,出現Cannot Load COM Module for device, 無法開啟Evaluation Softwa
    发表于 01-03 10:03

    12月活动速递 | Copilot实战揭秘、Azure在线技术公开课...

    原文标题:12月活动速递 | Copilot实战揭秘、Azure在线技术公开课... 文章出处:【微信公众号:微软科技】欢迎添加关注!文章转载请注明出处。
    的头像 发表于 11-28 10:15 206次阅读
    12月活动<b class='flag-5'>速递</b> | Copilot实战揭秘、Azure在线<b class='flag-5'>技术</b>公开课...

    大咖金句丨“绿色新动力”圆桌论坛嘉宾精彩观点速递

    原文标题:大咖金句丨“绿色新动力”圆桌论坛嘉宾精彩观点速递 文章出处:【微信公众号:亚德诺半导体】欢迎添加关注!文章转载请注明出处。
    的头像 发表于 11-06 21:50 325次阅读

    亮点速递 | 一图看懂第二届OpenHarmony技术大会

    点击蓝字 ╳ 关注我们 开源项目 OpenHarmony 是每个人的 OpenHarmony 原文标题:亮点速递 | 一图看懂第二届OpenHarmony技术大会 文章出处:【微信公众号:OpenAtom OpenHarmony】欢迎添加关注!文章转载请注明出处。
    的头像 发表于 11-06 19:40 230次阅读

    在RTX 4090被限制的时代下,让大模型使用RLHF更高效的方法来了

    今年,以 ChatGPT 为首的大语言模型(Large Language Models, LLMs) 在各个方面大放光彩,由此引发了学术界和商业界对 GPU 等计算资源的需求剧增。
    的头像 发表于 10-22 10:22 260次阅读
    在RTX 4090被限制的时代下,让大模型使用RLHF更高效的方法来了

    MAX6889EVCMAXQU-MAX6889EVKIT: Evaluation Kit/Evaluation System for the MAX6889 Data Sheet MAX6889EVCMAXQU-MAX6889EVKIT: Evaluation Kit/Evalu

    电子发烧友网为你提供ADI(ADI)MAX6889EVCMAXQU-MAX6889EVKIT: Evaluation Kit/Evaluation System for the MAX6889
    发表于 10-17 19:17
    MAX6889EVCMAXQU-MAX6889EVKIT: <b class='flag-5'>Evaluation</b> Kit/<b class='flag-5'>Evaluation</b> System for the MAX6889 Data Sheet MAX6889EVCMAXQU-MAX6889EVKIT: <b class='flag-5'>Evaluation</b> Kit/Evalu

    MAX6884EVCMOD2-MAX6884EVKIT: Evaluation System/Evaluation Kit for the MAX6884/MAX6885 Data Sheet MAX6884EVCMOD2-MAX6884EVKIT: Evaluation Sys

    电子发烧友网为你提供ADI(ADI)MAX6884EVCMOD2-MAX6884EVKIT: Evaluation System/Evaluation Kit for the MAX6884
    发表于 10-17 19:16
    MAX6884EVCMOD2-MAX6884EVKIT: <b class='flag-5'>Evaluation</b> System/<b class='flag-5'>Evaluation</b> Kit for the MAX6884/MAX6885 Data Sheet MAX6884EVCMOD2-MAX6884EVKIT: <b class='flag-5'>Evaluation</b> Sys

    FAST Models 11.22版用户指南

    Fast Models产品包含一个程序员视图(PV)模型和工具库,使合作伙伴能够构建、执行和调试虚拟平台。 虚拟平台能够在不需要目标芯片的情况下开发和验证软件。 在SoC验证中,可以使用相同的虚拟
    发表于 08-25 06:34

    LISA+Language for Fast Models 1.0版参考指南

    本文档描述了用于编写组件和系统模型的LISA+语言。它描述了与C++代码和LISA+预处理器的通信。
    发表于 08-10 07:47

    FAST Models 11.20版参考指南

    本文档为Fast Models Portfolio中包含的所有组件提供了参考。它还描述了快速模型插件和示例。
    发表于 08-10 07:27

    FAST Models 11.21版用户指南

    Fast Models产品包含一个程序员视图(PV)模型和工具库,使合作伙伴能够构建、执行和调试虚拟平台。虚拟平台能够在不需要目标芯片的情况下开发和验证软件。在SoC验证中,可以使用相同的虚拟平台来
    发表于 08-09 06:25

    SMOD7xx Evaluation Kit User 手册

    SMOD7xx Evaluation Kit User 手册
    发表于 07-07 20:08 0次下载
    SMOD7xx <b class='flag-5'>Evaluation</b> Kit User 手册

    P9222-R Evaluation Kit 手册

    P9222-R Evaluation Kit 手册
    发表于 07-05 20:01 2次下载
    P9222-R <b class='flag-5'>Evaluation</b> Kit 手册

    650亿参数,8块GPU就能全参数微调!邱锡鹏团队把大模型门槛打下来了!

    在上周复旦大学邱锡鹏团队提交的论文《Full Parameter Fine-tuning for Large Language Models with Limited Resources》中,研究人员提出了一种新的优化器 LOw
    的头像 发表于 06-21 14:00 645次阅读
    650亿参数,8块GPU就能全参数微调!邱锡鹏团队把大模型门槛打下来了!