0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

技术速递 | 论文分享《Holistic Evaluation of Language Models》

华为DevCloud 来源:未知 2023-05-11 20:16 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

【摘要】 大模型(LLM)已经成为了大多数语言相关的技术的基石,然而大模型的能力、限制、风险还没有被大家完整地认识。该文为大模型评估方向的综述论文,由Percy Liang团队打造,将2022年四月份前的大模型进行了统一的评估。其中,被评估的模型包括GPT-3,InstructGPT等。在经过大量的实验之后,论文提出了一些可供参考的经验总结。

1. 在所有被评估的模型中,InstructGPT davinci v2(175B)在准确率,鲁棒性,公平性三方面上表现最好。论文主要聚焦的是国外大公司的语言大模型,而国内的知名大模型,如华为的Pangu系列以及百度的文心系列,论文并没有给出相关的测评数据。下图展示了各模型间在各种NLP任务中头对头胜率(Head-to-head win rate)的情况。可以看到,出自OpenAI的InstructGPT davinci v2在绝大多数任务中都可以击败其他模型。最近的大火的ChatGPT诞生于这篇论文之后,因此这篇论文没有对ChatGPT的测评,但ChatGPT是InstructGPT的升级版,相信ChatGPT可以取得同样优异的成绩。在下图中,准确率的综合第二名由微软的TNLG获得,第三名由初创公司Anthropic获得。同时我们也可以看到,要想在准确率额上获得55%及以上的胜率,需要至少50B的大小,可见大模型是趋势所向。8317f780-e42d-11ed-ab56-dac502259ad0.png

2. 由于硬件、架构、部署模式的区别,不同模型的准确率和效率之间没有强相关性。而准确率与鲁棒性(Robustness)、公平性(Fairness)之间有一定的正相关关系(如下图所示)。

8335fb7c-e42d-11ed-ab56-dac502259ad0.png

如今,大模型的参数规模都非常巨大。GPT-3具有1750亿个参数,部署这样一个大模型,无论在成本上还是工程上都是极大的挑战。同时,由于需要开放API给用户使用,OpenAI还需要考虑GPT-3的推理速度。文章的测试结果显示,GPT-3的推理速度并没有显著地比参数更少地模型慢,可能是在硬件、架构和部署模式上都有一定地优势,足以弥补参数规模上的劣势。

3. InstructGPT davinci v2(175B)在知识密集型的任务上取得了远超其他模型的成绩,在TruthfulQA数据集上获得了62.0%的准确率,远超第二名Anthropic-LM v4-s3 (52B) 36.2%的成绩。(TruthfulQA是衡量语言模型在生成问题答案时是否真实的测评数据集。该数据集包括817个问题,涵盖38个类别,包括健康,法律,金融和政治。作者精心设计了一些人会因为错误的先验知识或误解而错误回答的问题。)与此同时,TNLG v2(530B)在部分知识密集型任务上也有优异的表现。作者认为模型的规模对学习真实的知识起到很大的贡献,这一点可以从两个大模型的优异表现中推测得到。

4. 在推理(Reasoning)任务上,Codex davinci v2在代码生成和文本推理任务上表现都很优异,甚至远超一些以文本为训练语料的模型。这一点在数学推理的数据上表现最明显。在GSM8K数据集上,Codex davinci v2获得了52.1%的正确率,第二名为InstructGPT davinci v2(175B)的35.0%,且没有其他模型正确率超过16%。Codex davinci v2主要是用于解决代码相关的问题,例如代码生成、代码总结、注释生成、代码修复等,它在文本推理任务上的优秀表现可能是其在代码数据上训练的结果,因为代码是更具有逻辑关系的语言,在这样的数据集上训练也许可以提升模型的推理能力。

5. 所有的大模型都对输入(Prompt)的形式非常敏感。论文主要采用few-shot这种In-context learning的形式增强输入(Prompt)。

835fb868-e42d-11ed-ab56-dac502259ad0.png

如上图所示,在不同任务上,in-context examples的数量影响不同,在不同的模型上也是如此。由于有些任务比较简单,例如二分类的IMDB数据库,增加in-context examples并不会对结果有明显的影响。在模型方面,由于window size的限制,过多的in-context examples可能导致剩余的window size不足以生成一个完成答案,因而对生成结果造成负面的影响。

点击“阅读原文”,了解更多!


原文标题:技术速递 | 论文分享《Holistic Evaluation of Language Models》

文章出处:【微信公众号:华为DevCloud】欢迎添加关注!文章转载请注明出处。


声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 华为
    +关注

    关注

    217

    文章

    35782

    浏览量

    260686

原文标题:技术速递 | 论文分享《Holistic Evaluation of Language Models》

文章出处:【微信号:华为DevCloud,微信公众号:华为DevCloud】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    Nullmax端到端轨迹规划论文入选AAAI 2026

    11月8日,全球人工智能顶会 AAAI 2026 公布论文录用结果,Nullmax 研发团队的端到端轨迹规划论文成功入选。该论文创新提出一种由粗到精的轨迹预测框架——DiffRefiner,能够实现更为灵活、精准的轨迹预测。
    的头像 发表于 11-12 10:53 529次阅读

    vivado的hardware manager找不到HummingBird Evaluation kit,是什么原因?

    购买了HummingBird Evaluation kit,按照书本的指示, (1)连接FPGA JTAG (2)连接电源,并上电 (3)打开vivado,并进入Hardware manager,发现没有找到HummingBird Evaluation kit 可能的原因
    发表于 11-05 07:11

    智芯公司荣获ICEPT 2025优秀论文

    近日,第26届电子封装技术国际会议(ICEPT 2025)在上海举行。智芯公司提交的论文“WBLGA SiP High-Reliability and High-Thermal
    的头像 发表于 08-26 11:22 939次阅读

    使用CYW955913EVK-01_Evaluation_Kit,可以烧写程序但无法启动如何解决?

    我已准备好通过串口成功将程序烧录到CYW955913EVK-01_Evaluation_Kit,但是程序一直没有运行。我该如何检查?
    发表于 07-17 07:22

    格灵深瞳六篇论文入选ICCV 2025

    近日,国际顶级会议ICCV 2025(计算机视觉国际大会)公布论文录用结果,格灵深瞳团队共有6篇论文入选。
    的头像 发表于 07-07 18:23 1301次阅读

    请问AD7768-4、ADAU1979的配套Evaluation Software能否进行原始音频数据?

    请问AD7768-4、ADAU1979的配套Evaluation Software能否进行原始音频数据? 另外请问有没有MCU+AD架构的高精度、多通道的声卡的解决方案?
    发表于 04-15 07:53

    Keil LPC1769 Evaluation Board支持SPI和I2C通信吗?

    OM11084 : Keil LPC1769 Evaluation Board 支持 SPI 和 I2C 通信吗?
    发表于 04-07 06:33

    京东零售广告创意:引入场域目标的创意图片生成

    作者:京东零售 冯伟 WWW2025: CTR-Driven Advertising Image Generation with Multimodal Large Language Models
    的头像 发表于 03-18 14:00 587次阅读
    京东零售广告创意:引入场域目标的创意图片生成

    美报告:中国芯片研究论文全球领先

    据新华社报道,美国乔治敦大学“新兴技术观察项目(ETO)”3日在其网站发布一份报告说,2018年至2023年间,在全球发表的芯片设计和制造相关论文中,中国研究人员的论文数量远超其他国家,中国在高被
    的头像 发表于 03-05 14:32 1717次阅读

    一种基于正交与缩放变换的大模型量化方法

    近年来,大规模语言模型(Large Language Models, LLMs)在自然语言处理领域取得了革命性进展。以 GPT 系列、LLaMA 等为代表的模型,通过千亿级参数的复杂结构展现出强大的语义理解和生成能力。
    的头像 发表于 03-04 11:10 897次阅读
    一种基于正交与缩放变换的大模型量化方法

    DeepSeek大模型如何推动“AI+物流”融合创新

    在人工智能技术的迭代浪潮中,大模型(Large Language Models, LLM)正从文本生成、图像创作走向垂直行业赋能。2025年新年,国产 AI 大模型 DeepSeek 横空出世,凭借其低成本、高精度和多模态能力,
    的头像 发表于 02-28 16:36 1034次阅读

    MAX38913AEVK-WLP: Evaluation Kit for the MAX38913 and MAX38914 Data Sheet adi

    电子发烧友网为你提供ADI(ADI)MAX38913AEVK-WLP: Evaluation Kit for the MAX38913 and MAX38914 Data Sheet相关产品参数
    发表于 01-15 18:55
    MAX38913AEVK-WLP: <b class='flag-5'>Evaluation</b> Kit for the MAX38913 and MAX38914 Data Sheet adi

    MAX15159EVKIT: Evaluation Kit for MAX15159 Data Sheet adi

    电子发烧友网为你提供ADI(ADI)MAX15159EVKIT: Evaluation Kit for MAX15159 Data Sheet相关产品参数、数据手册,更有MAX15159EVKIT
    发表于 01-15 18:53
    MAX15159EVKIT: <b class='flag-5'>Evaluation</b> Kit for MAX15159 Data Sheet adi

    MAX98361AEVSYS-WLP-MAX98361DEVSYS-WLP: Evaluation System for the MAX98361 Data Sheet adi

    电子发烧友网为你提供ADI(ADI)MAX98361AEVSYS-WLP-MAX98361DEVSYS-WLP: Evaluation System for the MAX98361 Data
    发表于 01-15 18:45
    MAX98361AEVSYS-WLP-MAX98361DEVSYS-WLP: <b class='flag-5'>Evaluation</b> System for the MAX98361 Data Sheet adi

    中国电提出大模型推理加速新范式Falcon

    近日,中国电信翼支付针对大模型推理加速的最新研究成果《Falcon: Faster and Parallel Inference of Large Language Models through
    的头像 发表于 01-15 13:49 1461次阅读
    中国电提出大模型推理加速新范式Falcon