0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

技术速递 | 论文分享《Holistic Evaluation of Language Models》

华为DevCloud 来源:未知 2023-05-11 20:16 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

【摘要】 大模型(LLM)已经成为了大多数语言相关的技术的基石,然而大模型的能力、限制、风险还没有被大家完整地认识。该文为大模型评估方向的综述论文,由Percy Liang团队打造,将2022年四月份前的大模型进行了统一的评估。其中,被评估的模型包括GPT-3,InstructGPT等。在经过大量的实验之后,论文提出了一些可供参考的经验总结。

1. 在所有被评估的模型中,InstructGPT davinci v2(175B)在准确率,鲁棒性,公平性三方面上表现最好。论文主要聚焦的是国外大公司的语言大模型,而国内的知名大模型,如华为的Pangu系列以及百度的文心系列,论文并没有给出相关的测评数据。下图展示了各模型间在各种NLP任务中头对头胜率(Head-to-head win rate)的情况。可以看到,出自OpenAI的InstructGPT davinci v2在绝大多数任务中都可以击败其他模型。最近的大火的ChatGPT诞生于这篇论文之后,因此这篇论文没有对ChatGPT的测评,但ChatGPT是InstructGPT的升级版,相信ChatGPT可以取得同样优异的成绩。在下图中,准确率的综合第二名由微软的TNLG获得,第三名由初创公司Anthropic获得。同时我们也可以看到,要想在准确率额上获得55%及以上的胜率,需要至少50B的大小,可见大模型是趋势所向。8317f780-e42d-11ed-ab56-dac502259ad0.png

2. 由于硬件、架构、部署模式的区别,不同模型的准确率和效率之间没有强相关性。而准确率与鲁棒性(Robustness)、公平性(Fairness)之间有一定的正相关关系(如下图所示)。

8335fb7c-e42d-11ed-ab56-dac502259ad0.png

如今,大模型的参数规模都非常巨大。GPT-3具有1750亿个参数,部署这样一个大模型,无论在成本上还是工程上都是极大的挑战。同时,由于需要开放API给用户使用,OpenAI还需要考虑GPT-3的推理速度。文章的测试结果显示,GPT-3的推理速度并没有显著地比参数更少地模型慢,可能是在硬件、架构和部署模式上都有一定地优势,足以弥补参数规模上的劣势。

3. InstructGPT davinci v2(175B)在知识密集型的任务上取得了远超其他模型的成绩,在TruthfulQA数据集上获得了62.0%的准确率,远超第二名Anthropic-LM v4-s3 (52B) 36.2%的成绩。(TruthfulQA是衡量语言模型在生成问题答案时是否真实的测评数据集。该数据集包括817个问题,涵盖38个类别,包括健康,法律,金融和政治。作者精心设计了一些人会因为错误的先验知识或误解而错误回答的问题。)与此同时,TNLG v2(530B)在部分知识密集型任务上也有优异的表现。作者认为模型的规模对学习真实的知识起到很大的贡献,这一点可以从两个大模型的优异表现中推测得到。

4. 在推理(Reasoning)任务上,Codex davinci v2在代码生成和文本推理任务上表现都很优异,甚至远超一些以文本为训练语料的模型。这一点在数学推理的数据上表现最明显。在GSM8K数据集上,Codex davinci v2获得了52.1%的正确率,第二名为InstructGPT davinci v2(175B)的35.0%,且没有其他模型正确率超过16%。Codex davinci v2主要是用于解决代码相关的问题,例如代码生成、代码总结、注释生成、代码修复等,它在文本推理任务上的优秀表现可能是其在代码数据上训练的结果,因为代码是更具有逻辑关系的语言,在这样的数据集上训练也许可以提升模型的推理能力。

5. 所有的大模型都对输入(Prompt)的形式非常敏感。论文主要采用few-shot这种In-context learning的形式增强输入(Prompt)。

835fb868-e42d-11ed-ab56-dac502259ad0.png

如上图所示,在不同任务上,in-context examples的数量影响不同,在不同的模型上也是如此。由于有些任务比较简单,例如二分类的IMDB数据库,增加in-context examples并不会对结果有明显的影响。在模型方面,由于window size的限制,过多的in-context examples可能导致剩余的window size不足以生成一个完成答案,因而对生成结果造成负面的影响。

点击“阅读原文”,了解更多!


原文标题:技术速递 | 论文分享《Holistic Evaluation of Language Models》

文章出处:【微信公众号:华为DevCloud】欢迎添加关注!文章转载请注明出处。


声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 华为
    +关注

    关注

    218

    文章

    36189

    浏览量

    262671

原文标题:技术速递 | 论文分享《Holistic Evaluation of Language Models》

文章出处:【微信号:华为DevCloud,微信公众号:华为DevCloud】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    地平线11篇论文强势入选CVPR 2026

    论文收录结果。地平线凭借深厚的技术积淀与前瞻的科研布局,共有11篇论文成功入选,覆盖端到端自动驾驶、3D重建、世界模型、具身智能等多个核心领域,充分彰显地平线在前沿技术领域的顶尖研发水
    的头像 发表于 03-18 15:18 814次阅读
    地平线11篇<b class='flag-5'>论文</b>强势入选CVPR 2026

    谷东智能光学技术推动AR眼镜迈向大规模应用

    随着AI技术的飞速发展,世界模型(World Models)作为推动AI从感知走向推理与行动的核心引擎,正日益成为行业关注的焦点。
    的头像 发表于 01-30 15:47 590次阅读

    DeepSeek开源Engram:让大模型拥有&quot;过目不忘&quot;的类脑记忆

    of Sparsity for Large Language Models》,并同步开源记忆模块Engram。这一机制通过可扩展查找结构,让大模型实现O(1)时间复杂度的"条件反射式"记忆检索,被业界视为破解
    的头像 发表于 01-14 16:07 456次阅读
    DeepSeek开源Engram:让大模型拥有&quot;过目不忘&quot;的类脑记忆

    梁文锋署名DeepSeek新论文:突破GPU内存限制的技术革命

    of Sparsity for Large Language Models》(直译为《基于可扩展查找的条件记忆:大语言模型稀疏性的新维度》)。这篇论文不仅揭示了当前大语言模型在知识检索方面的低效问题,还通过创新
    的头像 发表于 01-14 11:29 5408次阅读

    TDK Joystick Evaluation Platform:HAL 3900的全方位解析

    TDK Joystick Evaluation Platform:HAL 3900的全方位解析 在电子设备的设计与开发中,传感器的应用至关重要,尤其是在操纵杆等设备中,精确的位置和角度检测能够极大
    的头像 发表于 12-26 11:35 617次阅读

    Nullmax端到端轨迹规划论文入选AAAI 2026

    11月8日,全球人工智能顶会 AAAI 2026 公布论文录用结果,Nullmax 研发团队的端到端轨迹规划论文成功入选。该论文创新提出一种由粗到精的轨迹预测框架——DiffRefiner,能够实现更为灵活、精准的轨迹预测。
    的头像 发表于 11-12 10:53 1071次阅读

    vivado的hardware manager找不到HummingBird Evaluation kit,是什么原因?

    购买了HummingBird Evaluation kit,按照书本的指示, (1)连接FPGA JTAG (2)连接电源,并上电 (3)打开vivado,并进入Hardware manager,发现没有找到HummingBird Evaluation kit 可能的原因
    发表于 11-05 07:11

    华为、中国科学院计算技术研究所联合开发论文获USENIX收录

    的CCF-A类会议,本届ATC共收到634篇论文投稿,仅100篇成功入选,中稿率低至15.8%。其中,华为数据中心网络技术实验室与中国科学院计算技术研究所合作完成的论文——基于Comp
    的头像 发表于 10-12 11:00 2099次阅读
    华为、中国科学院计算<b class='flag-5'>技术</b>研究所联合开发<b class='flag-5'>论文</b>获USENIX收录

    智芯公司荣获ICEPT 2025优秀论文

    近日,第26届电子封装技术国际会议(ICEPT 2025)在上海举行。智芯公司提交的论文“WBLGA SiP High-Reliability and High-Thermal
    的头像 发表于 08-26 11:22 1389次阅读

    你发文,我奖励!Aigtek安泰电子新周期论文奖励活动正式开启!

    Aigtek论文奖励活动为了回馈广大工程师长久以来对Aigtek安泰电子的深厚信赖,也为了鼓励更多科研工作者用自主创新技术探索科学领域的无限可能,Aigtek安泰电子新周期论文奖励活动正式上线,诚邀
    的头像 发表于 07-31 19:07 862次阅读
    你发文,我奖励!Aigtek安泰电子新周期<b class='flag-5'>论文</b>奖励活动正式开启!

    使用CYW955913EVK-01_Evaluation_Kit,可以烧写程序但无法启动如何解决?

    我已准备好通过串口成功将程序烧录到CYW955913EVK-01_Evaluation_Kit,但是程序一直没有运行。我该如何检查?
    发表于 07-17 07:22

    格灵深瞳六篇论文入选ICCV 2025

    近日,国际顶级会议ICCV 2025(计算机视觉国际大会)公布论文录用结果,格灵深瞳团队共有6篇论文入选。
    的头像 发表于 07-07 18:23 1694次阅读

    理想汽车八篇论文入选ICCV 2025

    ,最终仅接受2698篇论文,录用率为24%,竞争激烈。理想汽车此次入选8篇论文,展示出深厚的技术积累和强大的研究实力。
    的头像 发表于 07-03 13:58 1283次阅读

    后摩智能四篇论文入选三大国际顶会

    2025 年上半年,继年初被 AAAI、ICLR、DAC 三大国际顶会收录 5 篇论文后,后摩智能近期又有 4 篇论文入选CVPR、ICML、ACL三大国际顶会,面向大模型的编码、量化、压缩与微调等技术难题提出创新性解决方案,为
    的头像 发表于 05-29 15:37 1491次阅读

    老板必修课:如何用NotebookLM 在上下班路上吃透一篇科技论文

    常必要的,这有助于我们理解技术边界,更好地定义产品并做出更精准的投资决策。 一,使用NotebookLM,随身解读科技论文 我经常使用的解读科技论文的工具是Notebook,只需要把科技论文
    的头像 发表于 05-07 16:13 782次阅读
    老板必修课:如何用NotebookLM 在上下班路上吃透一篇科技<b class='flag-5'>论文</b>?