0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

AGIEval:准确考察基础模型类人能力的基准评估工具

jf_WZTOguxH 来源:AI前线 2023-05-15 15:45 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

对基础模型在处理人类任务时的一般能力做出准确评估,已经成为通用人工智能(AGI)开发和应用领域的一大重要问题。基于人工数据集的传统基准往往无法准确反映模型能力是否达到人类水平。

近日,微软的一个华人研究团队发布了一项新型基准测试 AGIEval,这项基准测试专门用于对基础模型的类人能力做准确考察(涵盖高考、法学入学考试、数学竞赛和律师资格考试等)。

该研究团队使用此项基准评估了当前最先进的多个基础模型,包括 GPT-4、ChatGPT 和 Text-Davinci-003 等。

令人印象深刻的是,GPT-4 在 SAT、LSAT 和数学竞赛中的表现均超过人类平均水平,在 SAT 数学测试中达成 95% 的准确率,在中国高考英语测试中准确率亦达到 92.5%,证明了当代基础模型的非凡性能。

与之对应,研究人员发现 GPT-4,在需要复杂推理或涉及特定领域知识的任务中表现尚不理想。

通过对模型能力(理解、知识、推理和计算等)的全面分析,有助于揭示这些模型的优势和局限性,为增强其通用能力的未来发展方向提供支持。通过测试涉及人类认知和决策能力的任务,AGIEval 能够对基础模型在现实场景中的性能做出更可靠、更有意义的评估。

测试中的全部数据、代码和模型输出均通过此 https URL(https://github.com/microsoft/AGIEval)发布。

AGIEval 项目介绍

AGIEval 是一项考察基础模型类人能力的基准测试,专门用于评估基础模型在人类认知和问题解决相关任务中表现出的一般能力。

该基准选取 20 种面向普通人类考生的官方、公开、高标准往常和资格考试,包括普通大学入学考试(中国高考和美国 SAT 考试)、法学入学考试、数学竞赛、律师资格考试、国家公务员考试等等。

关于此基准的完整描述,请参阅论文《AGIEval:准确考察基础模型类人能力的基准评估工具》(https://arxiv.org/pdf/2304.06364.pdf)。

任务与数据

AGIEval v1.0 包含 20 项任务,具体为 2 项完形填空任务(高考数学)和 18 项多选题回答任务。在选择题部分,高物理和 JEC-QA 部分对应一个或多个正确答案,其余任务则仅有一个正确答案。

下表所示,为测试题目的完整列表。

a48a24c6-f295-11ed-90ce-dac502259ad0.png

可以在 data/v1 文件夹内下载到除 JEC-QA 以外的所有后处理数据。关于 JEC-QA 部分,请前往 JEC-QA 网站获取数据。

使用 JEC-QA 训练数据的前 1000 个实例作为测试集。所有数据集的数据格式如下:

{
    "passage": null,
    "question": "设集合 $A=\{x \mid x \geq 1\}, B=\{x \mid-1-1\}$",
        "(B)$\{x \mid x \geq 1\}$",
        "(C)$\{x \mid-1

其中高考语言、高考英语、两科 logiqa、全部 LSAT 和 SAT 均可使用 passage 字段。多选任务的答案保存在 label 字段内。完形填空任务的答案保存在 answer 字段内。

我们还在 data/v1/few_shot_prompts 文件中提供了小样本学习的提示词。

基线系统

我们在 AGIEval v1.0 上评估了基准系统的性能。基线系统基于以下模型:text-davinci-003、ChatGPT (gpt-3.5-turbo) 和 GPT-4。您可以按照以下步骤重现测试结果:

1.在 openai_api.py 文件中填写您的 OpenAI API 密钥。

2.运行 run_prediction.py 文件以获取结果。

模型输出

‍您可以在 Onedrive 链接(https://1drv.ms/u/s!Amt8n9AJEyxcg8YQKFm1rSEyV9GU_A?e=VEfJVS)中下载到基线系统的零样本、零样本思维链、少样本和少样本思维链输出。请注意,我们修复了 SAT-en 实例中的 52 处拼写错误,并将很快发布更新后的数据集输出。‍

评估

您可以运行 post_process_and_evaluation.py 文件来获取评估结果。

引用

如果您需要在研究中使用 AGIEval 数据集或代码,请引用论文:

@misc{zhong2023agieval,
      title={AGIEval: A Human-Centric Benchmark for Evaluating Foundation Models},
      author={Wanjun Zhong and Ruixiang Cui and Yiduo Guo and Yaobo Liang and Shuai Lu and Yanlin Wang and Amin Saied and Weizhu Chen and Nan Duan},
      year={2023},
      eprint={2304.06364},
      archivePrefix={arXiv},
      primaryClass={cs.CL}
}

在使用时,请务必在您的论文中引用所有独立数据集。我们提供以下引用信息:



@inproceedings{ling-etal-2017-program,
    title = "Program Induction by Rationale Generation: Learning to Solve and Explain Algebraic Word Problems",
    author = "Ling, Wang  and
      Yogatama, Dani  and
      Dyer, Chris  and
      Blunsom, Phil",
    booktitle = "Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers)",
    month = jul,
    year = "2017",
    address = "Vancouver, Canada",
    publisher = "Association for Computational Linguistics",
    url = "https://aclanthology.org/P17-1015",
    doi = "10.18653/v1/P17-1015",
    pages = "158--167",
    abstract = "Solving algebraic word problems requires executing a series of arithmetic operations{---}a program{---}to obtain a final answer. However, since programs can be arbitrarily complicated, inducing them directly from question-answer pairs is a formidable challenge. To make this task more feasible, we solve these problems by generating answer rationales, sequences of natural language and human-readable mathematical expressions that derive the final answer through a series of small steps. Although rationales do not explicitly specify programs, they provide a scaffolding for their structure via intermediate milestones. To evaluate our approach, we have created a new 100,000-sample dataset of questions, answers and rationales. Experimental results show that indirect supervision of program learning via answer rationales is a promising strategy for inducing arithmetic programs.",
}


@inproceedings{hendrycksmath2021,
  title={Measuring Mathematical Problem Solving With the MATH Dataset},
  author={Dan Hendrycks and Collin Burns and Saurav Kadavath and Akul Arora and Steven Basart and Eric Tang and Dawn Song and Jacob Steinhardt},
  journal={NeurIPS},
  year={2021}
}


@inproceedings{Liu2020LogiQAAC,
  title={LogiQA: A Challenge Dataset for Machine Reading Comprehension with Logical Reasoning},
  author={Jian Liu and Leyang Cui and Hanmeng Liu and Dandan Huang and Yile Wang and Yue Zhang},
  booktitle={International Joint Conference on Artificial Intelligence},
  year={2020}
}


@inproceedings{zhong2019jec,
  title={JEC-QA: A Legal-Domain Question Answering Dataset},
  author={Zhong, Haoxi and Xiao, Chaojun and Tu, Cunchao and Zhang, Tianyang and Liu, Zhiyuan and Sun, Maosong},
  booktitle={Proceedings of AAAI},
  year={2020},
}


@article{Wang2021FromLT,
  title={From LSAT: The Progress and Challenges of Complex Reasoning},
  author={Siyuan Wang and Zhongkun Liu and Wanjun Zhong and Ming Zhou and Zhongyu Wei and Zhumin Chen and Nan Duan},
  journal={IEEE/ACM Transactions on Audio, Speech, and Language Processing},
  year={2021},
  volume={30},
  pages={2201-2216}
}

审核编辑 :李倩

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 人工智能
    +关注

    关注

    1813

    文章

    49783

    浏览量

    261870
  • 数据集
    +关注

    关注

    4

    文章

    1232

    浏览量

    26063
  • ChatGPT
    +关注

    关注

    31

    文章

    1596

    浏览量

    10095

原文标题:AGIEval:准确考察基础模型类人能力的基准评估工具

文章出处:【微信号:AI前线,微信公众号:AI前线】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    自动驾驶大模型中常提的泛化能力是指啥?

    [首发于智驾最前沿微信公众号]在讨论自动驾驶大模型时,常会有几个评价维度,如感知是否准确、决策是否稳定、系统是否足够鲁棒,以及模型有没有“泛化能力”。相比
    的头像 发表于 12-10 09:15 262次阅读
    自动驾驶大<b class='flag-5'>模型</b>中常提的泛化<b class='flag-5'>能力</b>是指啥?

    不同类型的自动化工具评估数据缓存效果时有哪些优缺点?

    评估数据缓存效果时,不同类型的自动化工具(实时监控、性能测试、深度分析、云原生专属)因
    的头像 发表于 09-25 17:48 521次阅读
    不同类型的自动化<b class='flag-5'>工具</b>在<b class='flag-5'>评估</b>数据缓存效果时有哪些优缺点?

    量化评估企业软件测试能力评估工具

    能力评估标准,让测试团队陷入"救火式加班"的循环。更令人焦虑的是——管理层难以量化测试团队的真实能力水平;工程师说不清效率瓶颈究竟在哪里;工具投入不少,但效果始
    的头像 发表于 08-27 10:04 489次阅读
    量化<b class='flag-5'>评估</b>企业软件测试<b class='flag-5'>能力</b>的<b class='flag-5'>评估</b><b class='flag-5'>工具</b>包

    如何选择适合自己项目的通信协议评估工具

    LZ-DZ200电能质量在线监测装置 选择适合项目的通信协议评估工具,核心是 对齐项目需求与工具能力 ,避免 “过度选型”(用高端工具测简单
    的头像 发表于 08-27 09:19 465次阅读
    如何选择适合自己项目的通信协议<b class='flag-5'>评估</b><b class='flag-5'>工具</b>?

    模型工具的 “京东答案”

    随着大模型技术的迅猛发展,AI工具已成为重要的辅助生产力工具和工作伙伴。它能够显著提升工作效率、帮助解决业务痛点,甚至能通过知识延展与智能协同,帮助团队突破传统认知边界。掌握大模型
    的头像 发表于 08-25 16:09 415次阅读

    机场保障能力评估系统软件全面解析

    机场保障能力评估系统软件全面解析
    的头像 发表于 07-17 22:06 359次阅读
    机场保障<b class='flag-5'>能力</b><b class='flag-5'>评估</b>系统软件全面解析

    商汤日日新SenseNova融合模态大模型 国内首家获得最高评级的大模型

    的大模型。 可信AI多模态大模型评估2025年1月启动,由中国信通院人工智能研究所牵头,依据由业界60余家单位共同编制的《多模态大模型技术要求和评估
    的头像 发表于 06-11 11:57 1180次阅读

    普渡机器接入DeepSeek满血版模型

    自2月20日起,普渡机器正式接入DeepSeek满血版模型,机器智能语音交互能力迎来智能化升级里程碑!此次升级中,首批搭载该模型的贝拉P
    的头像 发表于 02-20 16:50 1352次阅读

    VirtualLab Fusion应用:具有二维出瞳扩展和模型复杂光波导系统

    评估。 任务描述 光导元件 出瞳扩展器(EPE)区 耦出区域 模型 摘要-组件 系统中不同位置/平面上的场 MTF和PSF–计算 光导后的横向均匀性评估 Vi
    发表于 02-08 09:00

    两大AI模型性能提升 登上国际榜单

    ,目前位列BFCLLeaderboard总榜单第一。据悉,榜单BFCLLeaderboard是由加州大学伯克利分校开发的评估LLM工具调用能力基准测试平台。作为目前大
    的头像 发表于 01-16 12:01 1183次阅读
    两大AI<b class='flag-5'>模型</b>性能提升 登上国际榜单

    SPEC ML基准测试新增模算效率指标

    和模算效率三大关键指标。 作为此次更新的亮点之一,模算效率首次被纳入SPEC ML基准评测体系。这一指标的加入,旨在填补大模型计算效率评测基准领域的研究空白,为AI领域的发展提供更加全面、准确
    的头像 发表于 01-15 14:28 780次阅读

    MPU的性能评估方法

    Testing) 基准测试是通过运行一组预定义的测试程序来评估MPU的性能。这些测试程序通常涵盖了处理器的主要功能,如计算能力、内存访问速度、浮点运算等。通过比较不同MPU在相同基准
    的头像 发表于 01-08 09:39 1310次阅读

    【「具身智能机器系统」阅读体验】2.具身智能机器人大模型

    、医疗、服务等领域的应用前景更加广阔,也使得人类能够更轻松地借助机器完成复杂工作。我深刻认识到,大模型技术正在从根本上改变我们对机器能力的认知。它们不仅是一种技术工具,更是推动具身智
    发表于 12-29 23:04

    《具身智能机器系统》第7-9章阅读心得之具身智能机器与大模型

    研读《具身智能机器系统》第7-9章,我被书中对大模型与机器技术融合的深入分析所吸引。第7章详细阐述了ChatGPT for Robotics的核心技术创新:它摒弃了传统的分层控制架构,创造性地
    发表于 12-24 15:03

    【「大模型启示录」阅读体验】如何在客服领域应用大模型

    内为企业带来效益。在选择模型时,需要评估其性能表现。这包括模型准确性、响应速度、对话流畅性、情感理解能力等方面。可以通过对比不同
    发表于 12-17 16:53