0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

谷歌和微软自然语言理解榜单中超越人类表现

工程师邓生 来源:澎湃新闻 作者:澎湃新闻 2021-01-08 16:54 次阅读

近日,科技公司谷歌和微软相继在一份权威自然语言理解榜单中超越人类的表现,微软宣称这“标志着迈向通用人工智能的重要里程碑。”

自然语言理解(Natural Language Understanding,简称NLU)任务在人工智能领域历史悠久,被誉为“人工智能皇冠上的明珠”。由于自然语言本身存在的歧义性或多义性,实现高质量的自然语言理解有相当的难度。

为了衡量人工智能模型的自然语言理解能力,纽约大学、华盛顿大学、Facebook和DeepMind在2019年合作提出一个名为SuperGLUE的人工智能基准测试。SuperGLUE由2018年GLUE演化而来,其语言理解任务难度更大,包括问答、自然语言推理、指代消解和词义消歧等等。

SuperGLUE榜单

在最近更新的SuperGLUE上,微软的DeBERTa模型和谷歌的T5+Meena模型分列第一第二,超越人类基准线(human baseline)。这是人工智能首次在SuperGLUE中表现超越人类。

尽管在SuperGLUE测试上取得令人满意的结果,但微软坦言,DeBERTa模型还没有达到人类智能的自然语言理解水平。人类非常善于利用从不同任务中学到的知识来解决新的任务,这是AI模型需要学习的地方。

排名第一的微软模型DeBERTa共有15亿个参数。在SuperGLUE测试中,单个DeBERTa模型的宏观平均分(89.9分)超过了人类的表现(89.8分);模型整体得分(90.3分)也超过人类基准线(89.8分),在SuperGLUE排名第一。排名第二的T5+Meena模型得分90.2,同样超过人类基准线(89.8分)。

在SuperGLUE测试中,人工智能模型被要求回答类似这样的问题:

已知“这个孩子对疾病产生了免疫力”,问“这是由什么导致的?”请选择:A.“他避免接触这种疾病”;或B.“他接种了这一疾病的疫苗”。

这是一个简单的因果推理任务,人类很容易选出正确答案。但对人工智能模型而言,却是不小的挑战。为了得出正确答案,模型需要理解已知条件和选项之间的因果关系。

责任编辑:PSY

2021年1月6日,微软在博客发文详细介绍此次取得榜首的DeBERTa模型。

DeBERTa全称Decoding-enhanced-BERT-with-disentangled attention,是一个基于Transformer架构的神经语言模型,采用自监督学习方法对大量原始文本语料库进行预训练。DeBERTa的目标是学习通用的语言表达形式,适用于各种自然语言理解任务。DeBERTa主要用到三种新技术,分别是分离注意力机制、增强的掩码解码器和用于微调的虚拟对抗训练方法。

排名第二的T5+Meena技术来自谷歌。谷歌团队尚未详细解释其模型在SuperGLUE创纪录的原因。但微软在博客文章中评价称,谷歌的T5模型由110亿个参数组成,相比之下,15亿参数的DeBERTa在训练和维护上更加节能,更容易压缩并部署到各种程序中。

微软正在将DeBERTa模型集成到下一代“图灵自然语言生成模型”(Turing NLRv4)中。下一步,他们准备向公众公开15亿参数的DeBERTa模型及其源代码。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 微软
    +关注

    关注

    4

    文章

    6246

    浏览量

    103077
  • 谷歌
    +关注

    关注

    27

    文章

    5858

    浏览量

    103251
  • 自然语言
    +关注

    关注

    1

    文章

    269

    浏览量

    13203
收藏 人收藏

    评论

    相关推荐

    一种基于自然语言的轨迹修正方法

    本研究提出了ExTraCT框架,利用自然语言进行轨迹校正。该框架结合了大型语言模型(LLMs)用于自然语言理解和轨迹变形函数。ExTraCT能够根据场景在线生成轨迹修改特征及其
    的头像 发表于 01-19 10:45 183次阅读
    一种基于<b class='flag-5'>自然语言</b>的轨迹修正方法

    模型与人类的注意力视角下参数规模扩大与指令微调对模型语言理解的作用

    近期的大语言模型(LLM)在自然语言理解和生成上展现出了接近人类的强大能力,远远优于先前的BERT等预训练模型(PLM)。
    的头像 发表于 01-04 14:06 155次阅读
    模型与<b class='flag-5'>人类</b>的注意力视角下参数规模扩大与指令微调对模型<b class='flag-5'>语言</b><b class='flag-5'>理解</b>的作用

    2023年科技圈热词“大语言模型”,与自然语言处理有何关系

    电子发烧友网报道(文/李弯弯)大语言模型(LLM)是基于海量文本数据训练的深度学习模型。它不仅能够生成自然语言文本,还能够深入理解文本含义,处理各种自然语言任务,如文本摘要、问答、翻译
    的头像 发表于 01-02 09:28 1389次阅读

    硬件加速自然语言理解解决方案

    电子发烧友网站提供《硬件加速自然语言理解解决方案.pdf》资料免费下载
    发表于 09-13 10:45 0次下载
    硬件加速<b class='flag-5'>自然语言</b><b class='flag-5'>理解</b>解决方案

    自然语言处理和人工智能的区别

      自然语言处理(Natural Language Processing,NLP)是人工智能(AI)中的一个分支,它利用计算机技术对自然语言进行处理,使得电脑能够理解和操作人类
    发表于 08-28 17:32 931次阅读

    自然语言处理和人工智能的概念及发展史 自然语言处理和人工智能的区别

    自然语言处理(Natural Language Processing, NLP)的定义是通过电脑软件程序实现人们日常语言的机器自动处理。为了帮助计算机理解,掌握自然语言处理的基本原理,
    发表于 08-23 18:22 531次阅读

    自然语言处理的概念和应用 自然语言处理属于人工智能吗

      自然语言处理(Natural Language Processing)是一种人工智能技术,它是研究自然语言与计算机之间的交互和通信的一门学科。自然语言处理旨在研究机器如何理解人类
    发表于 08-23 17:31 853次阅读

    自然语言处理的优缺点有哪些 自然语言处理包括哪些内容

    自然语言处理(Natural Language Processing)是一种人工智能的技术及领域,它致力于让计算机理解及处理人类语言。它可以帮助计算机对
    发表于 08-23 17:26 2561次阅读

    自然语言理解问答对话文本数据,赋予计算机智能交流的能力

    自然语言理解(Natural Language Understanding,简称NLU)问答对话文本数据是现代人工智能领域的一项重要资源。这些数据集涵盖了用户与计算机之间的自然语言交互,旨在让计算机
    的头像 发表于 08-07 18:11 414次阅读

    自然语言处理包括哪些内容 自然语言处理技术包括哪些

    自然语言处理(Natural Language Processing, NLP)一般包括以下内容: 语音识别(Speech Recognition):将人类语言转换为计算机可以理解的形
    的头像 发表于 08-03 16:22 3897次阅读

    自然语言理解的数据定制服务:赋能智能化应用的关键

    在数字化时代,自然语言理解(Natural Language Understanding,NLU)成为了构建智能化应用的重要基石。NLU技术能够使机器理解和解释人类
    的头像 发表于 06-18 21:22 199次阅读

    AI打LeetCode周赛进入前10%!秘诀:自然语言编程

    首先,自然语言表达是模糊的和不精确的。我们所讲的语言中,存在很多概念和意思是相对的和依赖语境的,这些难以在计算机程序中得到明确和一致的表达,这都给程序的理解使用和调试带来了很大困难。
    的头像 发表于 06-05 16:34 315次阅读
    AI打LeetCode周赛进入前10%!秘诀:<b class='flag-5'>自然语言</b>编程

    PyTorch教程-16.5。自然语言推理:使用注意力

    16.5。自然语言推理:使用注意力¶ Colab [火炬]在 Colab 中打开笔记本 Colab [mxnet] Open the notebook in Colab Colab
    的头像 发表于 06-05 15:44 343次阅读
    PyTorch教程-16.5。<b class='flag-5'>自然语言</b>推理:使用注意力

    PyTorch教程16.7之自然语言推理:微调BERT

    电子发烧友网站提供《PyTorch教程16.7之自然语言推理:微调BERT.pdf》资料免费下载
    发表于 06-05 10:52 0次下载
    PyTorch教程16.7之<b class='flag-5'>自然语言</b>推理:微调BERT

    PyTorch教程16.5之自然语言推理:使用注意力

    电子发烧友网站提供《PyTorch教程16.5之自然语言推理:使用注意力.pdf》资料免费下载
    发表于 06-05 10:49 0次下载
    PyTorch教程16.5之<b class='flag-5'>自然语言</b>推理:使用注意力