0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

我们如何实现通用语言智能

DPVg_AI_era 来源:cc 2019-02-13 09:28 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

DeepMind新年力作《学习和评估通用语言智能》,从全新的角度对跨任务NLP模型进行了评估,探讨了要实现“通用语言智能”现如今的研究还缺失什么,以及如何实现通用语言智能。

2014年11月,那时候还没有被广泛认知为“深度学习教父”的Geoffrey Hinton,在国外网站Reddit回答网友提问的活动“AMA” (Ask Me Anything) 中表示,他认为未来5年最令人激动的领域,将是机器真正理解文字和视频。

Hinton说:“5年内,如果计算机没能做到在观看YouTube视频后能够讲述发生了什么,我会感到很失望。”

幸好,现在计算机已经能够在观看一段视频后简述其内容,但距离Hinton所说的“真正理解文字和视频”,还有很远的距离。

无独有偶,统计机器学习大神Michael I. Jordan在2014年9月Reddit AMA中也提到,如果他有10亿美金能够组建研究项目,他会选择构建一个NASA规模的自然语言处理 (NLP) 计划,包括语义学、语用学等分支。

Jordan说:“从学术上讲,我认为NLP是个引人入胜的问题,既让人专注于高度结构化的推理,也触及了‘什么是思维 (mind)’ 这一核心,还非常实用,能让世界变得更加美好。”

一直以来,NLP/NLU (自然语言理解) 都被视为人工智能桂冠上的明珠,不仅因其意义重大,也表示着目标距我们遥不可及。

总之,NLP是个大难题。

前段时间在业内广泛流传的一篇“人工智障”的文章,本质上讲的就是目前NLP领域的困境。纵使有谷歌BERT模型所带来的各项指标飞跃,但要让计算机真正“理解”人类的语言,需要的恐怕不止是时间。

在最近一篇发布在Arxiv上的论文中,DeepMind的研究人员对“通用语言智能” (General Linguistic Intelligence) 做了定义,并探讨了机器如何学习并实现通用语言智能。

DeepMind新年力作《学习和评估通用语言智能》

实现通用语言智能,首先需要统一的评估标准

DeepMind的研究人员从语言的角度出发,根据近来不断发展的“通用人工智能”(AGI)的配套能力,也即能够让智能体与虚拟环境实现交互而发展出通用的探索、规划和推理能力,将“通用语言智能”定义为:

能够彻底应对各种自然语言任务的复杂性;

有效存储和重用各种表示 (representations)、组合模块 (combinatorial modules, 如将单词组成短语、句子和文档的表示),以及先前获得的语言知识,从而避免灾难性遗忘;

在从未经历过的新环境中适应新的语言任务,即对领域转换的鲁棒性。

作者还指出,如今在NLP领域存在一种非常明显且不好的趋势,那就是越来越多的数据集通过众包完成,量的确是大了,特别是在体现人类语言的“概括” (generalization) 和“抽象” (abstraction) 能力方面大打折扣,并不贴近现实中的自然分布。

此外,对于某一特定任务(比如问答),存在多个不同的数据集。因此,单独看在某个数据集上取得的结果,很容易让我们高估所取得的进步。

所以,要实现通用语言智能,或者说朝着这个方向发展,首先需要确定一个统一的评估标准。在本文中,为了量化现有模型适应新任务的速度,DeepMind的研究人员提出了一个基于在线前序编码 (online prequential coding) 的新评估指标。

接下来,就让我们看看现有的各个state-of-the-art模型性能如何。

对现有最先进模型的“五大灵魂拷问”

作者选用了两个预训练模型,一个基于BERT,一个基于ELMo。其中,BERT(base)拥有12个Transformer层,12个自注意力指针和768个隐藏层,这个预训练模型中有1.1亿个参数。另一个则基于ELMo(base),这个预训练模型有将近1亿个参数,300个双向LSTM层,100个输出层。

另有BERT/ELMo(scratch),表示没有经过预训练,从头开始的模型。

首先,作者考察了需要多少与领域知识相关的训练样本,两个模型才能在SQuAD阅读理解和MNLI自然语言推理这两个任务上取得好的表现。

纵轴F1代表在SQuAD阅读理解数据集上的得分函数,横轴代表训练样本量的对数值

答案是4万。而且,与领域知识相关的训练样本量超过4万以后,两个模型的提升都不明显,非要说的话,BERT模型在两项任务中比ELMo稍好一点。

那么,改用在其他数据集上预训练过的模型,同样的任务性能又能提高多少呢?答案是一点点。但在代码长度上,预训练过的模型要显著优于没有经过预训练的模型。

预训练模型(+supervised)与非预训练模型性能比较

作者考察的第三点是这些模型的泛化能力。实验结果表明,在SQuAD数据集上表现最好的模型,移到其他数据集,比如Trivia、QuAC、QA-SRL、QA-ZRE后,仍然需要额外的相关训练样本。这个结果在意料之中,但再次凸显了“学会一个数据集”和“学会完成一项任务”之间存在的巨大鸿沟。

在SQuAD数据集上性能最优的模型(得分超过80),在其他数据集上分数大幅降低

最后是有关学习课程 (curriculum) 和灾难性遗忘的问题。模型忘记此前学会的语言知识有多快?学习课程的设计与模型的性能之间有什么影响?

(上)将在SQuAD数据集上训练好的模型改到MNLI上;(下)将在SQuAD数据集上训练好的模型改到TriviaQA。两种情况模型的性能都大幅下降。

BERT模型用随机训练课程在各种数据集上取得的结果。实际上经过5万次迭代后,模型就能基本完成各项任务(超过60分)。

从实验结果看,在SQuAD数据集上训练好的模型改到MNLI或TriviaQA这些不同数据集后,模型性能很快出现大幅下降,说明灾难性遗忘发生。

虽然采用连续学习的方法,随机初始化,5万次迭代后,两个模型尤其是BERT,基本上能在各个数据集上都达到差强人意的表现。

通过随机训练,20万次迭代以后,BERT和ELMo在多项任务上的得分

但缺点是,这样的随机训练模型在开始不需要样本,转换新任务以后也不需要保留此前学会的东西。因此,在连续学习的过程中,知识迁移究竟是如何发生的,目前还不得而知。

综上,对一系列在各个不同NLP任务上取得当前最佳性能的模型进行实证评估后,DeepMind的研究人员得出结论:虽然NLP领域如今在模型设计方面取得了令人瞩目的进展,而且这些模型在很多时候都能同时完成不止一项任务,但它们仍然需要大量与领域知识相关的训练样本 (in-domain training example),并且很容易发生灾难性遗忘。

实现通用语言智能,我们还需要什么?

通过上述实验可以发现,现有的state-of-the-art NLP模型几乎全部都是:

拥有超大规模参数的深度学习模型;

事先以监督或非监督的的方式在训练样本上经过训练;

通常包含了多个针对某项特定任务的构件以完成多项任务;

默认或者说假设某项任务的数据分布是平均的。

这种方法虽然合理,但仍旧需要大量与领域知识相关的训练样本,并且非常容易发生灾难性遗忘。

因此,要实现通用语言智能,DeepMind研究人员在论文最后的讨论中指出,我们还需要:更加复杂的迁移学习和连续学习方法 (transfer and continual learning method),能让模型快速跨领域执行任务的记忆模块 (memory module),训练课程 (training curriculum) 的选择对模型性能的影响也很重要,在生成语言模型 (generative language models) 方面的进展,也将有助于实现通用语言智能。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • DeepMind
    +关注

    关注

    0

    文章

    131

    浏览量

    12138
  • nlp
    nlp
    +关注

    关注

    1

    文章

    491

    浏览量

    23197

原文标题:DeepMind:实现通用语言智能我们还缺什么?

文章出处:【微信号:AI_era,微信公众号:新智元】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    C语言特性

    的执行效率和资源利用率有着严苛的要求。C 语言生成的代码简洁紧凑,能够在有限的硬件条件下快速运行,满足嵌入式系统对性能的高要求。例如,在智能家居设备的控制芯片中,C 语言编写的程序可以高效地处理传感器
    发表于 11-24 07:01

    UDS诊断协议:汽车电子系统的“通用语言

    (Unified Diagnostic Services)。作为ISO 14229标准的核心,UDS为汽车电子诊断提供了一套标准化的语言,使诊断工具能够与车辆内的所有控制单元“对话”。 UDS的诞生:从碎片化到标准化 在UDS出现之前,汽车诊断领域存在严重的技术碎片化。不同厂
    的头像 发表于 11-05 12:13 209次阅读

    如何使用语音指令控制串口输出

    在上两篇文章中, 我们实现了GPIO输出, 和PWM输出(组件介绍在前文中已经介绍过 ),在本章节我们将继续进行使用语音指令控制串口输出。
    的头像 发表于 09-25 15:47 1904次阅读
    如何使<b class='flag-5'>用语</b>音指令控制串口输出

    商汤科技多模态通用智能战略思考

    时间是最好的试金石,AI领域尤其如此。当行业热议大模型走向时,商汤早已锚定“多模态通用智能”——这是我们以深厚研究积累和实践反复验证的可行路径。
    的头像 发表于 08-14 09:33 1023次阅读

    商汤科技与华东院签署战略合作协议

    2024年我国建筑业总产值突破32万亿元,建筑图纸是串联各个环节的“通用语言”。
    的头像 发表于 07-24 17:55 951次阅读
    商汤科技与华东院签署战略合作协议

    基于睿擎派轻松玩转Modbus工业通信

    Modbus:工业设备的“通用语言”在工业控制和物联网应用中,设备互联互通成为智能工厂的根基。而Modbus协议,凭借其开放性强、可靠性高、兼容性广三大特性,至今仍占据全球工业通信协议很大的市场份额
    的头像 发表于 07-23 17:05 3467次阅读
    基于睿擎派轻松玩转Modbus工业通信

    Matter相关术语的定义

    自2022年Matter发布以来,产品制造商和消费者对其开发、设备集成及应用的步伐迅速加快。Matter提供标准化的通用语言,使智能设备能够相互通信,为智能家居带来统一性。
    的头像 发表于 07-23 11:37 1105次阅读
    Matter相关术语的定义

    多PLC协议兼容网关实战指南:一网打通西门子/三菱/欧姆龙

    打破协议壁垒,开启智能工厂"通用语"时代!
    的头像 发表于 05-21 08:43 486次阅读

    Matter 智能家居的通用语言

    Matter由连接标准联盟(CSA)创建,旨在解决智能家居的互操作性问题。Matter 基于简单性、互操作性、可靠性和安全性四大核心原则 。 是采用基于 IP 应用层的开源协议,本质上是一种“通用语言
    发表于 05-19 15:35

    中星微发布最新一代AI芯片“星光智能五号”

    近日,在福州举行的第八届数字中国建设峰会上,中星微宣布其最新一代AI芯片“星光智能五号”在“数字感知芯片技术全国重点实验室”成功运行Deepseek 7B/8B/16B大模型,成为首款全自主可控的能够单芯片实现通用语言大模型和视
    的头像 发表于 05-06 16:03 965次阅读

    机场智能指路机器人支持那些语言

    指路机器人作为提升旅客出行体验的关键一环,其支持的语言种类成为衡量服务质量的重要指标。那么,这些叁仟智能指路机器人究竟能够跨越多少语言的界限,为旅客提供精准、便捷的服务呢?接下来,我们
    的头像 发表于 04-07 10:49 510次阅读

    为工业通信架起一座高效、稳定的桥梁!疆鸿智能Ethercat转TCP/IP解决方案应运而生!

    通用语言。二者的融合意味着: ✅ 实时控制与远程监控兼得:车间设备数据直通云端,打破控制层与信息层的壁垒。 ✅ 跨系统集成更简单:PLC、传感器、机器人等EtherCAT设备轻松接入SCADA、MES
    发表于 03-31 15:32

    通用Matter over thread 模组

    PTR5415是一款通用Matter over thread 模组,它支持接入苹果等matter over thread 生态,实现基于matter over thread的连接和控制,可以用来实现
    发表于 03-26 14:42

    蔡司工业测量自动化遇上OPC UA:开启智能制造新篇章

    工业通信的 “通用语言”——OPC UA   在工业自动化的复杂网络中,不同设备和系统之间的通信顺畅与否,直接决定了生产效率与管理效能。而  OPC UA ,即开放式平台通信统一架构(Open
    发表于 02-21 17:50 360次阅读

    Dataedo Data Catalog每个人都能养数据

    字段记录您的数据资产。 使用 Business Glossary 构建通用语言 使用业务术语、概念和指标的词汇表构建和推广组织的通用语言。将该语言映射到目录中的物理数据资产。 使用 ER 图可视化数据模型 发现和记录数据实体之间
    的头像 发表于 02-10 11:02 840次阅读
    Dataedo Data Catalog每个人都能养数据