0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

果蝇大脑跑NLP任务效率竟比BERT高?

中科院长春光机所 来源:机器之心 作者:机器之心 2021-02-04 14:06 次阅读

研究了半天人工神经网络,还不如复制粘贴动物的答案?

最近一段时间,有关摩尔定律终结的讨论时常出现,深度学习越来越高的算力需求与芯片制造厂商们「挤牙膏」式的换代速度产生了不可调和的矛盾。对此,一些研究者们正在专注于常规架构的效率提升,也有一些研究者把目光转向于常规计算机体系之外,如光电计算、类脑计算,以及量子计算等方向。

现在,又有人想在动物身上寻找思路。在 1 月 13 日刚刚放榜的人工智能顶级会议ICLR 2021上出现了这样一篇论文:研究者们「黑」进了果蝇的神经网络,用它来跑 NLP 算法,结果发现性能与常规人工神经网络相当,而且非常节约能耗。

这一通操作仿佛打开了新世界的大门。

神经科学中研究最深入的网络之一是果蝇的大脑,尤其是称为蘑菇体的部分。该部分能够分析气味、温度、湿度和视觉数据等感官输入,以便于果蝇学会区分友好刺激和危险刺激。神经科学家表示果蝇大脑的这一部分是由一组称为投射神经元的细胞组成,这些细胞将感觉信息传递给 2000 个称为 Kenyon 细胞(简称KC)的神经元,Kenyon 细胞连接在一起形成能够学习的神经网络。这让果蝇在学习接近食物、潜在伴侣等时候,学会避免潜在的有害感官输入(例如危险的气味和温度)。

这个相对较小的网络具备的功能和灵活性让神经科学家们好奇:是否可以对其进行编程以解决其他任务?

在伦斯勒理工学院、MIT-IBM Watson AI Lab 的研究者进行的一项入侵果蝇大脑网络的研究中,人们成功地在生物大脑中执行了自然语言处理等任务。这是自然界的神经网络第一次以这种方式被征用。研究者表示这个生物大脑网络与人工学习网络的性能相当,但使用的计算资源却更少。

这种方法相对简单直接,该团队首先使用计算机程序重建蘑菇体所依赖的网络,大量神经元将数据提供给大约 2000 个 Kenyon 细胞。然后研究者训练了该网络以识别文本中词之间的相关性。该任务基于的思想是:一个词可以通过其语境或通常在其附近出现的其他词来表征。该想法首先从一个文本语料库开始,然后面向每一个词,分析出现在该词前后的其他词。

这样机器学习系统可以在给定已经出现的词的情况下预测句子中下一个词。许多系统(例如 BERT)都使用这种方法来生成看起来自然的句子,该研究也采用了这种方法。事实证明即使自然界的网络完全不是基于这一目的进化的,但它也非常擅长这种方式。该研究表明该网络可以学习词的语义表征。

研究者表示,果蝇的大脑网络可与现有的自然语言处理方法相媲美,并且最重要的是生物网络仅使用很少一部分计算资源。这意味着它仅使用较少的训练时间和内存占用量。

生物的效率

这是一个有趣的结果。「我们把这样的结果视为生物启发算法普适性的一个范例,其与传统的非生物算法相比更具效率,」该论文的作者 Yuchen Liang 等人说道。

这项工作除了展示生物计算的效率,还提出了一些有趣的问题。其中最明显的就是:为什么生物神经网络计算是如此的高效?当然按照进化的理论,自然界会选择效率更高的神经网络存留下来,但在论文中,研究者们尚未对 Kenyon 细胞为何具有高效率提出自己的看法。

这项工作显然也开启了「入侵」其他生物大脑的方向。不过目前看来人们仍面临一些挑战,一个潜在的问题是神经科学家们仍然难以对更复杂化的大脑进行表征(如哺乳动物)。果蝇的大脑相对较小,只有 10 万个神经元,相比之下,老鼠的大脑有 1 亿个神经元,而人类的大脑有 1000 亿个神经元。因此在我们看到有小鼠、海豚或人类的大脑「被黑客入侵」之前,还需等待一段时间。

研究概况

果蝇脑蘑菇体是神经科学中研究最多的系统之一,其核心由一群 Kenyon 细胞组成。这些细胞接受来自多种感官方式的输入,被伽马氨基丁酸能神经元(Anterior Paired Lateral Neurons,APL 神经元)抑制,从而创造了输入的稀疏高维表征。

具体而言,其主要感知方式是嗅觉,但也有来自感知温度、湿度、视觉的神经元的输入。这些输入通过一组突触权重传递给大约 2000 个 Kenyon 细胞。Kenyon 细胞通过 APL 神经元相互连接,后者会发送一个强大的抑制信号到 Kenyon 细胞。这个循环网络形成了 Kenyon 细胞之间的赢者通吃效应,并让一小部分「冠军」神经元之外的所有神经元都失声了。

在这项论文中,研究者将该网络模体(motif)进行了数学化建模,并将其应用于一项常见的 NLP 任务:学习非结构化文本语料库中的词与上下午之间的相关结构。

该研究提出的网络模体如图 1 所示,KC 也将输出发送到蘑菇体输出神经元 (MBON),但是蘑菇体网络的这一部分不包含在数学模型中。

9e3e5810-64a5-11eb-8b86-12bb97331649.png

图 1: 网络架构图。几组对应不同方式的神经元将它们的活动发送到 KC 层,而 KC 层通过与 APL 神经元的相互连接而被抑制。

总体而言,研究贡献如下:

受果蝇网络的启发,研究者提出了一种算法,使得为单词及其上下文生成 binary (相对于连续) 词嵌入成为可能,并系统评估了该算法在词汇相似性任务、词义消歧和文本分类等任务上的表现;

与连续 GloVe 嵌入相比,本文的 binary 嵌入能产生更紧密和更好分离的概念集群,并且符合 GloVe 的 binarized 版本的集群特性;

研究者发现,训练果蝇网络所需要的计算时间比训练传统的 NLP 架构(如 BERT)所需要的计算时间要少一个数量级,但是在分类准确率上有所降低。

这一成果展示了人类将自然界算法及行为进行「重新编程」,并将其转化为原始生物体从未参与过的任务的目标算法的巨大潜力。

实验结果

在论文的第三章,研究者从静态词嵌入、词聚类、上下文相关的词嵌入、文本分类等几个方面对研究提出的网络进行了评估,以下是实验结果。

静态词嵌入评价

9e68ef12-64a5-11eb-8b86-12bb97331649.png

9f059cb8-64a5-11eb-8b86-12bb97331649.png

词聚类

9f5a4ae2-64a5-11eb-8b86-12bb97331649.png

上下文相关的词嵌入

9fedf9c2-64a5-11eb-8b86-12bb97331649.png

a0a91f2c-64a5-11eb-8b86-12bb97331649.png

文本分类

a0bdbe1e-64a5-11eb-8b86-12bb97331649.png

计算效率

a141d6d6-64a5-11eb-8b86-12bb97331649.png

原文标题:科学家「黑进」果蝇大脑跑NLP任务,发现效率比BERT高

文章出处:【微信公众号:中科院长春光机所】欢迎添加关注!文章转载请注明出处。

责任编辑:haq

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 神经网络
    +关注

    关注

    42

    文章

    4572

    浏览量

    98746
  • 人工智能
    +关注

    关注

    1776

    文章

    43845

    浏览量

    230597

原文标题:科学家「黑进」果蝇大脑跑NLP任务,发现效率比BERT高

文章出处:【微信号:cas-ciomp,微信公众号:中科院长春光机所】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    教您如何精调出自己的领域大模型

    BERT和 GPT-3 等语言模型针对语言任务进行了预训练。微调使它们适应特定领域,如营销、医疗保健、金融。在本指南中,您将了解 LLM 架构、微调过程以及如何为 NLP 任务微调自己
    的头像 发表于 01-19 10:25 429次阅读
    教您如何精调出自己的领域大模型

    基于BERT算法搭建一个问答搜索引擎

    鼎鼎大名的 Bert 算法相信大部分同学都听说过,它是Google推出的NLP领域“王炸级”预训练模型,其在NLP任务中刷新了多项记录,并取得state of the art的成绩。
    的头像 发表于 10-30 11:46 341次阅读
    基于<b class='flag-5'>BERT</b>算法搭建一个问答搜索引擎

    有源pfc效率高还是无源效pfc效率高

    有源pfc效率高还是无源效pfc效率高
    发表于 10-07 09:01

    氮化镓充电器为什么充电效率高

    是什么因素导致充电器充电效率高,功率大的
    发表于 09-27 06:25

    链表在单片机上效率高吗?

    链表在单片机上效率高么?
    发表于 09-26 08:01

    人工智能nlp是什么方向

    人工智能nlp是什么方向  人工智能(AI)已经日益普及,正在改变我们的方法和方式。AI 涵盖了许多领域,其中包括机器学习,计算机视觉,自然语言处理(NLP)等。在这些方向之中,NLP 是最引人注目
    的头像 发表于 08-22 16:45 1314次阅读

    003. 任务003: NLP定义以及歧义性 #硬声创作季

    nlp
    充八万
    发布于 :2023年07月05日 14:39:10

    Multi-CLS BERT:传统集成的有效替代方案

    在 GLUE 和 SuperGLUE 数据集上进行了实验,证明了 Multi-CLS BERT 在提高整体准确性和置信度估计方面的可靠性。它甚至能够在训练样本有限的情况下超越更大的 BERT 模型。最后还提供了 Multi-CLS BE
    的头像 发表于 07-04 15:47 456次阅读
    Multi-CLS <b class='flag-5'>BERT</b>:传统集成的有效替代方案

    PyTorch教程-16.7。自然语言推理:微调 BERT

    节)。现在我们通过微调 BERT 重新审视这个任务。正如16.6 节所讨论的 ,自然语言推理是一个序列级文本对分类问题,微调 BERT 只需要一个额外的基于 MLP 的架构,如图
    的头像 发表于 06-05 15:44 997次阅读
    PyTorch教程-16.7。自然语言推理:微调 <b class='flag-5'>BERT</b>

    PyTorch教程-16.6. 针对序列级和令牌级应用程序微调 BERT

    和 MLPs。当存在空间或时间限制时,这些模型很有用,但是,为每个自然语言处理任务制作一个特定模型实际上是不可行的。在 15.8 节中,我们介绍了一种预训练模型 BERT,它需要对各种自然语言处理任务进行
    的头像 发表于 06-05 15:44 265次阅读
    PyTorch教程-16.6. 针对序列级和令牌级应用程序微调 <b class='flag-5'>BERT</b>

    PyTorch教程-15.9。预训练 BERT 的数据集

    实验室在 SageMaker Studio Lab 中打开笔记本 为了预训练第 15.8 节中实现的 BERT 模型,我们需要以理想的格式生成数据集,以促进两项预训练任务:掩码语言建模和下一句预测
    的头像 发表于 06-05 15:44 551次阅读

    PyTorch教程15.9之预训练BERT的数据集

    电子发烧友网站提供《PyTorch教程15.9之预训练BERT的数据集.pdf》资料免费下载
    发表于 06-05 11:06 0次下载
    PyTorch教程15.9之预训练<b class='flag-5'>BERT</b>的数据集

    PyTorch教程15.10之预训练BERT

    电子发烧友网站提供《PyTorch教程15.10之预训练BERT.pdf》资料免费下载
    发表于 06-05 10:53 0次下载
    PyTorch教程15.10之预训练<b class='flag-5'>BERT</b>

    PyTorch教程16.6之针对序列级和令牌级应用程序微调BERT

    电子发烧友网站提供《PyTorch教程16.6之针对序列级和令牌级应用程序微调BERT.pdf》资料免费下载
    发表于 06-05 10:51 0次下载
    PyTorch教程16.6之针对序列级和令牌级应用程序微调<b class='flag-5'>BERT</b>

    LLM在各种情感分析任务中的表现如何

      最近几年,GPT-3、PaLM和GPT-4等LLM刷爆了各种NLP任务,特别是在zero-shot和few-shot方面表现出它们强大的性能。因此,情感分析(SA)领域也必然少不了LLM的影子
    的头像 发表于 05-29 17:24 1510次阅读
    LLM在各种情感分析<b class='flag-5'>任务</b>中的表现如何