0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

大型语言模型能否捕捉到它们所处理和生成的文本中的语义信息

深度学习自然语言处理 来源:深度学习自然语言处理 2023-05-25 11:34 次阅读

大型语言模型能否捕捉到它们所处理和生成的文本中的语义信息?这一问题在计算机科学和自然语言处理领域一直存在争议。然而,MIT的一项新研究表明,仅基于文本形式训练、用于预测下一个token的语言模型确实能学习和表示文本的意义。

虽然大型预训练语言模型(LLM)在一系列下游任务中展现出飞速提升的性能,但它们是否真的理解其使用和生成的文本语义?

长期以来,AI社区对这一问题存在很大的分歧。有一种猜测是,纯粹基于语言的形式(例如训练语料库中token的条件分布)进行训练的语言模型不会获得任何语义。相反,它们仅仅是根据从训练数据中收集的表面统计相关性来生成文本,其强大的涌现能力则归因于模型和训练数据的规模。这部分人将LLM称为「随机鹦鹉」。

但也有一部分人不认同此观点。一项最近的研究表明,大约51%的NLP社区受访者同意:「一些仅通过文本训练的生成模型,在拥有足够的数据和计算资源的情况下,可以以某种有意义的方式理解自然语言(超越表面层面的统计关联,涉及对语言背后的语义和概念的理解)」。

为了探究这个悬而未决的问题,来自MIT CSAIL的研究人员展开了详细研究。

01ef082a-fa2a-11ed-90ce-dac502259ad0.png论文地址:https://paperswithcode.com/paper/evidence-of-meaning-in-language-models

该研究使用的语言模型仅训练成为文本预测下一个token的模型,并制定两个假设:

H1:仅通过对文本进行下一个token预测训练的LM在根本上受限于重复其训练语料库中的表面层次统计相关性;

H2LM无法对其消化和生成的文本赋予意义。

为了探究 H1 和 H2两个假设的正确性,该研究将语言建模应用于程序合成任务,即在给定输入输出示例形式规范的情况下合成程序。该研究采用这种方法的主要是因为程序的意义(和正确性)完全由编程语言的语义决定。

具体来说,该研究在程序及其规范的语料库上训练语言模型(LM),然后使用线性分类器探测 LM 对于程序语义表征的隐藏状态。该研究发现探测器提取语义的能力在初始化时是随机的,然后在训练期间经历相变,这种相变与 LM 在未见过规范的情况下生成正确程序的能力强相关。此外,该研究还展示了一项介入实验的结果,该实验表明语义在模型状态中得以表征(而不是通过探测器(probe)进行学习)。

该研究的主要贡献包括:

1、实验结果表明,在执行预测下一个token任务的 LM 中出现了有意义的表征。具体来说,该研究使用经过训练的 LM 在给定几个输入输出示例的情况下生成程序,然后训练一个线性探测器,以从模型状态中提取有关程序状态的信息。研究者发现内部表征包含以下线性编码:(1) 抽象语义(抽象解释)——在程序执行过程中跟踪指定输入;(2) 与尚未生成的程序token对应的未来程序状态预测。在训练期间,这些语义的线性表征与 LM 在训练步骤中生成正确程序的能力同步发展。

2、该研究设计并评估了一种新颖的介入(interventional)方法,以探究从表征中提取意义时LM 和探测器的贡献。具体来说,该研究试图分析以下两个问题中哪个成立:(1) LM 表征包含纯(句法)转录本(transcript),同时探测器学习解释转录本以推断含义;(2)LM 表征包含语义状态,探测器只是从语义状态中提取含义。实验结果表明 LM 表征实际上与原始语义对齐(而不是仅仅编码一些词汇和句法内容),这说明假设H2是错误的。01f7408a-fa2a-11ed-90ce-dac502259ad0.png

3、该研究表明 LM 的输出与训练分布不同,具体表现为LM 倾向于生成比训练集中的程序更短的程序(并且仍然是正确的)。虽然 LM 合成正确程序的能力有所提高,但LM 在训练集中的程序上的困惑度仍然很高,这表明假设H1是错误的。

总的来说,该研究提出了一个框架,用于根据编程语言的语义对 LM 进行实证研究。这种方法使我们能够定义、测量和试验来自底层编程语言的精确形式语义的概念,从而有助于理解当前 LM 的涌现能力。

研究背景

该研究使用跟踪语义作为程序含义模型。作为编程语言理论中一个基础主题,形式语义学主要研究如何正式地为语言中的字符串分配语义。该研究使用的语义模型包括跟踪程序的执行:给定一组输入(即变量赋值),一个(句法)程序的含义是用从表达式中计算出的语义值标识的,跟踪轨迹是根据输入执行程序时生成的中间值序列。

将跟踪轨迹用于程序含义模型具有几个重要原因:首先,准确跟踪一段代码的能力与解释代码的能力直接相关;其次,计算机科学教育也强调跟踪是理解程序开发和定位推理错误的重要方法;第三,专业的程序开发依赖基于跟踪的调试器(dbugger)。

该研究使用的训练集包含100万个随机抽样的Karel程序。20世纪70年代,斯坦福大学毕业生 Rich Pattis 设计了一个程序环境,让学生教机器人来解决简单的问题,这个机器人被称为Karel机器人。

该研究通过随机采样来构造训练样本的参考程序,然后采样5个随机输入并执行程序得到对应的5个输出。LM 被训练为对样本语料库执行下一个token预测。在测试时,该研究只提供输入输出前缀给LM,并使用贪心解码完成程序。下图1描绘了一个实际的参考程序和经过训练的 LM 的完成情况。

01fff2de-fa2a-11ed-90ce-dac502259ad0.png

该研究训练了一个现成的 Transformer 模型对数据集执行下一个token预测。经过 64000 个训练步骤(training step),大约 1.5 个 epoch,最终训练好的 LM 在测试集上达到了 96.4% 的生成准确率。每 2000 个训练步骤,该研究会捕获一个跟踪数据集。对于每个训练轨迹数据集,该研究训练一个线性探测器来预测给定模型状态的程序状态。

意义的涌现

研究者对以下假设进行了研究:在训练语言模型执行下一个token预测的过程中,语义状态的表示会作为副产品出现在模型状态中。考虑到最终训练得到的语言模型达到了96.4%的生成准确性,如果否定这个假设,将与H2一致,即语言模型已经学会「仅仅」利用表面统计来一致生成正确的程序。

为了测试这个假设,研究者训练了一个线性探测器,将语义状态从模型状态中提取出来,作为5个独立的4-way任务(每个输入面向一个方向),如第2.2节所述。

意义的涌现与生成准确性呈正相关

图2展示了主要结果。研究者的第一个观察结果是,语义内容从随机猜测的基线表现(25%)开始,并且在训练过程中显著增加。这个结果表明,语言模型的隐藏状态确实包含语义状态的(线性)编码,并且关键的是,这种意义是在一个纯粹用于对文本执行下一个token预测的语言模型中出现的。

将生成准确性与语义内容进行线性回归,二者在训练步骤中呈现出意外的强大且具有统计学意义的线性相关性(R2 = 0.968, p < 0.001),即LM合成正确程序的能力的变化几乎完全由LM的隐藏层的语义内容所解释。这表明,在本文的实验设置范围内,学习建模正确程序的分布与学习程序的意义直接相关,这否定了语言模型无法获取意义的观点(H2)。

0206256e-fa2a-11ed-90ce-dac502259ad0.png

表征是对未来程序语义的预测

前一节讨论了语言模型能否表示其生成的文本的意义。本文的结果对这个问题给出了积极的答案,即语言模型能够(抽象地)解释生成的程序。然而,解释者(interpreter)并不等同于合成者(synthesizer),仅有理解能力是不足以进行生成的。就人类语言的产生而言,广泛的共识是语言起源于思维中的一种非言语的信息,然后被转化为反映初始概念的话语(utterance)。研究者假设训练后的语言模型的生成过程遵循类似的机制,即语言模型的表示编码了尚未生成的文本的语义。

为了验证这个假设,他们使用与上述相同的方法训练了一个线性探测器,来预测从模型状态中得到的未来语义状态。需要注意的是,由于他们使用贪婪解码策略,未来的语义状态也是确定性的,因此这个任务是明确定义的。

图3展示了线性探测器在预测未来1步和2步的语义状态方面的表现(绿段线表示「Semantic (+1)」,绿点线表示「Semantic (+2)」)。与先前的结果类似,探测器的性能从随机猜测的基线开始,然后随着训练显著提高,并且他们还发现未来状态的语义内容与生成准确性(蓝线)在训练步骤中呈现出强烈的相关性。将语义内容与生成准确性进行线性回归分析得到的R2值分别为0.919和0.900,对应于未来1步和2步的语义状态,两者的p值均小于0.001。

020d0640-fa2a-11ed-90ce-dac502259ad0.png

他们还考虑了这样一个假设,即模型的表示只编码了当前的语义状态,而探测器仅仅是从当前语义状态预测未来的语义状态。为了测试这个假设,他们计算了一个最优分类器,将当前程序中的ground truth面向方向映射到未来程序中的4个面向方向之一。

需要注意的是,其中的5个操作中有3个保持了面向方向,并且下一个 token是均匀采样的。因此他们预期,对于未来1步的情况,预测未来的语义状态的最优分类器应该通过预测面向方向保持不变来达到60%的准确率。事实上,通过直接拟合测试集,他们发现从当前语义状态预测未来语义状态的上限分别为62.2%和40.7%(对应于未来1步和2步的情况)。相比之下,当给定探测器正确预测当前状态的条件下,探测器在预测未来状态方面的准确率分别为68.4%和61.0%。

这表明,探测器从模型状态中提取未来语义状态的能力不能仅仅通过从当前语义状态的表示中推断得出。因此,他们的结果表明,语言模型会学习去表示尚未生成的token的含义,这否定了语言模型无法学习意义的观点(H2),并且也表明生成过程不仅仅基于纯粹的表面统计(H1)。

生成的输出与训练分布不同

接下来,研究者通过比较训练后的语言模型生成的程序分布与训练集中的程序分布,提供反驳H1的证据。如果H1成立,他们预期两个分布应该大致相等,因为语言模型只是在重复训练集中文本的统计相关性。

图6a显示了LM生成的程序的平均长度随时间的变化情况(实线蓝色线条),与训练集中参考程序的平均长度(虚线红色线条)进行对比。他们发现二者存在统计学上的显著差异,这表明LM的输出分布确实与其训练集中的程序分布不同。这与H1中提到的观点(即LM只能重复其训练数据中的统计相关性)相矛盾。

021561dc-fa2a-11ed-90ce-dac502259ad0.png

最后,他们还测量了LM在训练集中的程序上的困惑度随时间的变化情况。图6b展示了他们的结果。可以看到,LM从来没有学会很好地拟合训练集中程序的分布,这进一步反驳了H1的观点。这可能是因为在训练集中随机抽样的程序包含了许多无操作指令,而LM更倾向于生成更简洁的程序。有趣的是,困惑度的急剧增加——当LM超越了模仿阶段——似乎导致了生成准确率(和语义内容)的提高。由于程序等价性问题与程序语义密切相关,LM能够生成简短且正确的程序表明它确实学到了语义的某个方面。

审核编辑:彭静
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 数据
    +关注

    关注

    8

    文章

    6511

    浏览量

    87600
  • 语言模型
    +关注

    关注

    0

    文章

    434

    浏览量

    10044
  • 自然语言
    +关注

    关注

    1

    文章

    269

    浏览量

    13205

原文标题:有证据了,MIT表明:大型语言模型≠随机鹦鹉,确实能学到语义

文章出处:【微信号:zenRRan,微信公众号:深度学习自然语言处理】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    cc2541怎样扫描才能捕捉到所有的广播包?

    cc2541怎样扫描才能捕捉到所有的广播包?我有个应用场景,需要所有的cc2541节点(>100个)同时收到某个特定广播(时间误差
    发表于 03-28 14:04

    NLPIR语义分析是对自然语言处理的完美理解

    和逻辑表示。语义分析就是对信息所包含的语义的识别,并建立一种计算模型,使其能够像人那样理解自然语言语义
    发表于 10-19 11:34

    请问在28027对ECAP功能,捕捉到下降沿的同时能否自动读取某一个32位定时器的计数值?

    请问在28027对ECAP功能,捕捉到下降沿的同时能否自动读取某一个32位定时器的计数值?如果不能,通过编程读取应该是可行的吧?
    发表于 10-31 15:11

    NLPIR在文本信息提取方面的优势介绍

    的关键信息(主体、时间、金额等),进行高效抽取知识。 NLPIR大数据语义智能分析平台,是基于中文数据挖掘的综合需求,融合了网络精准采集、自然语言理解、文本挖掘和
    发表于 09-12 15:33

    文本信息抽取的分阶段详细介绍

    模型是上述一般文本信息抽取的具体实现。 NLPIR大数据语义智能分析平台在文本信息提取介绍方面
    发表于 09-16 15:03

    逻辑分析仪捕捉到的脉冲与常见的NEC协议捕捉到的脉冲有何不同

    逻辑分析仪捕捉到的脉冲与常见的NEC协议捕捉到的脉冲有何不同?
    发表于 02-15 06:22

    基于语义文本语义分析

    文本情感倾向性研究是人工智能的分支学科,涉及了计算语言学,数据挖掘,自然语言处理等多个学科。基于语义的情感倾向研究和基于机器学习的情感倾向研
    发表于 12-15 16:35 6次下载

    基于语义感知的中文短文本摘要生成技术

    模型,解码器通过注意力机制将编码器输岀的毎一个词的隐藏状态作为原始文本完整的语乂信息生成摘要,但是编码器输岀的毎一个词的隐藏状态仅包含前、后词的
    发表于 05-28 15:45 2次下载

    大型语言模型有哪些用途?

    通过大规模数据集训练来学习识别、总结、翻译、预测和生成文本及其他内容。 大型语言模型是 Transformer 模型最成功的应用之一。
    的头像 发表于 02-23 19:50 4291次阅读

    大型语言模型有哪些用途?大型语言模型如何运作呢?

    大型语言模型能识别、总结、翻译、预测和生成文本及其他内容。
    的头像 发表于 03-08 13:57 7166次阅读

    大型语言模型的应用

       大型语言模型(LLM) 是一种深度学习算法,可以通过大规模数据集训练来学习识别、总结、翻译、预测和生成文本及其他内容。大语言
    的头像 发表于 07-05 10:27 1622次阅读

    大型模型的重要基石与洞察力之源之文本数据

    大型模型,特别是基于深度学习的预训练语言模型,如GPT-3.5,依赖于大规模的文本数据来进行训练。这些模型之所以强大,源于
    的头像 发表于 08-14 10:06 352次阅读

    如何正确的观察电流探头捕捉到的电流波形

    市面上的电流探头一般输出阻抗50ohm,并搭配示波器组合使用观察信号,那如何正确的观察电流探头捕捉到的电流波形呢?
    的头像 发表于 08-23 15:20 401次阅读
    如何正确的观察电流探头<b class='flag-5'>捕捉到</b>的电流波形

    Meta发布一款可以使用文本提示生成代码的大型语言模型Code Llama

    今天,Meta发布了Code Llama,一款可以使用文本提示生成代码的大型语言模型(LLM)。
    的头像 发表于 08-25 09:06 948次阅读
    Meta发布一款可以使用<b class='flag-5'>文本</b>提示<b class='flag-5'>生成</b>代码的<b class='flag-5'>大型</b><b class='flag-5'>语言</b><b class='flag-5'>模型</b>Code Llama

    如何正确的观察电流探头捕捉到的电流波形

    市面上的电流探头一般输出阻抗50ohm,并搭配示波器组合使用观察信号,那如何正确的观察电流探头捕捉到的电流波形呢?
    的头像 发表于 11-16 11:34 274次阅读
    如何正确的观察电流探头<b class='flag-5'>捕捉到</b>的电流波形