0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

基于大语言模型辩论的多智能体协作推理分析

深度学习自然语言处理 来源:哈工大SCIR 2023-11-29 15:45 次阅读

背景及动机

最近,像ChatGPT这样的大型语言模型(LLMs)在一定程度上展现出了通用智能 [1],并且 LLMs 已被广泛用作各种应用中的基础模型 [2,3]。为了解决依稀更复杂的任务,多个 LLMs 被引入来进行协作,不同的 LLMs 执行不同的子任务或同一任务的不同方面 [4,5]。有趣的是,这些 LLMs 是否拥有协作精神?它们是否能有效并高效地协作,实现一个共同的目标?

36a17bd6-8e70-11ee-939d-92fbcf53809c.png

图1: 辩论中的妥协 (a) 和反驳 (b),其中是正方,是反方

这篇论文中,我们探讨了多个 LLMs 之间的一致性 (inter-consistency),这与现有的大部分研究不同,现有研究主要探讨单个 LLM 内的自我一致性 (intra-consistency 或 self-consistency) 问题 [6,7]。基于我们的观察和实验,我们强调了LLMs协作中的可能存在的两个主要问题。首先,LLMs 的观点很容易发生改变。如图1(a)所示,正方和反方 LLMs 给出了不同的预测结果,而正方很快就妥协并接受了反方的答案。所以,LLMs 到底有多容易改变自己的观点,又有多大程度会坚持自己的观点?其次,当 LLMs 坚持自己的意见时 (图1(b)),他们进行协作时是否能在共同目标上达成共识?

受辩论理论 [8] 的启发,我们设计了一个辩论框架 (FORD),以系统和定量地研究 LLMs 协作中的模型间不一致问题。基于 FORD,我们允许 LLMs 通过辩论探索它们自己的理解与其他 LLMs 的概念之间的差异。因此,这些结果不仅能够鼓励 LLMs 产生更多样化的结果,也使得 LLMs 可以通过相互学习实现性能提升。

具体来说,我们以多项选择的常识推理作为示例任务,因为常识推理任务是一类可能性 (plausible) 的任务,每个答案都是可能成立的,只是正确答案成立的可能性更高,所以常识推理任务更适合被用来进行辩论。为此我们制定了一个三阶段的辩论来对齐现实世界的场景:(1)平等辩论:两个具有可比能力的 LLMs 之间的辩论。(2)错位辩论:能力水平差异较大的两个 LLMs 之间的辩论。(3)圆桌辩论:两个以上的 LLMs 之间的辩论。

2. 数据集、LLMs及相关定义

我们在这里统一介绍实验使用的数据集,LLMs,模型间不一致性的定义,以及使用的基线方法等。

2.1 数据集(常识推理)

36b040f8-8e70-11ee-939d-92fbcf53809c.png

表1:7个常识推理数据的任务类型和大小

•NLI [9]:大规模的溯因推理数据集

•CommonsenseQA[10]:大规模的常识问答数据集

•COPA[11]:小规模的因果推理数据集

•e-CARE[12]:大规模的可解释因果推理数据集

•SocialIQa [13]:有关日常事件的社会影响的常识推理数据集

PIQA [14]:有关物理常识的自然语言推理数据集

•StrategyQA[15]:有关隐式推理策略的数据集

数据集的统计信息见表1。

2.2大语言模型(LLMs)

我们在辩论中使用了以下 6 个 LLMs 进行实验:

•闭源模型

–gpt-3.5-turbo:记作ChatGPT,是一个对话补全模型

–gpt-3.5-turbo-0301:记作ChatGPT-0301,是gpt-3.5-turbo的迭代版本

–text-davinci-003:记作Davinci-003,是一个文本补全模型

–gpt-4:记做GPT-4,是一个更强的对话补全模型

•开源模型

–LLaMA-13B:记作LLaMA,是Meta公司开源的拥有13B参数的文本补全模型

–Vicuna-13B:记作Vicuna,是在70K指令数据上微调后的LLaMA模型

2.3模型间的不一致性 (INCON)

假设我们有 个 LLMs:,以及一个拥有 个样例的数据集:。我们将 定义为 在 的预测结果。则模型间的不一致性 INCON 可以被定义为:

其中 是一个符号函数,当 中存在两个任意的变量不相等, 取 1,否则 取 0。

2.4基线方法

我们定义了 3 种基线方法来和辩论框架进行对比:

•SingleLLM:只用一个 LLM 来执行推理

•Collaboration-Soft(Col-S):随机相信其中一个 LLM 的结果,所以这个方法的性能是多个 LLMs 的性能的平均

•Collaboration-Hard(Col-H):只相信一致的预测,不一致的的预测都看作是错误的

3.辩论框架 (FORD)

36c8cfc4-8e70-11ee-939d-92fbcf53809c.png

图2 辩论框架,(1) LLMs 对每一个样例,独立地给出选项和解释作为立场和论据;(2) 在立场不一致的样例上面,基于第一步的论据,LLMs 交替式地进行辩论;(3) 裁判对辩论过程进行总结并给出最终的辩论结果

•Step1:对于给定的每个样例,每个 LLM 都单独进行回答,生成一个答案和解释,答案和解释则作为相关 LLM 在此样例上的立场和初始论据。根据 LLMs 在每个样例上的立场,把样例分为立场一致的样例和立场不一致的样例,只有立场不一致的样例才会进行辩论。

•Step2:对于每个立场不一致的样例,基于初始的两个论据,LLMs 交替地进行辩论。在辩论期间,LLMs 可以坚持自己的看法,也可以向其它更合理的看法妥协,每次辩论都会生成一个新的立场和新的论据,但是新的立场不会放入辩论过程中。辩论会在达成共识或者是轮次达到上限时停止。

•Step3:最后我们会根据辩论过程中立场的变化,使用启发式的方法,对辩论进行最后的总结,并得到最终的辩论结果。当 LLMs 达成共识的时候,一致的立场作为最终结果,若没达成一致,则不同论据的立场进行投票得到最终结果。

4.实验

考虑到不同 LLMs 在不同数据集上的表现,我们设置一下辩论进行讨论 (对于两个 LLMs 的辩论来说,& 符号左边是正方,右边是反方):

•平等辩论

–ChatGPT& Davinci-003

–ChatGPT& ChatGPT-0301

–LLaMA& Vicuna

•错位辩论

–ChatGPT& GPT-4

–LLaMA& ChatGPT

•圆桌辩论

–ChatGPT & Davinci-003 & GPT-4 (错位的圆桌辩论)

–ChatGPT & Davinci-003 & ChatGPT-0301 (平等的圆桌辩论)

4.1平等辩论

36ce0840-8e70-11ee-939d-92fbcf53809c.png

图 3:平等辩论中,各 LLMs 对在不同数据集上的不一致性。虚线部分代表正方模型预测错误而反方模型预测正确带来的不一致性。

4.1.1不一致性

我们首先执行辩论框架的第一步,来得到不同辩论中,LLMs之间的不一致性。结果如图3所示,我们可以得到以下结论:

•不同类型(文本补全和对话补全,有无指令微调)的LLMs之间(ChatGPT & Davinci-003, LLaMA & Vicuna)在几乎所有数据集上都持有20%-30%的INCON,即使它们是基于相同的基础模型开发的。每个条形中的虚线部分对INCON的贡献接近50%,这意味着每个LLMs对中的LLM拥有可比但截然不同的能力。

•对于ChatGPT & ChatGPT-0301,ChatGPT-0301在功能上并不会完全覆盖ChatGPT。这表明LLMs在迭代过程中获得了新的能力的同时,也会失去一些现有的能力。因此,使用更新的LLMs来复现不可用的早期版本的LLMs的结果并不会令人信服。

4.1.2 平等辩论的结果

36eb0a12-8e70-11ee-939d-92fbcf53809c.png

表 2:平等辩论及基线方法在不同数据上的表现。带下划线的数字表示在三种协作模型中最好的结果,加粗的数字代表在单模型和协作模型中最好的结果。Average表示不同模型在所有数据集上的平均性能。

平等辩论及基线方法的表现如表 2 所示,我们可以得到以下结论:

•FORD在几乎所有数据集上都优于Col-S和Col-H,以及相应的单一LLM(除了 Social IQa 上的 LLaMA & Vicuna)。这是因为FORD可以让 LLMs 从更全面、更精确的视角来看待问题。这意味着具有可比能力的LLMs拥有协作精神,可以有效且高效地实现共同目标。

•而 FORD 在 ChatGPT & ChatGPT-0301 上并没有获得像其他辩论那样多的提升。这主要是由于它们的能力非常相似,导致它们通常对每个样本都有相似的看法,使得性能提升微不足道。

•在每个数据集上,ChatGPT & ChatGPT-0301 具有更高的性能下限 (Col-H),这表明我们可以选择类似的模型进行辩论获得保守的收益。然而 ChatGPT & Davinci-003 具有更高的性能上限 (FORD),这表明我们可以选择能力可比但差异较大的 LLMs 进行辩论以获得更好的性能。

4.1.3辩论中不一致性的变化

36fac0e2-8e70-11ee-939d-92fbcf53809c.png

图 4:随着辩论的进行,(a) ChatGPT & Davinci-003, (b)ChatGPT & ChatGPT-0301, 以及 (c) LLaMA & Vicuna 的不一致性(INCON) 变化。

图 4 展示了平等辩论的不一致性INCON随着辩论轮次的变化,从中我们可以总结如下结论:

•对于每场公平辩论,每个数据集的每一轮后INCON都会逐渐下降。这是因为 LLMs 可以从彼此之间的差异中学习从而达成一致,这表明能力可比的LLMs可以进行辩论并在共同目标上达成共识。

•对于 ChatGPT &Davinci-003 和 ChatGPT &ChatGPT-0301,INCON在所有数据集上几乎下降到 0,而LLaMA & Vicuna 经过辩论后仍然存在较为明显的不一致性。我们认为这是由于它们的能力差距造成的。

•ChatGPT & ChatGPT-0301 的INCON经过 2 轮就实现了收敛,比其他公平辩论要早。这主要是因为它们的能力非常相似,导致它们更早达成共识。

4.2错位辩论

4.2.1辩论结果

37036328-8e70-11ee-939d-92fbcf53809c.png

表 3:错位辩论的结果

37104d68-8e70-11ee-939d-92fbcf53809c.png

图 5:错位辩论中不一致性的变化

由于资源所限,我们只在 e-CARE 和 PIQA 上进行错位辩论,错位辩论的结果如表 3 和图 5 所示,我们可以得出以下结论:

•FORD 可以轻松超越Col-S 和Col-H,以及较弱的那一个 LLM,但比不上较强的那一个 LLMs。似乎错位辩论存在一个性能上限,这个上限与较强的 LLMs 的性能有关。这表明能力不匹配的LLMs很难有效地合作实现共同目标。

•即使能力不匹配,LLMs 之间的INCON 仍然继续下降。这些表明能力不匹配的 LLMs 仍然具有达成共识的协作精神,但会受到能力较差的 LLMs 的干扰。

•与平等辩论相比,占主导地位的 LLMs(GPT-4 和ChatGPT)可能会被较弱的 LLMs 分散注意力,但将 ChatGPT & Davinci-003 和 LLaMA & Vicuna 中的 Davinci-003 以及 Vicuna 分别换成GPT-4 和 ChatGPT,FORD还是会获得显着的提升。

•LLaMA & ChatGPT 的 FORD 似乎表现还远远没有达到可能存在的上限,这是因为 LLaMA 没有能力对其它模型的论据进行评估,只会不断表明自己的立场,这更加分散了 ChatGPT 的注意力。

4.2.2辩论的主导程度 dominance

为了进一步分析,我们为 LLMs 辩论引入了一个新的指标:辩论的主导程度dominance。例如,正方LLM 的dominance 被定义为反方 LLM 妥协的样本的比例,反之亦然。dominance 直接反映了 LLMs 在辩论中坚持自己观点的程度。

372d296a-8e70-11ee-939d-92fbcf53809c.png

表 4:不同辩论中不同模型的主导程度

以公平辩论 (ChatGPT & Davinci-003) 为例,表 4 显示 ChatGPT& Davinci003 在两个数据集上取得了相似的主导程度。它解释了为什么可比的 LLMs 可以进行辩论来妥协或坚持更合理的观点来提高性能。因此,我们将其作为错位辩论的参考,如表4所示,我们可以得出结论:

•实力较强的 LLMs(GPT-4和ChatGPT)在不匹配的辩论中占据绝对优势。这与人类的场景类似,在与比自己更强的人辩论时,自己很容易被带入到对方的思考过程中并认可对方的想法。因此,实力较强的LLMs更有可能坚持自己的观点。当更强的 LLMs 对少数样本缺乏信心时,它们更容易受到较弱的 LLMs 的干扰。

•然而,LLaMA & ChatGPT 并没有表现出如此大的主导程度差距。这主要是因为 LLaMA 几乎没有辩论的能力。它无法评估其它模型的论点,大多数时候只会生成 “选项(x)更合理” 之类的句子,这会让 ChatGPT 摇摆不定。

4.2.3圆桌辩论

在许多场景中,辩论或者是讨论并不局限于 2 个参与者,例如医疗诊断和法庭陪审团,都需要多个参与者,所以我们设计了有 3 个 LLMs 参与的圆桌辩论:一个错位的圆桌辩论 ChatGPT & Davinci-003 & GPT-4 (记为 R1),一个平等的圆桌辩论 ChatGPT & Davinci-003 & ChatGPT-0301 (记为 R2)。我们选取 e-CARE 和 PIQA 作为圆桌辩论的数据集。

3736fcd8-8e70-11ee-939d-92fbcf53809c.png

表 5:圆桌辩论与单模型以及双模型辩论结果,M 代表错位辩论,F 代表平等辩论

3752f0aa-8e70-11ee-939d-92fbcf53809c.png

图 6:圆桌辩论的不一致性变化

圆桌辩论的结果如表 5 和图 6 所示,我们可以进行分析得到以下结论:

•在两种圆桌辩论中,FORD 的表现均明显优于Col-S 和Col-H。然而R1 中的 FORD 远不如GPT-4,如果有更多较弱的 LLMs,那么较强的LLMs 可能会更容易被误导,并且不那么占主导地位(请参阅文章附录中的表 10)。FORD 在 R2 上的表现优于所有单一LLMs,这证明两个以上可比的LLMs可以有效且高效地协作以实现共同目标。

•圆桌辩论中的INCON 明显下降,表明两个以上LLMs仍然具备协作精神并达成共识。

•圆桌辩论R1 性能表现超越了 R2。这表明更换一个较强的 LLMs 可以提高辩论的表现,尽管较强的 LLMs 可能会被其他较弱的 LLMs 误导。

在 R2 中,FORD 超过了平等辩论 ChatGPT &ChatGPT0301,而与 ChatGPT &Davinci-003 取得了相似的结果,这是因为ChatGPT和ChatGPT-0301没有太多区别,导致辩论中引入的新信息很少。

5. 分析

5.1使用 GPT-4 作为辩论的裁判

37617012-8e70-11ee-939d-92fbcf53809c.png

表6:GPT-4作为裁判对辩论结果的影响

每次辩论中不同的论点可能有不同的说服力。而且,在人类辩论中,有一个具有强大评估能力的人类裁判来总结辩论并得出最终结论。受此启发,我们研究使用 GPT-4 作为裁判来执行 FORD 中的第 3 步,并在两个公平辩论中进行实验。实验结果如表 6 所示:

•GPT-4作为裁判可以进一步提升辩论的性能。主要是因为GPT4可以给更有说服力的论点赋予更高的权重,从而得出更精确的结论。

•同时,启发式的方法作为裁判也可以以一个较低的成本达到一个较理想的结果。

5.2辩论顺序的影响

377b4334-8e70-11ee-939d-92fbcf53809c.png

表7:不同辩论顺序对辩论的影响,*代表更换顺序的辩论结果

就像模型训练过程中不同的初始化可能会产生不同的结果一样,辩论框架的步骤 2 中的辩论顺序可能会影响结果,我们进行消融研究来研究辩论顺序的影响。实验结果如表 7 所示:

当我们将 Davinci-003 作为正方,ChatGPT 作为反方时,FORD 仍然优于Col-S和Col-H,以及相应的单一 LLM,获得与原始辩论顺序相似的结果。这进一步支持了上文的发现对辩论顺序不敏感。

5.3样例分析

37860eea-8e70-11ee-939d-92fbcf53809c.png

图7:样例分析

在 Debate 1 中,正方 (ChatGPT) 认为选项 (A) 更合理,而反方 (Davinci-003) 则认为选项 (B) 更好。正方指出,这个问题的关键在于“旧年鉴”。反方最终向正方妥协。通过这场辩论,一个 LLMs 可以提供另一个 LLMs 忽视的细节,从而产生更有说服力的可解释信息和更准确的决策。

6. 结论

我们探讨了不同 LLMs 之间的不一致问题。然后我们使用辩论框架 FORD 来考察 LLMs 是否能够有效地协作,通过辩论最终达成共识。为此我们探索了三个现实世界的辩论场景公平辩论、不匹配辩论和圆桌辩论。我们发现 LLMs 拥有协作精神,能够就共同目标达成共识。辩论可以提高 LLMs 的表现和相互一致性。当辩论不匹配时,较强的 LLMs 可能会被较弱的 LLMs 分散注意力。这些发现有助于未来开发更有效的多 LLMs 协作方法。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 语言模型
    +关注

    关注

    0

    文章

    435

    浏览量

    10057
  • 智能体
    +关注

    关注

    1

    文章

    111

    浏览量

    10426
  • ChatGPT
    +关注

    关注

    27

    文章

    1411

    浏览量

    4770

原文标题:EMNLP2023 | 基于大语言模型辩论的多智能体协作推理分析

文章出处:【微信号:zenRRan,微信公众号:深度学习自然语言处理】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    大型语言模型的逻辑推理能力探究

    最新研究揭示,尽管大语言模型LLMs在语言理解上表现出色,但在逻辑推理方面仍有待提高。为此,研究者们推出了GLoRE,一个全新的逻辑推理评估
    的头像 发表于 11-23 15:05 537次阅读
    大型<b class='flag-5'>语言</b><b class='flag-5'>模型</b>的逻辑<b class='flag-5'>推理</b>能力探究

    基于Agent系统的智能家庭网络研究

    和体系建立智能家庭网络整体结构。给出了MAIHN模型的各个组成部分,对模型中各种Agent的功能设计与实现模型进行了分析,研究了MAIHN
    发表于 06-14 00:22

    无线传感器网络协作技术研究热点

    )MAS协作  Agent系统(Multi-agent System,MAS)是分布式人工智能的重要研究领域,agent可以定义为具有目标、知识和能力的软件或硬件实体,能力包括感知、行动、
    发表于 10-26 14:08

    用tflite接口调用tensorflow模型进行推理

    摘要本文为系列博客tensorflow模型部署系列的一部分,用于实现通用模型的部署。本文主要实现用tflite接口调用tensorflow模型进行推理。相关源码见链接引言本文为系列博客
    发表于 12-22 06:51

    【飞凌RK3568开发板试用体验】RKNN模型推理测试

    研的人工智能协处理器NPU,并且提供了RKNN-Toolkit。今天就介绍一下如何使用RKNN模型进行推理应用程序开发。一、推理应用程序的基本流程RKNN 是 瑞芯微(Rockchip
    发表于 12-08 19:06

    压缩模型会加速推理吗?

    你好我使用 STM32CUBE-AI v5.1.2 ApplicationTemplate 将简单的 CNN 导入到 STM32L462RCT我发现压缩模型推理时间没有影响。aiRun 程序在 8
    发表于 01-29 06:24

    AscendCL快速入门——模型推理篇(上)

    重要。但是对于一些模型推理的应用来讲,这个问题就要多思考一步了。首先,设备总内存是有限的,每个模型加载进来都要占用一部分内存。对于
    发表于 08-24 11:04

    使用rk3588npu推理模型模型推理时间还增加了,这怎么解释

    使用rk3588npu推理模型模型推理时间还增加了,这怎么解释
    发表于 11-05 18:22

    HarmonyOS:使用MindSpore Lite引擎进行模型推理

    场景介绍 MindSpore Lite 是一款 AI 引擎,它提供了面向不同硬件设备 AI 模型推理的功能,目前已经在图像分类、目标识别、人脸识别、文字识别等应用中广泛使用。 本文介绍
    发表于 12-14 11:41

    一种注意力增强的自然语言推理模型aESIM

    在自然语言处理任务中使用注意力机制可准确衡量单词重要度。为此,提出一种注意力增强的自然语言推理模型aESM。将词注意力层以及自适应方向权重层添加到ESIM模型的双向LSTM网络中,从而
    发表于 03-25 11:34 9次下载
    一种注意力增强的自然<b class='flag-5'>语言</b><b class='flag-5'>推理模型</b>aESIM

    清华大学大语言模型综合性能评估报告发布!哪个模型更优秀?

    不仅能生成和理解文本,还能进行复杂的分析推理。本报告从生成质量、使用与性能、安全与合规三个维度对大语言模型进行评估,并深入分析不同大
    的头像 发表于 08-10 08:32 685次阅读
    清华大学大<b class='flag-5'>语言</b><b class='flag-5'>模型</b>综合性能评估报告发布!哪个<b class='flag-5'>模型</b>更优秀?

    腾讯发布混元大语言模型

    能力和复杂语境下的逻辑推理能力;而且在时效性上比较强。 目前混元大语言模型已经在小程序、腾讯云、腾讯广告、腾讯游戏等开启内测。
    的头像 发表于 09-07 10:23 852次阅读

    澎峰科技发布大模型推理引擎PerfXLLM

    自从2020年6月OpenAI发布chatGPT之后,基于 Transformer 网络结构的 语言模型(LLM) 引发了全世界的注意与追捧,成为了人工智能领域的里程碑事件。 但大模型
    的头像 发表于 11-25 15:35 484次阅读
    澎峰科技发布大<b class='flag-5'>模型</b><b class='flag-5'>推理</b>引擎PerfXLLM

    ChatGPT是一个好的因果推理器吗?

    因果推理能力对于许多自然语言处理(NLP)应用至关重要。最近的因果推理系统主要基于经过微调的预训练语言模型(PLMs),如BERT [1]
    的头像 发表于 01-03 09:55 491次阅读
    ChatGPT是一个好的因果<b class='flag-5'>推理</b>器吗?

    盘点一下史上最全大语言模型训练中的网络技术

    人工智能的基础设施在大语言模型训练和推理过程中发挥了关键的作用。随着大语言模型规模不断增大,其对
    的头像 发表于 03-27 17:24 392次阅读
    盘点一下史上最全大<b class='flag-5'>语言</b><b class='flag-5'>模型</b>训练中的网络技术