0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

大模型现存的10个问题和挑战

颖脉Imgtec 2023-09-04 16:42 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

大模型现存的问题和挑战这篇文章介绍了关于大型语言模型(LLMs)研究中的十个主要方向和问题:

1. 减少和度量幻觉:幻觉指的是AI模型虚构信息的情况,可能是创意应用的一个特点,但在其他应用中可能是一个问题。这个方向涉及减少幻觉和开发衡量幻觉的度量标准。

2. 优化上下文长度和构造:针对大多数问题,上下文信息是必需的,文章介绍了在RAG(Retrieval Augmented Generation)架构中优化上下文长度和构造的重要性。

3. 整合其他数据形式:多模态是强大且被低估的领域,文章探讨了多模态数据的重要性和潜在应用,如医疗预测、产品元数据分析等。

4. 使LLMs更快、更便宜:讨论了如何使LLMs更高效、更节约资源,例如通过模型量化、模型压缩等方法。

5. 设计新的模型架构:介绍了开发新的模型架构以取代Transformer的尝试,以及挑战和优势。

6. 开发GPU替代方案:讨论了针对深度学习的新硬件技术,如TPUs、IPUs、量子计算、光子芯片等。

7. 使代理人更易用:探讨了训练能够执行动作的LLMs,即代理人,以及其在社会研究和其他领域的应用。

8. 提高从人类偏好中学习的效率:讨论了从人类偏好中训练LLMs的方法和挑战。

9. 改进聊天界面的效率:讨论了聊天界面在任务处理中的适用性和改进方法,包括多消息、多模态输入、引入生成AI等。

10. 为非英语语言构建LLMs:介绍了将LLMs扩展到非英语语言的挑战和必要性。


1. 减少和衡量幻觉

幻觉是一个广受关注的话题,指的是当AI模型编造信息时发生的情况。在许多创造性的应用场景中,幻觉是一种特性。然而,在大多数其他用例中,幻觉是一个缺陷。一些大型企业近期在关于大型语言模型的面板上表示,影响企业采用LLMs的主要障碍是幻觉问题。

减轻幻觉问题并开发用于衡量幻觉的度量标准是一个蓬勃发展的研究课题。有许多初创公司专注于解决这个问题。还有一些降低幻觉的方法,例如在提示中添加更多的上下文、思维链、自我一致性,或要求模型在回答中保持简洁。

要了解更多关于幻觉的信息,可以参考以下文献:

  • Survey of Hallucination in Natural Language Generation (Ji et al., 2022)
  • How Language Model Hallucinations Can Snowball (Zhang et al., 2023)
  • A Multitask, Multilingual, Multimodal Evaluation of ChatGPT on Reasoning, Hallucination, and Interactivity (Bang et al., 2023)
  • Contrastive Learning Reduces Hallucination in Conversations (Sun et al., 2022)
  • Self-Consistency Improves Chain of Thought Reasoning in Language Models (Wang et al., 2022)
  • SelfCheckGPT: Zero-Resource Black-Box Hallucination Detection for Generative Large Language Models (Manakul et al., 2023)
  • NVIDIA’s NeMo-Guardrails中关于事实核查和幻觉的简单示例

2. 优化上下文长度限制

大部分问题需要上下文信息。例如,如果我们询问ChatGPT:“哪家越南餐厅最好?”,所需的上下文将是“在哪里”,因为越南在越南和美国的最佳越南餐厅不同。

在这篇论文中提到,许多信息寻求性的问题都有依赖于上下文的答案,例如Natural Questions NQ-Open数据集中约占16.5%。对于企业用例,这个比例可能会更高。例如,如果一家公司为客户支持构建了一个聊天机器人,为了回答客户关于任何产品的问题,所需的上下文可能是该客户的历史或该产品的信息。由于模型“学习”来自提供给它的上下文,这个过程也被称为上下文学习。


3. 合并其他数据模态

多模态是非常强大但常常被低估的概念。它具有许多优点:

首先,许多用例需要多模态数据,特别是在涉及多种数据模态的行业,如医疗保健、机器人、电子商务、零售、游戏、娱乐等。例如,医学预测常常需要文本(如医生的笔记、患者的问卷)和图像(如CT、X射线、MRI扫描)。

ec690f84-4afe-11ee-a20b-92fbcf53809c.png

其次,多模态承诺可以显著提高模型的性能。一个能够理解文本和图像的模型应该比只能理解文本的模型表现更好。基于文本的模型需要大量的文本数据,因此有现实担忧称我们可能会很快用完训练基于文本的模型的互联网数据。一旦我们用完了文本数据,我们需要利用其他数据模态。

其中一个特别令人兴奋的用例是,多模态可以帮助视障人士浏览互联网和导航现实世界。


4. 使LLMs更快且更便宜

当GPT-3.5于2022年底首次发布时,很多人对在生产中使用它的延迟和成本表示担忧。这是一个复杂的问题,牵涉到多个层面,例如:

训练成本:训练LLMs的成本随着模型规模的增大而增加。目前,训练一个大型的LLM可能需要数百万美元。

推理成本:在生产中使用LLMs的推理(生成)可能会带来相当高的成本,这主要是因为这些模型的巨大规模。

ec93134c-4afe-11ee-a20b-92fbcf53809c.png

解决这个问题的一种方法是研究如何减少LLMs的大小,而不会明显降低性能。这是一个双重的优势:首先,更小的模型需要更少的成本来进行推理;其次,更小的模型也需要更少的计算资源来进行训练。这可以通过模型压缩(例如蒸馏)或者采用更轻量级的架构来实现。


5. 设计新的模型架构

尽管Transformer架构在自然语言处理领域取得了巨大成功,但它并不是唯一的选择。近年来,研究人员一直在探索新的模型架构,试图超越Transformer的限制。

这包括设计更适用于特定任务或问题的模型,以及从根本上重新考虑自然语言处理的基本原理。一些方向包括使用图神经网络、因果推理架构、迭代计算模型等等。eca7cd82-4afe-11ee-a20b-92fbcf53809c.png

新的架构可能会在性能、训练效率、推理速度等方面带来改进,但也需要更多的研究和实验来验证其实际效果。


6. 开发GPU替代方案

当前,大多数深度学习任务使用GPU来进行训练和推理。然而,随着模型规模的不断增大,GPU可能会遇到性能瓶颈,也可能无法满足能效方面的要求。

因此,研究人员正在探索各种GPU替代方案,例如:

TPUs(张量处理器):由Google开发的专用深度学习硬件,专为加速TensorFlow等深度学习框架而设计。

IPUs(智能处理器):由Graphcore开发的硬件,旨在提供高度并行的计算能力以加速深度学习模型。

量子计算:尽管仍处于实验阶段,但量子计算可能在未来成为处理复杂计算任务的一种有效方法。

光子芯片:使用光学技术进行计算,可能在某些情况下提供更高的计算速度。

这些替代方案都有其独特的优势和挑战,需要进一步的研究和发展才能实现广泛应用。


7. 使代理人更易于使用

研究人员正在努力开发能够执行动作的LLMs,也被称为代理人。代理人可以通过自然语言指令进行操作,这在社会研究、可交互应用等领域具有巨大潜力。

然而,使代理人更易于使用涉及到许多挑战。这包括:

指令理解和执行:确保代理人能够准确理解和执行用户的指令,避免误解和错误。

多模态交互:使代理人能够在不同的输入模态(文本、语音、图像等)下进行交互。

个性化和用户适应:使代理人能够根据用户的个性、偏好和历史进行适应和个性化的交互。

这个方向的研究不仅涉及到自然语言处理,还涉及到机器人学、人机交互等多个领域。


8. 提高从人类偏好中学习的效率

从人类偏好中学习是一种训练LLMs的方法,其中模型会根据人类专家或用户提供的偏好进行学习。然而,这个过程可能会面临一些挑战,例如:

数据采集成本:从人类偏好中学习需要大量的人类专家或用户提供的标注数据,这可能会非常昂贵和耗时。

标注噪声:由于人类标注的主观性和误差,数据中可能存在噪声,这可能会影响模型的性能。

领域特异性:从人类偏好中学习的模型可能会在不同领域之间表现不佳,因为偏好可能因领域而异。

研究人员正在探索如何在从人类偏好中学习时提高效率和性能,例如使用主动学习、迁移学习、半监督学习等方法。


9. 改进聊天界面的效率

聊天界面是LLMs与用户交互的方式之一,但目前仍然存在一些效率和可用性方面的问题。例如:

多消息对话:在多轮对话中,模型可能会遗忘之前的上下文,导致交流不连贯。

多模态输入:用户可能会在消息中混合文本、图像、声音等不同模态的信息,模型需要适应处理这些多样的输入。

对话历史和上下文管理:在长时间对话中,模型需要有效地管理对话历史和上下文,以便准确回应用户的问题和指令。

改进聊天界面的效率和用户体验是一个重要的研究方向,涉及到自然语言处理、人机交互和设计等多个领域的知识。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • AI
    AI
    +关注

    关注

    91

    文章

    41370

    浏览量

    302741
  • 人工智能
    +关注

    关注

    1821

    文章

    50376

    浏览量

    267085
  • 模型
    +关注

    关注

    1

    文章

    3834

    浏览量

    52289
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    【瑞萨AI挑战赛】在RA8P1上部署CFAIR-10分类模型

    在RA8P1上部署CFAIR-10分类模型 一、背景 1.1 CFAIR-10简介 CIFAR-10是一广泛使用的图像分类基准数据集,由
    发表于 03-15 23:57

    【瑞萨AI挑战赛】手写数字识别模型在RA8P1 Titan Board上的部署

    ,接入2层全连接层,最终输出层为10神经元,对应0-9数字的分类概率,使用Softmax激活函数。 基于Pytorch的MNIST模型如下: from torch import nn import
    发表于 03-15 20:42

    【瑞萨AI挑战赛】阶段一:基于RA8P1的人脸识别模型转换和部署

    的BlazeFace模型,最后给出实验效果。 一、模型选择和模型转换 本次实验使用的模型是BlazeFace模型,是一种实时的、轻量化的人脸
    发表于 03-09 00:49

    一文读懂大模型常见的10核心概念

    如今高效智能的AI大模型,正如雨后春笋般破土而出,人们对于AI大模型的学习与探索之路,也愈发宽阔平坦。虽然AI工具已不再陌生,但其中关于AIPrompt、大模型的吞吐量、蒸馏与量化、私有化知识库等
    的头像 发表于 09-22 17:02 1399次阅读
    一文读懂大<b class='flag-5'>模型</b>常见的<b class='flag-5'>10</b><b class='flag-5'>个</b>核心概念

    详解SPICE器件模型的分类

    今天我们来聊聊工程师在仿真时比较关注的问题。众多的器件模型,我在仿真的时候到底应该怎么选择一器件的模型?我使用的这个器件模型的精确度够吗?我自己能否做一
    的头像 发表于 08-28 13:42 1919次阅读
    详解SPICE器件<b class='flag-5'>模型</b>的分类

    10RTL优化实战技巧

    今天我给大家总结10实战级优化技巧,每条都有具体案例,助你从根源上搞定资源问题!
    的头像 发表于 07-21 15:01 1056次阅读

    模型推理显存和计算量估计方法研究

    随着人工智能技术的飞速发展,深度学习大模型在各个领域得到了广泛应用。然而,大模型的推理过程对显存和计算资源的需求较高,给实际应用带来了挑战。为了解决这一问题,本文将探讨大模型推理显存和
    发表于 07-03 19:43

    声学世界模型将如何改变我们的生活

    的进展和挑战并提出了新的研究思路。当AI不再只是“看”书本,而是开始“听”万物,一充满物理直觉的智能新时代正在到来。
    的头像 发表于 06-27 11:36 1262次阅读

    自动驾驶中常提的世界模型啥?

    对外部环境进行抽象和建模的技术,让自动驾驶系统在一简洁的内部“缩影”里,对真实世界进行描述与预测,从而为感知、决策和规划等关键环节提供有力支持。 什么是世界模型? 我们不妨先把“世界模型”想象成一种“数字化的地
    的头像 发表于 06-24 08:53 1430次阅读
    自动驾驶中常提的世界<b class='flag-5'>模型</b>是<b class='flag-5'>个</b>啥?

    FA模型卡片和Stage模型卡片切换

    卡片切换 卡片切换主要包含如下三部分: 卡片页面布局:FA模型卡片和Stage模型卡片的布局都采用类web范式开发可以直接复用。 卡片配置文件:FA模型的卡片配置在config.json中
    发表于 06-06 08:10

    从FA模型切换到Stage模型时:module的切换说明

    。abilities具体差异见表5。 js标识基于ArkUI框架开发的JS模块集合,其中的每个元素代表一JS模块的信息。pagesStage模型在module标签下保留该对象中的pages
    发表于 06-05 08:16

    FA模型访问Stage模型DataShareExtensionAbility说明

    DataShareExtensionAbility提供数据库的读写服务。 服务端由FA模型升级到Stage模型后,会导致FA模型的客户端在API 9(含)之后的版本上无法访问服务端。 为了解决上述问题,系统在框架侧提供了一
    发表于 06-04 07:53

    如何将一FA模型开发的声明式范式应用切换到Stage模型

    模型切换概述 本文介绍如何将一FA模型开发的声明式范式应用切换到Stage模型,您需要完成如下动作: 工程切换:新建一Stage
    发表于 06-04 06:22

    如何使用Docker部署大模型

    随着深度学习和大模型的快速发展,如何高效地部署这些模型成为了一重要的挑战。Docker 作为一种轻量级的容器化技术,能够将模型及其依赖环境
    的头像 发表于 05-24 16:39 1382次阅读

    如何赋能医疗AI大模型应用?

    “百模大战”。不仅如此,这些通用AI大模型还逐渐渗透到各个垂直行业中,其中生命科学和医疗健康行业成为了拓展速度较快的一领域。从2023年2月至10月初,国内市场上
    的头像 发表于 05-07 09:36 821次阅读
    如何赋能医疗AI大<b class='flag-5'>模型</b>应用?