0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

大模型的未来在哪?究竟什么是好的大模型?

脑极体 来源:脑极体 作者:脑极体 2021-10-27 08:46 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

自2018年谷歌发布BERT以来,预训练大模型经过三年的发展,以强大的算法效果,席卷了NLP为代表的各大AI榜单与测试数据集。2020年OpenAI发布的NLP大模型GPT-3,实现了千亿级数据参数。GPT-3除了具备传统的NLP能力之外,还可以算术、编程、写小说、写论文摘要,一时之间成为科技圈中的爆点。到2021年,我们可以看到各大学术机构、科技企业都在打造自己的大模型,并且对其能力边界、技术路径进行了极大拓展。

身在科技圈中会有明显的感受,今年大模型的会议与讨论越来越多,预训练大模型本身的优势我们在很多新闻中都感受到了。打造大模型并不是一件轻松容易的事情,需要耗费大量的数据、算力资源等,大模型的意义是为了让算法模型集中化,但是市场中有条件的企业和机构都开始耗费大量资源自研大模型。大模型算法模型的集中化优势,经过这些机构对集中资源的分化,又有种烟囱式的割裂。

其实现实可能只需要一个发展到极致化的大模型就足够大家使用了,没有必要人手一个。而且预训练大模型的发展在这样的模式下也会受到一些影响,而在这个态势下也有一些趋势与变化值得讨论与关注。

大模型发展模式的卡点

BERT、GPT 等大规模预训练模型(PTM)近年来取得了巨大成功,成为AI领域的里程碑。因为预训练大模型的显著优势,现在AI社区的共识是采用它作为下游任务的开始,而不是从头开始训练数据、建立模型。

随着产学研各界的深入研究,大模型在AI各界的地位得到不断加强。一些机构和产业界对大模型的参与到角逐,使得其呈现出一种宣传炫技般的画面感受。这样的发展模式很可能会给行业带来一些不好的影响:

1.大模型成为一些机构和企业秀肌肉的军备竞赛,大家开始比拼各自参数集数量级。你百亿级,我就千亿级。数据集本身就有限,标榜自己的数据集越大,也意味着水分比较多,而在真实落地使用的情况方面,也并不不一定理想。算力资源和训练时间消耗过大,并且也只限于部分行业的部分问题,普适性差。

2.国内预训练模型的玩家们可用的中文数据集有限,就是我们知道的几种主流常用数据来源。在有限的数据集里,大家使用的数据未免重复,而因此研究出来的大模型能力就比较接近。走相同的路径做类似的事情,有点浪费资源与算力。

3.大模型是否优秀,不仅依赖数据的精度与网络结构,也是对其与行业结合软硬件协同能力的比拼。单纯只强调低头研发高参数集、强算力模型等的方向,轻视一些与行业的协同二次调试等问题,就会陷入闭门造车的局面,限制了落地的路,走不远。

4.一些预训练大模型经过极致化(数据、模型、算力)的发展后,也有可能面临小众、泛用性差的情形,比如一些高校研发的预训练大模型只能在小众的学术圈子里使用,无法工程化使用,最终沦为一次性的模型,浪费大量的资源。

虽然我们看到各种大模型在集中式爆发发展,但其实目前大模型行业还处于初始阶段,面临一些问题与卡点无可避免。行业内人士应该会更加敏感地体察到这些现象,谁也不会想要让这些荆棘以常态的模式横亘在发展前路上。大家花费精力激荡脑力,想要发展的共识是打造出行业内唯一的模型。那么,对于行业来说,究竟什么样的大模型才是最好的呢?

究竟什么是好的大模型?

在这场battle里,大模型向着规模极致化的方向发展。那么如何衡量大模型的能力,是一个绕不开的话题。衡量大模型能力的关键要素是,参数的规模和与细分行业结合对接的软硬件协同能力。我们在各种新闻中经常可以看到,机构或者是企业用数据集或者是参数规模,以及跑分来彰显自己的模型水平。

参数的规模决定了预训练模型有多大。参数越大一般来说意味着大模型具备更多的能力,泛化性、通用性也更加强。成功的大模型背后,还需要大规模分布式训练、并行计算、软硬件协同优化等能力。

脑极体曾在GPT-3最火的时候,参与过一次试验:用GPT-3写个文章出来。我们给第三方提供了一些写作的思路,想要看一下机器写出来的效果怎么样(其实是想看看自己离失业还有多久)。结果得到的反馈是GPT-3在理解能力方面很牛很强,但是让它去生产一篇稿件,对于它来说还是比较复杂而且困难的一件事情。

另外,排队等待使用的企业过多,间次使用等待的时间过长,,并且稿件本身也需要好几天才能完成。看似一个简单的写稿需求,对无所不能的GPT-3来说应该是小case,结果无疾而终。存在类似小需求的企业应该还是有很多,而这些需求都需要排队等待调用大量的算力,并且磨几天才能产出,而花时间花钱结果还存疑。当时行业里最好的大模型落地都如此艰难,大模型的落地还是有点不理想。

好的大模型不仅仅需要模型、算力等本身性能方面强劲,关键也需要看与某垂直行业结合时产品化落地的能力是否实用。落地的大模型需要解决一些行业具体的问题,与行业结合时二次开发、对接的成本尽可能地小,否则它强势的性能也只是空中楼阁,中看不中用。大模型需要工程落地的能力,从而打开更多的边界,让更多领域和企业来使用。

大模型的未来趋势

从产业价值的角度来看,预训练大模型带来了一系列可能性,让产学研各界看到了由弱人工智能走向强人工智能,走向工业化、集成化智能化的路径。在这样的驱动背景下,大模型也会有一些可预见的趋势与发展。

1.我们知道事物的发展规律是优胜劣汏,在竞争的角逐中,一些标榜独特性的小众模型的泛化能力差,越独特可能也就意味着越小众,使用的范围十分有限,可能会逐渐走向消亡。

2.崛起的大模型不仅仅是泛化性、落地能力强,创新性强、训练数据规模大,也需要具备不断生长革新的能力,也就是自我进化、智能化的能力。大模型的未来需要创新,也需要自我生长,向可持续、可进化的方向发展,架构上的革新会让模型更加高效。

3.大模型能力的端侧化,“芯片化”。将模型的一些运算存储等能力像芯片一样固化在一些端侧硬件设备中,在使用的过程中不用在重装的模型中耗时调用算力与数据,可以实现随时调用随时使用。现下的模型多是重装大模型,使用的话需要调用庞大的算力和运行时间,未来的大模型会逐渐改变这种模式。

4.大模型的标准化与模块化发展。大模型的评估未来会有标准化成熟的体系来衡量,这个体系也会是行业内公认的标准,用这个标准来衡量大模型的优劣而不是现下自卖自夸式的标榜。

目前我们在各大榜单上看到的分数来自于大型的数据集和算力模型,让开发更加容易,调试与训练的周期越来越短。但我们也知道大量的数据喂养出来的模型回报并不是百分百地正确。喂养的数据知识的极大扩展也无法保证结果的确定性,这也是大模型最大的弱点,而这也意味着对于大模型的探索需要持续的迭代发展。

预训练大模型是面向通用智能最高阶的探索,也是AI持续变革的核心发展方向与动力,随着AI不断深入产业与各学科领域的过程中,大模型在军备battle和百家争鸣,算力、数据、规模都会朝着极致化的方向发展。未来新的预训练大模型将会与那些计算量巨大的科学领域,比如制药、脑科学、医疗、生物计算等领域相互结合,带来巨大的价值。

我们的那些悬而未解的难题,在未来都会有答案,无论最终这个结论正确与否,都能够为前沿的发展、探索带来很多灵感与角度,世界的多面体将会被打开。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • AI
    AI
    +关注

    关注

    89

    文章

    38120

    浏览量

    296660
  • 数据集
    +关注

    关注

    4

    文章

    1230

    浏览量

    26046
  • nlp
    nlp
    +关注

    关注

    1

    文章

    491

    浏览量

    23192
  • 训练模型
    +关注

    关注

    1

    文章

    37

    浏览量

    4048
  • 算力
    +关注

    关注

    2

    文章

    1385

    浏览量

    16566
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    小白必看:模型静态测试效率翻倍——MXAM详解#simulink #Siumlink模型测试

    模型
    北汇信息POLELINK
    发布于 :2025年10月24日 18:03:11

    旷视借助大模型与智能体推动算法落地

    当下,AI技术繁荣无比,但无数企业却陷入“叫好不叫座”的困境:算法模型很先进,但一到真实的行业场景中就“水土不服”。问题究竟在哪?大模型和智能体的兴起,又为我们提供了怎样的新解题思路
    的头像 发表于 10-11 14:04 322次阅读

    机场设备智能运维管理大模型

    模型
    中设智控
    发布于 :2025年08月13日 11:27:24

    FA模型卡片和Stage模型卡片切换

    卡片切换 卡片切换主要包含如下三部分: 卡片页面布局:FA模型卡片和Stage模型卡片的布局都采用类web范式开发可以直接复用。 卡片配置文件:FA模型的卡片配置在config.json中
    发表于 06-06 08:10

    FA模型和Stage模型API切换概述

    API切换概述 FA模型和Stage模型由于线程模型和进程模型的差异,部分接口仅在FA模型下才能使用,针对这部分接口在SDK的接口中有FA
    发表于 06-06 06:29

    从FA模型切换到Stage模型时:module的切换说明

    module的切换 从FA模型切换到Stage模型时,开发者需要将config.json文件module标签下的配置迁移到module.json5配置文件module标签下,具体差异
    发表于 06-05 08:16

    FA模型访问Stage模型DataShareExtensionAbility说明

    FA模型访问Stage模型DataShareExtensionAbility 概述 无论FA模型还是Stage模型,数据读写功能都包含客户端和服务端两部分。 FA
    发表于 06-04 07:53

    KaihongOS操作系统FA模型与Stage模型介绍

    FA模型与Stage模型介绍 KaihongOS操作系统中,FA模型(Feature Ability)和Stage模型是两种不同的应用模型
    发表于 04-24 07:27

    DLP650LNIR芯片安装部分的三维机械模型在哪儿下载?

    请问,想设计DLP650LNIR部分的板卡,DLP650LNIR芯片安装部分有一些结构件,在哪能下载到这些三维机械模型
    发表于 02-24 07:25

    【「基于大模型的RAG应用开发与优化」阅读体验】+大模型微调技术解读

    今天学习<基于大模型的RAG应用开发与优化>这本书。大模型微调是深度学习领域中的一项关键技术,它指的是在已经预训练好的大型深度学习模型基础上,使用新的、特定任务相关的数据
    发表于 01-14 16:51

    【「大模型启示录」阅读体验】+开启智能时代的新钥匙

    渴望通过阅读这本书,能够揭开大模型神秘的面纱,深入探究其内在的奥秘,看看它究竟是如何改变我们的生活,又将引领我们走向怎样的未来。 作者在书的开头,将大模型发展历程做了回顾,介绍了Ope
    发表于 12-24 13:10

    【「大模型启示录」阅读体验】营销领域大模型的应用

    解目标市场,从而制定更有效的营销策略。 大模型擅长分析,可以非常的提炼IP,为决策者提供辅助参考。 基于消费者的历史数据和行为模式,大模型能够提供个性化的产品或服务推荐。这种个性化的推荐方式能够显著提高
    发表于 12-24 12:48

    【「大模型启示录」阅读体验】对大模型更深入的认知

    能在教育、设计、游戏、广告等领域发挥如此重要的作用。这些内容让我对大模型的潜力充满了期待,也让我对AI技术的未来充满了好奇。 书中还提到了大模型与DevOps的结合,以及它们如何提高软件的可观测性。这
    发表于 12-20 15:46

    【「大模型启示录」阅读体验】如何在客服领域应用大模型

    的功能和性能。因此,选择具有良好可扩展性的模型可以适应未来业务的发展需求。在客服领域,处理客户数据时可能涉及敏感信息。因此,在选择模型时需要考虑其安全措施和隐私保护能力。确保数据传输和存储过程中的安全
    发表于 12-17 16:53

    【「大模型启示录」阅读体验】对本书的初印象

    总是从目录开始,这有助于我快速了解书籍的结构和主要内容。《大模型启示录》的目录内容丰富,覆盖了大模型的多个方面,从基础概念到实际应用,再到对未来的展望。每一章都充满了深刻的见解和实用的信息,我相信通过
    发表于 12-16 14:05