0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

大模型的未来在哪?究竟什么是好的大模型?

脑极体 来源:脑极体 作者:脑极体 2021-10-27 08:46 次阅读

自2018年谷歌发布BERT以来,预训练大模型经过三年的发展,以强大的算法效果,席卷了NLP为代表的各大AI榜单与测试数据集。2020年OpenAI发布的NLP大模型GPT-3,实现了千亿级数据参数。GPT-3除了具备传统的NLP能力之外,还可以算术、编程、写小说、写论文摘要,一时之间成为科技圈中的爆点。到2021年,我们可以看到各大学术机构、科技企业都在打造自己的大模型,并且对其能力边界、技术路径进行了极大拓展。

身在科技圈中会有明显的感受,今年大模型的会议与讨论越来越多,预训练大模型本身的优势我们在很多新闻中都感受到了。打造大模型并不是一件轻松容易的事情,需要耗费大量的数据、算力资源等,大模型的意义是为了让算法模型集中化,但是市场中有条件的企业和机构都开始耗费大量资源自研大模型。大模型算法模型的集中化优势,经过这些机构对集中资源的分化,又有种烟囱式的割裂。

其实现实可能只需要一个发展到极致化的大模型就足够大家使用了,没有必要人手一个。而且预训练大模型的发展在这样的模式下也会受到一些影响,而在这个态势下也有一些趋势与变化值得讨论与关注。

大模型发展模式的卡点

BERT、GPT 等大规模预训练模型(PTM)近年来取得了巨大成功,成为AI领域的里程碑。因为预训练大模型的显著优势,现在AI社区的共识是采用它作为下游任务的开始,而不是从头开始训练数据、建立模型。

随着产学研各界的深入研究,大模型在AI各界的地位得到不断加强。一些机构和产业界对大模型的参与到角逐,使得其呈现出一种宣传炫技般的画面感受。这样的发展模式很可能会给行业带来一些不好的影响:

1.大模型成为一些机构和企业秀肌肉的军备竞赛,大家开始比拼各自参数集数量级。你百亿级,我就千亿级。数据集本身就有限,标榜自己的数据集越大,也意味着水分比较多,而在真实落地使用的情况方面,也并不不一定理想。算力资源和训练时间消耗过大,并且也只限于部分行业的部分问题,普适性差。

2.国内预训练模型的玩家们可用的中文数据集有限,就是我们知道的几种主流常用数据来源。在有限的数据集里,大家使用的数据未免重复,而因此研究出来的大模型能力就比较接近。走相同的路径做类似的事情,有点浪费资源与算力。

3.大模型是否优秀,不仅依赖数据的精度与网络结构,也是对其与行业结合软硬件协同能力的比拼。单纯只强调低头研发高参数集、强算力模型等的方向,轻视一些与行业的协同二次调试等问题,就会陷入闭门造车的局面,限制了落地的路,走不远。

4.一些预训练大模型经过极致化(数据、模型、算力)的发展后,也有可能面临小众、泛用性差的情形,比如一些高校研发的预训练大模型只能在小众的学术圈子里使用,无法工程化使用,最终沦为一次性的模型,浪费大量的资源。

虽然我们看到各种大模型在集中式爆发发展,但其实目前大模型行业还处于初始阶段,面临一些问题与卡点无可避免。行业内人士应该会更加敏感地体察到这些现象,谁也不会想要让这些荆棘以常态的模式横亘在发展前路上。大家花费精力激荡脑力,想要发展的共识是打造出行业内唯一的模型。那么,对于行业来说,究竟什么样的大模型才是最好的呢?

究竟什么是好的大模型?

在这场battle里,大模型向着规模极致化的方向发展。那么如何衡量大模型的能力,是一个绕不开的话题。衡量大模型能力的关键要素是,参数的规模和与细分行业结合对接的软硬件协同能力。我们在各种新闻中经常可以看到,机构或者是企业用数据集或者是参数规模,以及跑分来彰显自己的模型水平。

参数的规模决定了预训练模型有多大。参数越大一般来说意味着大模型具备更多的能力,泛化性、通用性也更加强。成功的大模型背后,还需要大规模分布式训练、并行计算、软硬件协同优化等能力。

脑极体曾在GPT-3最火的时候,参与过一次试验:用GPT-3写个文章出来。我们给第三方提供了一些写作的思路,想要看一下机器写出来的效果怎么样(其实是想看看自己离失业还有多久)。结果得到的反馈是GPT-3在理解能力方面很牛很强,但是让它去生产一篇稿件,对于它来说还是比较复杂而且困难的一件事情。

另外,排队等待使用的企业过多,间次使用等待的时间过长,,并且稿件本身也需要好几天才能完成。看似一个简单的写稿需求,对无所不能的GPT-3来说应该是小case,结果无疾而终。存在类似小需求的企业应该还是有很多,而这些需求都需要排队等待调用大量的算力,并且磨几天才能产出,而花时间花钱结果还存疑。当时行业里最好的大模型落地都如此艰难,大模型的落地还是有点不理想。

好的大模型不仅仅需要模型、算力等本身性能方面强劲,关键也需要看与某垂直行业结合时产品化落地的能力是否实用。落地的大模型需要解决一些行业具体的问题,与行业结合时二次开发、对接的成本尽可能地小,否则它强势的性能也只是空中楼阁,中看不中用。大模型需要工程落地的能力,从而打开更多的边界,让更多领域和企业来使用。

大模型的未来趋势

从产业价值的角度来看,预训练大模型带来了一系列可能性,让产学研各界看到了由弱人工智能走向强人工智能,走向工业化、集成化智能化的路径。在这样的驱动背景下,大模型也会有一些可预见的趋势与发展。

1.我们知道事物的发展规律是优胜劣汏,在竞争的角逐中,一些标榜独特性的小众模型的泛化能力差,越独特可能也就意味着越小众,使用的范围十分有限,可能会逐渐走向消亡。

2.崛起的大模型不仅仅是泛化性、落地能力强,创新性强、训练数据规模大,也需要具备不断生长革新的能力,也就是自我进化、智能化的能力。大模型的未来需要创新,也需要自我生长,向可持续、可进化的方向发展,架构上的革新会让模型更加高效。

3.大模型能力的端侧化,“芯片化”。将模型的一些运算存储等能力像芯片一样固化在一些端侧硬件设备中,在使用的过程中不用在重装的模型中耗时调用算力与数据,可以实现随时调用随时使用。现下的模型多是重装大模型,使用的话需要调用庞大的算力和运行时间,未来的大模型会逐渐改变这种模式。

4.大模型的标准化与模块化发展。大模型的评估未来会有标准化成熟的体系来衡量,这个体系也会是行业内公认的标准,用这个标准来衡量大模型的优劣而不是现下自卖自夸式的标榜。

目前我们在各大榜单上看到的分数来自于大型的数据集和算力模型,让开发更加容易,调试与训练的周期越来越短。但我们也知道大量的数据喂养出来的模型回报并不是百分百地正确。喂养的数据知识的极大扩展也无法保证结果的确定性,这也是大模型最大的弱点,而这也意味着对于大模型的探索需要持续的迭代发展。

预训练大模型是面向通用智能最高阶的探索,也是AI持续变革的核心发展方向与动力,随着AI不断深入产业与各学科领域的过程中,大模型在军备battle和百家争鸣,算力、数据、规模都会朝着极致化的方向发展。未来新的预训练大模型将会与那些计算量巨大的科学领域,比如制药、脑科学、医疗、生物计算等领域相互结合,带来巨大的价值。

我们的那些悬而未解的难题,在未来都会有答案,无论最终这个结论正确与否,都能够为前沿的发展、探索带来很多灵感与角度,世界的多面体将会被打开。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • AI
    AI
    +关注

    关注

    87

    文章

    26352

    浏览量

    263945
  • 数据集
    +关注

    关注

    4

    文章

    1176

    浏览量

    24340
  • nlp
    nlp
    +关注

    关注

    1

    文章

    463

    浏览量

    21812
  • 训练模型
    +关注

    关注

    1

    文章

    35

    浏览量

    3755
  • 算力
    +关注

    关注

    1

    文章

    647

    浏览量

    14329
收藏 人收藏

    评论

    相关推荐

    从Google多模态大模型看后续大模型应该具备哪些能力

    前段时间Google推出Gemini多模态大模型,展示了不凡的对话能力和多模态能力,其表现究竟如何呢?
    的头像 发表于 12-28 11:19 452次阅读
    从Google多模态大<b class='flag-5'>模型</b>看后续大<b class='flag-5'>模型</b>应该具备哪些能力

    模型数据集:突破边界,探索未来

    随着人工智能技术的快速发展,大型预训练模型如GPT-4、BERT等在自然语言处理领域取得了显著的成功。这些大模型背后的关键之一是庞大的数据集,为模型提供了丰富的知识和信息。本文将探讨大模型
    的头像 发表于 12-06 16:10 284次阅读

    模型数据集:构建、挑战与未来趋势

    随着深度学习技术的快速发展,大型预训练模型如GPT-4、BERT等在各个领域取得了显著的成功。这些大模型背后的关键之一是庞大的数据集,为模型提供了丰富的知识和信息。本文将探讨大模型数据
    的头像 发表于 12-06 15:28 604次阅读

    AD539没有spice模型,该如何仿真?

    的正弦波,VX增益用的是1V的直流电,但输出端Vw处始终没有波形,检查不出原因,谁能指导一下,或者告诉我可以在哪个软件上仿真,或者给我一个AD539的spice模型文件,谢谢了。根据下面这个电路图连接的电路。
    发表于 11-21 08:03

    请问AD8230没有spice模型吗?

    如题,在AD8230网页上没有看到spice模型。 请问在哪里可以找到?
    发表于 11-17 06:03

    盘古大模型与ChatGPT的模型基础架构

    华为盘古大模型以Transformer模型架构为基础,利用深层学习技术进行训练。模型的每个数量达到2.6亿个,是目前世界上最大的汉语预备训练模型之一。这些
    的头像 发表于 09-05 09:55 1397次阅读

    AscendCL快速入门——模型推理篇(上)

    拿到?很遗憾,用上边这两个接口,我们是拿不到其指针的。其实也好理解,对于很多开发者来讲,模型加载进来之后,只要返回给开发者一个modelId,开发者能调用模型进行推理就够了,模型在内存中存放
    发表于 08-24 11:04

    keras顺序模型与函数式模型

    keras提供两种搭建模型的方式: 1. 顺序模型(也可看做是函数式模型的一种特殊情况) 2. 函数式模型 两种方式优点缺点顺序模型
    发表于 08-18 06:01

    用于快速模型模型调试器11.20版用户指南

    用于快速模型模型调试器是用于可扩展集群软件开发的完全可重定目标的调试器。它旨在满足SoC软件开发人员的需求。 Model Debugger具有易于使用的GUI前端,并支持: •源代码级调试
    发表于 08-10 06:33

    用于快速模型模型调试器11.21版用户指南

    用于快速模型模型调试器是用于可扩展集群软件开发的完全可重定目标的调试器。它旨在满足SoC软件开发人员的需求。 Model Debugger具有易于使用的GUI前端,并支持: •源代码级调试
    发表于 08-09 07:57

    AI大模型和小模型是什么?AI大模型和小模型的区别

      随着人工智能的不断发展和应用,机器学习模型的大小越来越成为一个重要的问题。在机器学习中,我们通常将模型分为两类:大模型和小模型。本文将介绍AI大
    发表于 08-08 16:55 5290次阅读

    模型Transformer工作原理

    模型
    恬静简朴1
    发布于 :2023年07月18日 17:14:58

    将Pytorch模型转换为DeepViewRT模型时出错怎么解决?

    我正在寻求您的帮助以解决以下问题.. 我在 Windows 10 上安装了 eIQ Toolkit 1.7.3,我想将我的 Pytorch 模型转换为 DeepViewRT (.rtm) 模型,这样
    发表于 06-09 06:42

    三相不控整流的数学模型

    三相整流的模型简单,但是具体的各个时刻的电流,电压波形,在VSR电路中究竟是怎样的。是否能用函数描述,各个不同时刻电流的波形。并用mathcad得出实际波形
    发表于 05-23 13:44

    直播预告 | CSDN《开谈》—开源大模型崛起

    当今,开源大模型已经成为人工智能领域的重要趋势。其发展离不开深度学习技术的不断发展和优化,同时也离不开社区的协作和创新。未来,开源大模型在哪些领域和应用场景中得到更广泛的应用?具有哪
    的头像 发表于 05-17 01:25 253次阅读
    直播预告 | CSDN《开谈》—开源大<b class='flag-5'>模型</b>崛起