0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

大模型遭遇算力墙,探索超级应用的发展路径

OSC开源社区 来源:OSC开源社区 2025-02-10 17:24 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

最近,开源中国 OSCHINA、Gitee 与 Gitee AI

90c46f16-e788-11ef-9310-92fbcf53809c.png

全文如下:

大模型撞上 “算力墙”,超级应用的探寻之路

文 / 傅聪

近日,大模型教父 Sam Altman 在 Reddit 上的评论透露出 GPT-5 难产的隐忧,直言有限的算力约束让 OpenAI 面临迭代优先级的艰难抉择,在通往 AGI 的道路上一路高歌猛进的领头羊似乎撞上了“算力墙”。

除此之外,能耗、资金,难以根除的幻觉,有限的知识更新速率、有限的上下文宽度、高昂的运营成本等等,都让外界对大模型的发展忧心忡忡。面对棘手的困境与难题,大模型的未来,又该何去何从呢?

下一代 “明星产品”

“算力墙”下,模型效果边际收益递减,训练和运营成本高昂,在这个时间节点,最好的 AI 产品会是什么?奥特曼、盖茨、小扎、吴恩达、李彦宏等一众大佬给出了一致的答案 —— 智能体(AI Agent)。

2025,将会是智能体元年。

什么是智能体?目前业界一致认可的公式是“智能体 = LLM + 记忆 + 规划 + 工具”:

90eefc36-e788-11ef-9310-92fbcf53809c.png

大模型充当智能体的“大脑”,负责对任务进行理解、拆解、规划,并调用相应工具以完成任务。同时,通过记忆模块,它还能为用户提供个性化的服务。

智能体为什么是“算力墙”前 AI 产品的最优解决方案?这一问题的底层逻辑包含两个方面。

1. LLM 是目前已知最好的智能体底层技术。

智能体作为学术术语由来已久,从上世纪的“符号、专家系统”【1】,到十年前风头无两的强化学习(代表作 AlphaGo【3】),再到现在的 LLM,agent 底层技术经历了三个大的阶段。

符号系统的缺点在于过于依赖人工定义的“符号”和“逻辑”,强化学习苦于训练数据的匮乏和“模态墙”,而 LLM 一次性解决这些问题。

人类语言就是一种高度抽象、跨模态、表达力充分的符号系统,同时它作为知识的载体,自然地存在大量数据可用于训练,还蕴含了人类的思维模式。

在此基础上训练得到的 LLM,自然具备被诱导出类人思考的潜力。在 COT(思维链)【4】、TOT(思维树)【5】等技术的加持下,大模型正在学习拆解自己的“思维”,OpenAI 的 o1 就是典型案例,强化了推理能力的同时,也大大缓解了幻觉问题。

2. 大模型做不到的,“现存工具”强势补位。

无法持续更新的知识库,可以通过 RAG(Retrieval Augmented Generation,检索增强生成)来解决。

RAG 的出现,让各界越来越深刻地认识到,大模型没必要存储那么多知识,只需要如何使用搜索引擎这个外部工具即可。大模型可以在搜索结果上做进一步的信息筛选和优化,而搜索引擎弥补了大模型的知识缺陷,实现了 1+1>=2 的效果。

RAG 可以被理解为智能体的最简单形式。未来的智能体可以实现多种工具的混合使用,甚至多智能体协作,这不是猜想,我们已经在学术界看到了惊艳的早期方案【6,7】。

“四把钥匙”解锁潜力

1. 领域模型小型化、平台化会成为新趋势。

“算力墙”是一方面因素,但基座模型的趋同化和运营成本是源动力。GPT、Claude、Gemini 虽然各有所长,但实际体验越来越让大家分不出差异,基座模型作为智能体核心,决定了智能体效果下限,人人训练基座的可能性越来越低,“基座服务化”很可能是最合理的商业模式。

甚至,在错误不敏感的应用领域,出现一个开源、无商业限制的基座的可能性也很高。小应用开发商很可能很容易获得一个低成本 serving 的“量化小基座”。

“7B” 是一个 magic number!无论是 RAG 里的向量表征模型,还是文生图、文本识别(OCR)、语音合成(TTS)、人脸识别等等垂直领域,一个 1B~7B 的小模型已经可以满足很多生产、应用需要,并且效果也在逐步推高【8,9,10】。这些模型,作为智能体的“三头六臂”,不需要太“大”。

同时,从学术角度来讲,各种领域专用模型的技术最优解也在逐渐趋同。应用开发者越来越不需要了解模型的底层技术,只需要懂得如何设计自己应用的任务流,懂一点点 COT 系列的 prompt engineering 的技巧,就可以利用 Maas(Model as a service)、Aaas(Agent as a service)这样的平台,如玩乐高一般搭建自己的 AI 云原生应用。

2. 算力层深挖定制化、低能耗的可能性,但固化 transformer 可能不是最优解

虽说智能体不需要太大的模型,但其运营成本(模型推理计算成本)仍然较高。在短时间内,算力、能源仍然会是大模型领域令人头疼的高墙。

根据报告【1】,能源消耗将会是 2030 模型 scaling 最卡脖子的因素。也就是说,在算力到达瓶颈之前,首先可能会出现电能供应不足甚至交不起电费的问题。因此,算力层可以根据大模型底层技术的特性,产出针对性的芯片,尤其是加速运算和降低能耗。这是未来 AI 芯片领域的最优竞争力。

那么,把 transformer “焊死”到板子上就是最佳方案吗?我知道你很急,但你先别急。大模型底层框架还存在底层路线之争。

我们知道,Transformer 架构呈现了 O (n²) 的理论计算复杂度,这里的 n 指的是大模型输入序列的 token 数量,但其前任语言模型担当 RNN 只有 O (n) 的理论计算复杂度。

最近,以 Mamba、RWKV 为代表的类 RNN 结构死灰复燃,公开挑战 transformer 地位。更有最新研究【13】从理论上表明,RNN 对比 Transformer 的表达力,只差一个 in-context-retrieval。在这个方向的持续投入下,我们很可能会迎接一个介于 RNN 和 Transformer 之间的“新王”。

90fab940-e788-11ef-9310-92fbcf53809c.png

因此,算力层短时间内的主题仍然是“半通用化”“高算力”“低能耗”。

3. 合成数据驱动新产业链

早有机构预测,人类社会可利用训练数据会在 2026 年耗尽。这可能还是一个乐观估计。光头哥 Tibor Blaho 还曾爆料,OpenAI 用于训练“猎户座“的数据中,已经包含了由 GPT-4 和 O1 产出的合成数据。

这不仅是因为自然存在的高质量文本的匮乏,还因为智能体所需的数据很可能需要显式地蕴含任务思考和规划的拆解信息。然而,针对合成数据的问题,学术界早有预警,模型可能会在合成数据上的持续训练中崩坏【14】。

9112ce18-e788-11ef-9310-92fbcf53809c.png

这是因为合成数据往往携带“错误”和“幻觉”,在一些冷门的知识上尤甚。因此,合成数据的实用秘诀是“去粗取精”,需要一定程度的“人机协同”。在如何构造大批量、高质量的合成数据,让智能体能够在持续地与用户的交互中自我优化而不是劣化,将会成为众多无机器学习技术背景的开发者的头号难题。

因此,面向数据进行定制化合成、评估、测试、标注、人机协同的“纯数据”产业,有可能会走上越来越重要的位置,不仅仅是服务于基座模型厂商。

4. 多模态对齐很可能给基座模型带来质的提升

最新研究发现,在没有预先约束和约定下,不同模态领域的最强模型正在向着某个世界模型认知领域收缩【15】,AI 模型对不同概念的数字化表达(向量表征)会逐步趋同,构建对这个世界的统一认知。这也符合我们人类对世界的认知:人类通过语言文字这种符号,将不同模态的信号统一地表达,并在脑中构建了某种受限于当前科技水平的统一模型,这是人类意识、社会沟通的前提。

912a2676-e788-11ef-9310-92fbcf53809c.png

从这个角度理解,多模态大模型很可能是通向真正 AGI 的必经之路。将多模态信号统一对齐,是智能体与这个世界“无障碍”交互的前提,换个新潮的词汇,就是我们期待的“具身智能”。

谁不想拥有一台自己专属的“Javis” 呢?而多模态大模型的突破,也同样依赖前文所述的算力和数据上的沉淀。

参考文献 【1】https://epoch.ai/blog/can-ai-scaling-continue-through-2030 【2】Newell, A., & Simon, H. A. (1956). The Logic Theory Machine – A Complex Information Processing System. IRE Transactions on Information Theory, 2(3), 61-79. 【3】Silver, David, et al. "Mastering the game of Go with deep neural networks and tree search." nature 529.7587 (2016): 484-489. 【4】 Wei, Jason, et al. "Chain-of-thought prompting elicits reasoning in large language models." Advances in neural information processing systems 35 (2022): 24824-24837. 【5】Yao, Shunyu, et al. "Tree of thoughts: Deliberate problem solving with large language models." Advances in Neural Information Processing Systems 36 (2024). 【6】Karpas, Ehud, et al. "MRKL Systems: A modular, neuro-symbolic architecture that combines large language models, external knowledge sources and discrete reasoning." arXiv preprint arXiv:2205.00445 (2022). 【7】Schick, Timo, et al. "Toolformer: Language models can teach themselves to use tools." Advances in Neural Information Processing Systems 36 (2024). 【8】https://huggingface.co/spaces/mteb/leaderboard 【9】https://github.com/deep-floyd/IF 【10】https://developer.nvidia.com/blog/pushing-the-boundaries-of-speech-recognition-with-nemo-parakeet-asr-models/ 【11】Mamba: Linear-time sequence modeling with selective state spaces 【12】Peng, Bo, et al. "Rwkv: Reinventing rnns for the transformer era." arXiv preprint arXiv:2305.13048 (2023). 【13】Wen, Kaiyue, Xingyu Dang, and Kaifeng Lyu. "Rnns are not transformers (yet): The key bottleneck on in-context retrieval." arXiv preprint arXiv:2402.18510 (2024). 【14】AI Models Collapse When Trained on Recursively Generated Data’ 【15】The Platonic Representation Hypothesis

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • AI
    AI
    +关注

    关注

    89

    文章

    38174

    浏览量

    296933
  • 大模型
    +关注

    关注

    2

    文章

    3449

    浏览量

    4974
  • LLM
    LLM
    +关注

    关注

    1

    文章

    341

    浏览量

    1258

原文标题:大模型撞上“算力墙”,超级应用的探寻之路

文章出处:【微信号:OSC开源社区,微信公众号:OSC开源社区】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    湘军,让变成生产

    脑极体
    发布于 :2025年11月25日 22:56:58

    存储超级周期来袭,得瑞领新以PCIe 5.0锚定AI存赛道

    当AI大模型与智产业进入爆发式增长期,存储作为“释放的核心基石”,正迎来技术革新与场景适配的双重变革。得瑞诚邀各界伙伴莅临MTS2026,共话AI存储创新机遇,共探智
    的头像 发表于 11-24 14:46 100次阅读

    中科曙光亮相2025中国超级大会

    11月8日,第七届中国超级大会在北京召开。中科曙光作为常务理事成员单位加入“九源智能计算系统生态联合体”,并携手中国信通院重磅发布《2025中国
    的头像 发表于 11-08 16:57 3435次阅读

    硅芯科技:AI突破,新型堆叠EDA工具持续进化

    电子发烧友网报道(文/黄晶晶)先进封装是突破危机的核心路径。2.5D/3D Chiplet异构集成可破解内存、功耗与面积
    的头像 发表于 10-31 09:16 1.2w次阅读
    硅芯科技:AI<b class='flag-5'>算</b><b class='flag-5'>力</b>突破,新型堆叠EDA工具持续进化

    【「AI芯片:科技探索与AGI愿景」阅读体验】+AI的未来:提升还是智力

    体现在: 1、收益递减 大模型的基础的需要极大的,这首先源于昂贵的高性能AI芯片,然后是宝贵的电力、水等与环境相关的资源。 收益递减体现在: ①模型大小 ②训练数据量 ③训练算法的
    发表于 09-14 14:04

    科技上线赤兔推理引擎服务,创新解锁FP8大模型

    模型轻量化部署方案。用户通过远程平台预置的模型镜像与AI工具,仅需50%的GPU即可解
    的头像 发表于 07-30 21:44 732次阅读

    一文看懂AI集群

    最近这几年,AI浪潮席卷全球,成为整个社会的关注焦点。大家在讨论AI的时候,经常会提到AI集群。AI的三要素,是、算法和数据。而AI
    的头像 发表于 07-23 12:18 995次阅读
    一文看懂AI<b class='flag-5'>算</b><b class='flag-5'>力</b>集群

    云XR(AR/VR)底座关键特征与技术路径

    云XR(AR/VR)底座是支撑扩展现实技术规模化落地的核心基础设施,当前发展呈现以下关键特征与技术路径: 一、
    的头像 发表于 06-19 08:10 488次阅读
    云XR(AR/VR)<b class='flag-5'>算</b><b class='flag-5'>力</b>底座关键特征与技术<b class='flag-5'>路径</b>

    华为助力湖北移动打造“九州”互联网区域标杆

    数字经济时代,是关键新质生产,中国移动“九州”互联网是促进
    的头像 发表于 05-13 16:11 715次阅读

    芯片的生态突围与革命

    据的爆发式增长,大芯片已成为科技竞争的核心领域之一。   大芯片的核心应用场景丰富多样。在人工智能训练与推理方面,大模型(如 GPT
    的头像 发表于 04-13 00:02 2617次阅读

    DeepSeek对芯片的影响

    DeepSeek模型,尤其是其基于MOE(混合专家)架构的DeepSeek-V3,对芯片的要求产生了深远影响。为了更好地理解这一影响,我们可以从几个方面进行分析。一.MOE架构对
    的头像 发表于 02-07 10:02 1630次阅读
    DeepSeek对芯片<b class='flag-5'>算</b><b class='flag-5'>力</b>的影响

    中心的如何衡量?

    作为当下科技发展的重要基础设施,其的衡量关乎其能否高效支撑人工智能、大数据分析等智能应用的运行。以下是对智中心算衡量的详细阐述:一、
    的头像 发表于 01-16 14:03 4257次阅读
    <b class='flag-5'>算</b>智<b class='flag-5'>算</b>中心的<b class='flag-5'>算</b><b class='flag-5'>力</b>如何衡量?

    科技云报到:要更要“利”,“精装”触发大模型产业新变局?

    科技云报到:要更要“利”,“精装”触发大模型产业新变局?
    的头像 发表于 01-16 10:24 802次阅读

    浪潮信息与智源研究院携手共建大模型多元生态

    人工智能技术的快速发展。浪潮信息与智源研究院将充分整合各自在、算法和技术创新方面的优势资源,共同探索模型多元
    的头像 发表于 12-31 11:49 877次阅读