0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

LLM风口背后,ChatGPT的成本问题

E4Life 来源:电子发烧友网 作者:周凯扬 2023-02-15 01:19 次阅读
趁着ChatGPT这一热门话题还未消退,我们来聊一聊这类大规模语言模型(LLM)或通用人工智能(AGI)背后的细节。毕竟目前相关的概念股跟风大涨,但还是有不少人在持观望态度。无论是国外还是国内,有没有可能做出下一个ChatGPT?以及打造这样一个模型所需的研发成本和运营成本究竟是多少。

ChatGPT背后的成本,以及GPU厂商等候多时的增长点

首先,ChatGPT是OpenAI预训练的对话模型,除去训练本身所需的硬件与时间成本外,运营时的推理成本也要算在其中。根据UBS分析师Timothy Arcuri的观点,ChatGPT使用到了至少1万块英伟达的GPU来运营这一模型。不过这还是相对较为保守的数据,根据Semianalysis分析师Dylan Patel对模型参数、日活跃用户数以及硬件利用率等种种因素的分析,他粗略估计OpenAI需要用到3617个HGX A100服务器来维持ChatGPT的运转。
CleanShot 2023-02-14 at 17.46.07@2x
HGX A100 / 英伟达

需要注意的是,该分析中的HGX A100服务器是8块A100 SXM的定制化模块,并非DGX A100这样集成了AMD CPU的标准服务器模块,也就是说共需28936块英伟达A100 GPU。且不说A100本身就高昂的售价,更何况现在还有一定的溢价。一张40GB的A100 PCIe卡,目前在亚马逊上的单价为8000多美元,而80GB的A100 PCIe卡价格在15000美元左右浮动。

由此估算,运行ChatGPT的前期设备投入成本少说也有2.3亿美元,这其中还没算进CPU、内存、硬盘和网关等设备的硬件成本。所有GPU同时运转时的TDP功耗达到7234kW。按照美国商用电价来计算的话,哪怕是每日运转单由GPU带来的电费也至少要两万美元以上。这样的设备成本除非是微软、谷歌、亚马逊这样本就手握大把服务器硬件资源的厂商,否则很难支撑这一模型的日常运转。

接着我们再从每次查询的推理成本这个角度来看,如果只负责在服务器上部署ChatGPT的OpenAI无需考虑设备购入成本,而是只考虑GPU云服务器的定价。根据Dylan Patel的估算,ChatGPT每次查询的成本为0.36美分,约合2.4分人民币,每天在硬件推理上的成本也高达70万美元。由此来看,无论是OpenAI现在免费提供的ChatGPT,还是微软在Bing上启用的ChatGPT,其实都是在大把烧钱。

要知道,现在还只是用到了ChatGPT这一文本语言模型,根据OpenAI的CEO Sam Altman的说法,他们的AI视频模型也在准备当中。而要想打造更复杂的视频模型,势必会对GPU算力提出更高的要求。

未来的硬件成本会更低吗?

对于任何一个想要运行ChatGPT这类服务的厂商,打造这样一款应用都要付出不小的成本,所以现阶段还是微软、谷歌之类的巨头相互博弈。但Sam Altman也表示,随着越来越多的竞争出现,毋庸置疑会把硬件成本压低,也会把每个Token的定价压低。
CleanShot 2023-02-14 at 17.47.00@2x
Jasper AI写作工具的定价 / Jasper.ai

大家可以参照一下其他利用OpenAI的GPT-3的AI工具,比如Jasper。Jasper作为一个人工智能写作软件,每月需要缴纳50美元,才能享受5万字的写作字数上限。而反观ChatGPT,哪怕是目前的免费版也能帮你写就长篇故事了。而这些工具鼓吹的多种模板,在ChatGPT中也只是换一种问法而已。

Sam Altman认为会有更多的玩家入局AGI,如此一来ChatGPT这种类型的服务会出现在更多的产品和应用中,而不再只是作为大厂的附庸,比如只在微软的Bing、Office中大规模使用等,这也是OpenAI还考虑授权给其他公司的原因。

不过如果依照谷歌的访问和搜索量来部署ChatGPT或Bard这样类似模型的话,所需的成本必定要远远高于Bing,毕竟谷歌依然是目前国际领先的搜索引擎。

如果谷歌用其TPU之类的专用硬件来完成LLM的训练与推理,其成本必然显著低于GPU这类通用硬件的,毕竟TPU这类ASIC芯片在量产成本和运行功耗上都有着得天独厚的优势。

但谷歌如果使用专用硬件的话,可能会存在强制绑定的问题,哪怕谷歌选择公开TPU商业运营,如果想用集成Bard的合作客户也基本与谷歌云绑定了,就像现在的ChatGPT与微软Azure强制绑定一样。而且如果Bard出现算法路线上的大变动,TPU这种ASIC方案很难再对其进行针对性优化。

由此可以看出,虽然大小入局者众多,但真正落地、可大规模使用且还算好用的产品还是只有ChatGPT一个,要想等到行业内卷压低成本,可能还得等上很长一段时间。


ChatGPT如何实现盈利?

微软高调宣布与OpenAI合作,并将ChatGPT融入Bing等一系列微软产品中,这已经不是什么新闻了。但其实这样的合作关系昭示了ChatGPT的一种盈利方式,那就是授权。除了微软这种深度合作的厂商以外,其他应用开发商也可以采用授权的方式,将ChatGPT集成到自己的产品中去。

不过Sam Altman在接受外媒采访时表示,他们目前在授权上的合作还并不多。由此猜测,要么是此类授权费用昂贵,要么就是缺少成熟的产品形态来应用这一技术,毕竟当下还算强相关的应用也只有搜索引擎、写作工具以及AI助手等。再说,对于感兴趣想尝鲜的厂商来说,直接接入OpenAI的API或许价格反倒更低。

另一种盈利方式,也是现在最流行且已被普遍接受的收费模式,订阅制。2月1日,OpenAI正式推出了20美元一个月的ChatGPT Plus,提供高峰时期的访问、更快的响应速度以及新功能和改进的抢先体验。


结语

总的来说,ChatGPT这类AGI作为元宇宙之后的又一大风口,激发了一股初创公司入局LLM的热潮。但从客观来看,对于这些初创公司来说,他们打从一开始根本不需要考虑市场风险,比如这会不会是个伪需求。他们更应该担心的应该是技术风险,也就是究竟有没有这个实力和资本去打造一个可用的LLM。


声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • ChatGPT
    +关注

    关注

    27

    文章

    1403

    浏览量

    4529
  • LLM
    LLM
    +关注

    关注

    0

    文章

    198

    浏览量

    232
收藏 人收藏

    评论

    相关推荐

    在FPGA设计中是否可以应用ChatGPT生成想要的程序呢

    当下AI人工智能崛起,很多开发领域都可看到ChatGPT的身影,FPGA设计中,是否也可以用ChatGPT辅助设计呢?
    发表于 03-28 23:41

    100%在树莓派上执行的LLM项目

    ChatGPT的人性口语化回复相信许多人已体验过,也因此掀起一波大型语言模型(Large Language Model, LLM)热潮,LLMChatGPT
    的头像 发表于 02-29 16:29 606次阅读
    100%在树莓派上执行的<b class='flag-5'>LLM</b>项目

    【国产FPGA+OMAPL138开发板体验】(原创)6.FPGA连接ChatGPT 4

    : ChatGPT 4说:\'优化硬件设计需要考虑很多因素,如功耗、性能、成本等。你可以从改进算法、优化数据路径、减少冗余操作等方面入手。\'\"); // 7. 关闭与ChatGPT 4服务器的连接
    发表于 02-14 21:58

    Long-Context下LLM模型架构全面介绍

    随着ChatGPT的快速发展,基于Transformer的大型语言模型(LLM)为人工通用智能(AGI)铺平了一条革命性的道路,并已应用于知识库、人机界面和动态代理等不同领域。然而,存在一个普遍
    的头像 发表于 11-27 17:37 540次阅读
    Long-Context下<b class='flag-5'>LLM</b>模型架构全面介绍

    chatGPT的175Billion个参数是哪儿来的

    最近大语言模型模型LLM很火,大家总是说chatgpt的175Billion参数。做算法的人更关心网络的结构,而我这种做硬件的人一直很好奇这个参数是怎么计算的。
    的头像 发表于 11-01 16:57 741次阅读
    <b class='flag-5'>chatGPT</b>的175Billion个参数是哪儿来的

    检索增强LLM的方案全面的介绍

    分分享了 ChatGPT 这类模型是如何一步一步训练的,后半部分主要分享了 LLM 模型的一些应用方向,其中就对检索增强 LLM 这个应用方向做了简单介绍。
    的头像 发表于 09-08 16:39 849次阅读
    检索增强<b class='flag-5'>LLM</b>的方案全面的介绍

    chatgpt是什么意思 ChatGPT背后的技术原理

      今天我们为大家带来的文章,深入浅出地阐释了ChatGPT背后的技术原理,没有NLP或算法经验的小伙伴,也可以轻松理解ChatGPT是如何工作的。  ChatGPT是一种机器学习自然
    发表于 07-18 17:12 0次下载

    用Chiplet解决ASIC在LLM上的成本问题

    电子发烧友网报道(文/周凯扬)虽说最近靠着GPT大语言模型的热度,英伟达之类的主流GPU公司赚得盆满钵满,但要说仗着GPU的高性能就能高枕无忧的话,也就未免有些痴人说梦了。未来随着LLM的继续发展
    的头像 发表于 07-18 00:15 927次阅读
    用Chiplet解决ASIC在<b class='flag-5'>LLM</b>上的<b class='flag-5'>成本</b>问题

    ChatGPT风口上,起飞的只有英伟达

    然而,AI芯片大火是由ChatGPT带动的。自ChatGPT爆火之后,全球科技企业都加入到AI大模型的研发,各种类ChatGPT的AI大模型相继推出。尽管OpenAI的ChatGPT
    的头像 发表于 06-27 15:49 485次阅读

    ChatGPT 是什么

    ChatGPT 是什么? ChatGPT 是一种大型语言模型(LLM),由OpenAI开发。 它使用深度学习技术来模拟人类的语言生成和理解能力,可以用于自然语言处理、对话系统等多种
    发表于 06-27 13:55 1840次阅读

    ChatGPT风口上,AI的机遇与泡沫同在

    然而,AI芯片大火是由ChatGPT带动的。自ChatGPT爆火之后,全球科技企业都加入到AI大模型的研发,各种类ChatGPT的AI大模型相继推出。尽管OpenAI的ChatGPT
    的头像 发表于 06-05 15:11 549次阅读

    【核芯观察】ChatGPT背后的算力芯片(三)

    在今年以来可以说是最热的赛道,而AI大模型对算力的需求爆发,也带动了AI服务器中各种类型的芯片需求,所以本期核芯观察将关注ChatGPT背后所用到的算力芯片产业链,梳理目前主流类型的AI算力芯片产业上下游企业以及运作模式。   接上期Chat
    的头像 发表于 06-04 05:05 2109次阅读
    【核芯观察】<b class='flag-5'>ChatGPT</b><b class='flag-5'>背后</b>的算力芯片(三)

    探索ChatGPT的信息抽取能力

    通过人工检查ChatGPT的回复,发现ChatGPT倾向于识别比标注的跨度更长的sapn,以更接近人类的偏好。因此,之前的硬匹配(hard-matching)策略可能不适合如ChatGPTL
    的头像 发表于 06-01 14:45 889次阅读
    探索<b class='flag-5'>ChatGPT</b>的信息抽取能力

    【核芯观察】ChatGPT背后的算力芯片(二)

    在今年以来可以说是最热的赛道,而AI大模型对算力的需求爆发,也带动了AI服务器中各种类型的芯片需求,所以本期核芯观察将关注ChatGPT背后所用到的算力芯片产业链,梳理目前主流类型的AI算力芯片产业上下游企业以及运作模式。   接上期Chat
    的头像 发表于 05-28 00:34 2363次阅读
    【核芯观察】<b class='flag-5'>ChatGPT</b><b class='flag-5'>背后</b>的算力芯片(二)

    ChatGPT背后的算力芯片

    在今年以来可以说是最热的赛道,而AI大模型对算力的需求爆发,也带动了AI服务器中各种类型的芯片需求,所以本期核芯观察将关注ChatGPT背后所用到的算力芯片产业链,梳理目前主流类型的AI算力芯片产业上下游企业以及运作模式。   Chat
    的头像 发表于 05-21 00:01 3087次阅读
    <b class='flag-5'>ChatGPT</b><b class='flag-5'>背后</b>的算力芯片