0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

ChatGPT等大模型的发展,对GPGPU有怎样的性能要求?

lPCU_elecfans 来源:电子发烧友网 2023-03-10 09:51 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

最近,在ChatGPT火了之后,国内互联网科技圈不时传出计划或者正在研究类ChatGPT大模型的消息。

然而在相关技术真正面世之前,近日,OpenAI又放出新消息,该公司正式开放了ChatGPT的API接口,开发人员可以将ChatGPT模型集成到他们的应用程序和产品中。这意味着ChatGPT将会以更快的速度占领市场,因此国内企业在大模型的研究中更要加快进度。

在大模型发展中,国内具备了怎样的条件

在类ChatGPT及其他大模型的发展中,国内是否具备相应的条件呢?登临科技联合创始人王平日前在接受电子发烧友采访的时候谈到了几点:

他认为,国内在这方面是具备一定条件的,首先是数据,这是大模型技术中非常重要的一个生产要素,国内在数据上是有一定积累的;其次是人才,在这方面国内有不少优秀的算法人才,在大模型方面具备一定的知识基础与经验;此外,目前国内也有比较不错的AI框架平台以及具备核心技术完全自主研发能力的GPGPU厂商。整体来说整套的生产要素上都有一定的基础,只不过在成熟度上跟OpenAI相比还存在一定差距。

具体来看,在AI框架方面,OpenAI能够推出能力如此强大的ChatGPT,它应该有自己专门的框架。现在各种商用的框架,包括国产的飞桨paddlepaddle,以及Tensorflow或者Pytorch,其实更多是用于常规模型,而不是大模型的调度。因此在发展ChatGPT类大模型方面,还存在一些挑战,需要去持续创新。

在人才方面,虽然目前国内具备一些算法相关的人才,然而整体而言是处于较为紧缺的状态。另外大模型的训练,也需要算法工程师具备丰富的经验积累,因为模型太大,中间涉及很多技术,这并不是短时间砸钱就能达到的。

在硬件层面,国内的GPGPU具有自身的特色,甚至在一些领域比NVIDIA更具优势,在ChatGPT或者相关大模型上,也有它的优势。不过整体来看,还是存在差距,需要不断进行创新和迭代,要不停的向前走。

大模型发展对GPGPU提出了怎样的要求

ChatGPT火热之后,可以明显看到国内在AI大模型方面的发展将会加速,这对国内GPGPU来说意味着什么呢?大模型的发展,必然少不了GPGPU,GPGPU对于大模型就相当于是发动机之于汽车。王平认为,近十几年AI的再度兴起,到现在ChatGPT的爆火,以及未来AI产业的发展再上一个台阶,如果没有GPGPU,这些都不大可能会实现。

因为每个大模型训练和部署的背后,都有几万个GPGPU在支持。可想而知,未来随着这方面的研发和应用的普及,GPGPU市场需求将会再度迎来爆发式增长。

以电力为例,就可以很清楚的看到这个市场未来可能发生的变化。几十年前,电力只是用在一些小用量的场景,随着电力的供给越来越多,电器也越来越多的时候,最后电力就成了一个基本设施。可以说,算力也是朝着基础设施的方向在发展。在王平看来,现在GPGPU还远没有到爆炸式需求的阶段。

当然在ChatGPT或者其他大模型训练和部署,对GPGPU或者说算力也会有更高的要求。王平谈到了几个方面:

首先从单卡层面来看,先来看一组数据,1月份的时候ChatGPT的用户数突破1亿,日访问量有几千万,在这种情况下,它的运营成本会相当高,每天的电费在几十万人民币量级。这时候计算效率很重要,如果计算架构相比于传统的GPGPU更有优势的话,比如,登临科技一些计算密度更大的产品,在计算效率上就更有优势。

其次是单卡之外,卡片间的互联也很重要。因为在用户侧工作的实际上是一个超级计算机系统,在训练的时候,带宽、片间、服务器间的信息传递很重要,这就需要针对大模型的训练框架,在整个服务器集群的调度和协同工作中进行升级优化。

再者就是软件方面,一般来说在软硬件协同的系统里,软件的重要作用不可忽视,因为一些软件栈的原因,或者软件协同调度的问题,硬件往往不能完全发挥出能力。所以我们经常可以看到,在一些场景下,软件稍微进行优化,整体应用性能就会有百分之几十,甚至百分之百的提升。

从硬件公司的角度来看,GPGPU是一个通用平台,行业整体有产品异构化的走向,总体来说,GPGPU存在一些性能瓶颈。登临科技是一家专注于高性能通用计算平台的芯片研发与技术创新的公司,登临自主研发的GPU+架构正式采用了软件定义的片内异构体系,目前首款基于GPU+的系列产品—Goldwasser已在云至边缘的各个应用场景实现规模化落地。据王平介绍:登临科技希望通过异构,从由点及面在一些足够大的市场领域,把产品做到比英伟达同系列产品更具性价比优势,甚至超过英伟达。

带着这样的出发点,在大型语言模型方面,登临科技会更关心如何更好的提升产品的能效比。简单来说,在同样功耗下,登临科技可以提供英伟达1.5到2倍的算力,在算力一致的情况下,做到单位功耗更低这样从计算的整体性能上实现英伟达同类产品的能效比3倍的优势。如此一来,上面提到的电费、运维成本都将会有很大的节省。

小结

不难看出,以ChatGPT为代表的大语言模型发展和应用,对人们生产生活意义重大。随着它的技术和应用逐步成熟,其对GPGPU等算力硬件的需求将会持续增加,就如同文中提到的电力的发展路径一样。当然大模型对GPGPU及算力集群系统的也有更高的要求,比如计算效率更高,能够节省电费和运维成本等,可想而知,对于硬件公司来说,谁能够在这方面更具优势,谁就更能在未来大模型处处落地的时候,更占据优势。

审核编辑 :李倩

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 算法
    +关注

    关注

    23

    文章

    4760

    浏览量

    97142
  • API
    API
    +关注

    关注

    2

    文章

    2147

    浏览量

    66231
  • ChatGPT
    +关注

    关注

    31

    文章

    1596

    浏览量

    10072
  • 大模型
    +关注

    关注

    2

    文章

    3440

    浏览量

    4964

原文标题:ChatGPT等大模型的发展,对GPGPU有怎样的性能要求?

文章出处:【微信号:elecfans,微信公众号:电子发烧友网】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    有源铜缆:大模型背后的隐形英雄

    现在大家都在关注大模型,像ChatGPT,xAI,尤其是Deepseek,最近都火出圈了!
    的头像 发表于 07-11 14:16 1013次阅读
    有源铜缆:大<b class='flag-5'>模型</b>背后的隐形英雄

    模型推理显存和计算量估计方法研究

    ,如乘法、加法; (2)根据各层计算操作的类型和复杂度,确定每层所需的计算量; (3)将各层计算量相加,得到模型总的计算量。 基于硬件加速的算力估计 随着硬件加速技术的发展,许多深度学习框架支持
    发表于 07-03 19:43

    芯原可扩展的高性能GPGPU-AI计算IP赋能汽车与边缘服务器AI解决方案

    与人工智能 (AI) 加速器相融合,这些IP在热和功耗受限的环境下,能够高效支持大语言模型 (LLM) 推理、多模态感知以及实时决策复杂的AI工作负载。 芯原的GPGPU-AI计算IP基于高
    的头像 发表于 06-16 10:44 1110次阅读

    数据标注与大模型的双向赋能:效率与性能的跃升

    ​‌在人工智能蓬勃发展的时代,大模型凭借其强大的学习与泛化能力,已成为众多领域创新变革的核心驱动力。而数据标注作为大模型训练的基石,为大模型性能
    的头像 发表于 06-04 17:15 1645次阅读
    数据标注与大<b class='flag-5'>模型</b>的双向赋能:效率与<b class='flag-5'>性能</b>的跃升

    DeepSeek冲击(含本地化部署实践)

    作者:京东零售 姜海 DeepSeek无疑是春节档最火爆的话题,上线不足一月,其全球累计下载量已达4000万,反超ChatGPT成为全球增长最快的AI应用,并且完全开源。那么究竟DeepSeek
    的头像 发表于 02-23 17:10 1101次阅读
    DeepSeek冲击(含本地化部署实践)

    OpenAI尝试减少对ChatGPT的审查

    近日,OpenAI宣布了一项新政策,旨在改变其训练人工智能模型的方式,以明确拥护“知识自由”的理念。OpenAI强调,无论一个话题多么具有挑战性或争议性,都应当被平等对待和呈现。 据OpenAI表示
    的头像 发表于 02-17 14:42 3628次阅读

    超云发布SuperCube大模型一体机,支持DeepSeek模型即开即用及行业定制

    AI大模型作为工业化4.0的革命性技术,深刻影响国际竞争格局和千行百业发展。AI发展,应用为先,然而在现阶段实际应用中,企业仍面临算力成本高昂、开源模型适配困难以及国产化替代
    的头像 发表于 02-14 09:50 1067次阅读
    超云发布SuperCube大<b class='flag-5'>模型</b>一体机,支持DeepSeek<b class='flag-5'>等</b><b class='flag-5'>模型</b>即开即用及行业定制

    ChatGPT Plus 2025新功能抢先看:如何订阅与使用全攻略

    的交互 ChatGPT Plus作为付费订阅服务,提供了一系列增强功能和优势,让用户体验更上一层楼: 更强模型驱动 (GPT-4及更高版本):  订阅用户可访问性能更强、回答更准确、对话能力更复杂的
    的头像 发表于 02-13 19:59 2034次阅读

    了DeepSeekAI大模型,人人都能当医生吗?

    作者:京东健康 王付刚 春节期间,DeepSeek的爆火无疑让大家对AI大模型了全新的认识和体验。与其他大模型不同之处,DeepSeek不仅提供答案,还输出推理过程,这一功能引起了大家的震惊和担忧
    的头像 发表于 02-13 11:19 6459次阅读

    OpenAI免费开放ChatGPT搜索功能

    的优势。它能够以更快的速度抓取网络信息,实现分钟级别的内容解析。这对于股票、体育、财经需要迅速获取最新新闻内容的行业来说,无疑是一个巨大的福音。用户能够第一时间掌握行业动态,做出更加明智的决策。 此外,ChatGPT搜索还借助了大模型
    的头像 发表于 02-06 14:35 810次阅读

    《具身智能机器人系统》第7-9章阅读心得之具身智能机器人与大模型

    共同挑战:如何从高维噪声数据中提取有效特征?如何平衡模型复杂度和计算效率?如何保证系统在真实环境中的稳定性?书中提出的技术方案对我的工作很有启发。多模态融合策略可用于处理异构数据源,元学习思想可指导增量学习系统设计,而模型优化方法则有助于提升推理
    发表于 12-24 15:03

    【「大模型启示录」阅读体验】+开启智能时代的新钥匙

    阅读之旅。在翻开这本书之前,我对大模型的认知仅仅停留在它是一种强大的人工智能技术,可以进行自然语言处理、图像识别任务。我知道像 ChatGPT 这样的应用是基于大模型开发的,能够与人
    发表于 12-24 13:10

    国芯科技:已结束基于RISC-V架构GPGPU研发

    电子发烧友网报道(文/吴子鹏)近日,投资者在互动平台向国芯科技提问:请问贵公司是否GPU研发计划?   对此,国芯科技回答称,“公司与上海清华国际创新中心合作开展了基于开源RISC-V指令架构
    的头像 发表于 12-20 00:15 3731次阅读

    电源怎样影响ADC的性能

    电源怎样影响ADC的性能?有没有相关的技术类文章和设计方案?
    发表于 12-18 06:32

    【「大模型启示录」阅读体验】如何在客服领域应用大模型

    的功能和性能。因此,选择具有良好可扩展性的模型可以适应未来业务的发展需求。在客服领域,处理客户数据时可能涉及敏感信息。因此,在选择模型时需要考虑其安全措施和隐私保护能力。确保数据传输和
    发表于 12-17 16:53