0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

ChatGPT等大模型的发展,对GPGPU有怎样的性能要求?

lPCU_elecfans 来源:电子发烧友网 2023-03-10 09:51 次阅读

最近,在ChatGPT火了之后,国内互联网科技圈不时传出计划或者正在研究类ChatGPT大模型的消息。

然而在相关技术真正面世之前,近日,OpenAI又放出新消息,该公司正式开放了ChatGPT的API接口,开发人员可以将ChatGPT模型集成到他们的应用程序和产品中。这意味着ChatGPT将会以更快的速度占领市场,因此国内企业在大模型的研究中更要加快进度。

在大模型发展中,国内具备了怎样的条件

在类ChatGPT及其他大模型的发展中,国内是否具备相应的条件呢?登临科技联合创始人王平日前在接受电子发烧友采访的时候谈到了几点:

他认为,国内在这方面是具备一定条件的,首先是数据,这是大模型技术中非常重要的一个生产要素,国内在数据上是有一定积累的;其次是人才,在这方面国内有不少优秀的算法人才,在大模型方面具备一定的知识基础与经验;此外,目前国内也有比较不错的AI框架平台以及具备核心技术完全自主研发能力的GPGPU厂商。整体来说整套的生产要素上都有一定的基础,只不过在成熟度上跟OpenAI相比还存在一定差距。

具体来看,在AI框架方面,OpenAI能够推出能力如此强大的ChatGPT,它应该有自己专门的框架。现在各种商用的框架,包括国产的飞桨paddlepaddle,以及Tensorflow或者Pytorch,其实更多是用于常规模型,而不是大模型的调度。因此在发展ChatGPT类大模型方面,还存在一些挑战,需要去持续创新。

在人才方面,虽然目前国内具备一些算法相关的人才,然而整体而言是处于较为紧缺的状态。另外大模型的训练,也需要算法工程师具备丰富的经验积累,因为模型太大,中间涉及很多技术,这并不是短时间砸钱就能达到的。

硬件层面,国内的GPGPU具有自身的特色,甚至在一些领域比NVIDIA更具优势,在ChatGPT或者相关大模型上,也有它的优势。不过整体来看,还是存在差距,需要不断进行创新和迭代,要不停的向前走。

大模型发展对GPGPU提出了怎样的要求

ChatGPT火热之后,可以明显看到国内在AI大模型方面的发展将会加速,这对国内GPGPU来说意味着什么呢?大模型的发展,必然少不了GPGPU,GPGPU对于大模型就相当于是发动机之于汽车。王平认为,近十几年AI的再度兴起,到现在ChatGPT的爆火,以及未来AI产业的发展再上一个台阶,如果没有GPGPU,这些都不大可能会实现。

因为每个大模型训练和部署的背后,都有几万个GPGPU在支持。可想而知,未来随着这方面的研发和应用的普及,GPGPU市场需求将会再度迎来爆发式增长。

以电力为例,就可以很清楚的看到这个市场未来可能发生的变化。几十年前,电力只是用在一些小用量的场景,随着电力的供给越来越多,电器也越来越多的时候,最后电力就成了一个基本设施。可以说,算力也是朝着基础设施的方向在发展。在王平看来,现在GPGPU还远没有到爆炸式需求的阶段。

当然在ChatGPT或者其他大模型训练和部署,对GPGPU或者说算力也会有更高的要求。王平谈到了几个方面:

首先从单卡层面来看,先来看一组数据,1月份的时候ChatGPT的用户数突破1亿,日访问量有几千万,在这种情况下,它的运营成本会相当高,每天的电费在几十万人民币量级。这时候计算效率很重要,如果计算架构相比于传统的GPGPU更有优势的话,比如,登临科技一些计算密度更大的产品,在计算效率上就更有优势。

其次是单卡之外,卡片间的互联也很重要。因为在用户侧工作的实际上是一个超级计算机系统,在训练的时候,带宽、片间、服务器间的信息传递很重要,这就需要针对大模型的训练框架,在整个服务器集群的调度和协同工作中进行升级优化。

再者就是软件方面,一般来说在软硬件协同的系统里,软件的重要作用不可忽视,因为一些软件栈的原因,或者软件协同调度的问题,硬件往往不能完全发挥出能力。所以我们经常可以看到,在一些场景下,软件稍微进行优化,整体应用性能就会有百分之几十,甚至百分之百的提升。

从硬件公司的角度来看,GPGPU是一个通用平台,行业整体有产品异构化的走向,总体来说,GPGPU存在一些性能瓶颈。登临科技是一家专注于高性能通用计算平台的芯片研发与技术创新的公司,登临自主研发的GPU+架构正式采用了软件定义的片内异构体系,目前首款基于GPU+的系列产品—Goldwasser已在云至边缘的各个应用场景实现规模化落地。据王平介绍:登临科技希望通过异构,从由点及面在一些足够大的市场领域,把产品做到比英伟达同系列产品更具性价比优势,甚至超过英伟达。

带着这样的出发点,在大型语言模型方面,登临科技会更关心如何更好的提升产品的能效比。简单来说,在同样功耗下,登临科技可以提供英伟达1.5到2倍的算力,在算力一致的情况下,做到单位功耗更低这样从计算的整体性能上实现英伟达同类产品的能效比3倍的优势。如此一来,上面提到的电费、运维成本都将会有很大的节省。

小结

不难看出,以ChatGPT为代表的大语言模型发展和应用,对人们生产生活意义重大。随着它的技术和应用逐步成熟,其对GPGPU等算力硬件的需求将会持续增加,就如同文中提到的电力的发展路径一样。当然大模型对GPGPU及算力集群系统的也有更高的要求,比如计算效率更高,能够节省电费和运维成本等,可想而知,对于硬件公司来说,谁能够在这方面更具优势,谁就更能在未来大模型处处落地的时候,更占据优势。

审核编辑 :李倩

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 算法
    +关注

    关注

    23

    文章

    4455

    浏览量

    90756
  • API
    API
    +关注

    关注

    2

    文章

    1382

    浏览量

    60992
  • ChatGPT
    +关注

    关注

    27

    文章

    1408

    浏览量

    4745
  • 大模型
    +关注

    关注

    2

    文章

    1516

    浏览量

    1104

原文标题:ChatGPT等大模型的发展,对GPGPU有怎样的性能要求?

文章出处:【微信号:elecfans,微信公众号:电子发烧友网】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    龙芯中科自研 GPGPU!大语言模型浪潮下,国产厂商如何把握机会?

    芯片预计将于 2024 年一季度流片。   胡伟武表示,目前已经基本完成相关 IP 研发,正在开展全面验证,在此基础上,2024 年下半年将完成兼顾显卡和算力加速功能的专用芯片流片。   大语言模型拉动GPGPU 需求增长   GPG
    的头像 发表于 05-18 09:06 3422次阅读
    龙芯中科自研 <b class='flag-5'>GPGPU</b>!大语言<b class='flag-5'>模型</b>浪潮下,国产厂商如何把握机会?

    在FPGA设计中是否可以应用ChatGPT生成想要的程序呢

    当下AI人工智能崛起,很多开发领域都可看到ChatGPT的身影,FPGA设计中,是否也可以用ChatGPT辅助设计呢?
    发表于 03-28 23:41

    【书籍评测活动NO.30】大规模语言模型:从理论到实践

    2022年11月,ChatGPT的问世展示了大模型的强大潜能,对人工智能领域重大意义,并对自然语言处理研究产生了深远影响,引发了大模型研究的热潮。 距
    发表于 03-11 15:16

    【国产FPGA+OMAPL138开发板体验】(原创)6.FPGA连接ChatGPT 4

    方面。而且,由于ChatGPT 4是一个大型的语言模型。通常,FPGA会用于处理一些底层的数据流或执行特定的硬件加速任务,而ChatGPT 4这样的模型则会在云端或高
    发表于 02-14 21:58

    ChatGPT原理 ChatGPT模型训练 chatgpt注册流程相关简介

    的影响,其注册相对繁琐。那么国内如何注册ChatGPT账号?本文跟大家详细分享GPT账户注册教程,手把手教你成功注册ChatGPTChatGPT是一种自然语言处理模型
    的头像 发表于 12-06 16:28 385次阅读
    <b class='flag-5'>ChatGPT</b>原理 <b class='flag-5'>ChatGPT</b><b class='flag-5'>模型</b>训练 <b class='flag-5'>chatgpt</b>注册流程相关简介

    不到1分钟开发一个GPT应用!各路大神疯狂整活,网友:ChatGPT就是新iPhone

    这个说法并不准确。尽管ChatGPT语言模型已经在一定程度上改变了我们获取信息、学习知识的方式,但它们并不能替代人类进行创造性思考和创造性活动。 虽然一些人可能会利用ChatGPT
    发表于 11-19 12:06

    盘古大模型ChatGPT4

    盘古大模型ChatGPT4 盘古大模型ChatGPT4:人工智能领域重要的两大进展 随着人工智能技术的不断发展,越来越多的
    的头像 发表于 08-31 10:15 3849次阅读

    盘古大模型ChatGPT4的区别

    盘古大模型ChatGPT4的区别 对于大家尤其是人工智能领域的从业者而言,盘古大模型(PanGu-α)和ChatGPT-4是两个大家的比较关注的
    的头像 发表于 08-30 18:27 4224次阅读

    chatgpt是什么意思 ChatGPT背后的技术原理

      今天我们为大家带来的文章,深入浅出地阐释了ChatGPT背后的技术原理,没有NLP或算法经验的小伙伴,也可以轻松理解ChatGPT是如何工作的。  ChatGPT是一种机器学习自然语言处理
    发表于 07-18 17:12 0次下载

    ChatGPT 是什么

    应用。 ChatGPT基于自然语言处理技术和神经网络模型,可以学习和理解人类语言的语法和语义,并能够生成具有连贯性和逻辑性的自然语言文本,从而模拟人类对话的过程。 发展背景 ChatGPT
    发表于 06-27 13:55 1906次阅读

    沐曦付轩:蹄急而步稳,GPU助力ChatGPT快、准、稳全面发展

    付轩在“ChatGPT风向下的集成电路新趋势”论坛中发表主题为《蹄急而步稳:ChatGPT与高性能GPU战略概览》的主题演讲,分析了ChatGPT的应用特点及软硬件需求,指出以
    的头像 发表于 06-20 10:57 839次阅读

    ChatGPT浪潮下,看中国大语言模型产业发展

    ChatGPT的横空出世拉开了大语言模型产业和生成式AI产业蓬勃发展的序幕。本报告将着重分析“OpenAI ChatGPT的成功之路”、“中国类Ch
    的头像 发表于 06-01 16:49 804次阅读
    <b class='flag-5'>ChatGPT</b>浪潮下,看中国大语言<b class='flag-5'>模型</b>产业<b class='flag-5'>发展</b>

    ChatGPT背后的大模型技术

    由于ChatGPT可以适用于非常多的任务,很多人认为 AI 已经迎来拐点。李开复将此前的 AI 定义为 AI 1.0,此后的AI定义为AI 2.0。AI 1.0 中模型适用于单领域,AI 2.0
    的头像 发表于 05-29 11:16 922次阅读
    <b class='flag-5'>ChatGPT</b>背后的大<b class='flag-5'>模型</b>技术

    支持 ChatGPT 的机器学习模型的概况

    本文介绍了支持 ChatGPT 的机器学习模型的概况,文章将从大型语言模型的介绍开始,深入探讨用来训练 GPT-3 的革命性自我注意机制,然后深入研究由人类反馈的强化学习机制这项让 ChatG
    的头像 发表于 05-26 11:44 580次阅读
    支持 <b class='flag-5'>ChatGPT</b> 的机器学习<b class='flag-5'>模型</b>的概况

    ChatGPT系统开发AI人功智能方案

    ChatGPT是一个由OpenAI开发的人工智能语言模型,可以实现自然语言处理、对话生成等功能。要开发一个类似ChatGPT的人工智能系统软件,可以遵循以下步骤:确定应用场景:确定人工智能系统软件要
    发表于 05-18 10:16