0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

GPT-4全面接入Office!人工智能迎来发展高潮,国内算力芯片、接口IP、服务器的机会和挑战!

Carol Li 来源:电子发烧友网 作者:李弯弯 2023-03-18 01:04 次阅读
电子发烧友网报道(文/李弯弯、吴子鹏)从OpenAI去年底推出ChatGPT以来,人工智能领域持续火热。近日,高潮更是一波接着一波,首先是OpenAI继ChatGPT之后又推出了更强大的大型多模态模型GPT-4,接着是国内百度终于正式发布了其大型语言模型文心一言。昨日,微软宣布将GPT-4全面接入所有办公软件,更是炸翻全场。

种种迹象表明,大模型的应用即将走进千家万户,人工智能产业发展迎来高潮。大家知道,无论是ChatGPT、文心一言,还是其他生成式AI模型的训练和部署,对算力都有很高的要求。那么目前国内在这方面具备怎样的条件?大模型的发展将带来怎样的机会和挑战?带着这些问题,电子发烧友最近对多家大算力芯片接口IP、服务器企业做了深度调研。

大算力芯片的机会和挑战

目前,全球大模型的训练基本都是采用英伟达GPU。OpenAI之前推出的ChatGPT,以及最近发布的GPT-4,都是在大量英伟达A100的基础上训练而成。据说微软的Azure云服务为ChatGPT构建了超过1万枚英伟达A100GPU芯片的AI计算集群。

国内大模型的训练也基本倚赖英伟达的GPU,业内人士认为,想要做好AI大模型,1万枚英伟达A100芯片是门槛。然而国内拥有1万枚英伟达A100芯片的企业少之又少。从这个层面来看,国内企业想要布局类似ChatGPT这样大规模的模型短期来看还很难。

从长远来看,未来大模型的研发和部署是必然趋势,而每个大模型训练和部署的背后,都有几万个GPU在支持。可想而知,未来随着这方面的研发和应用的普及,通用GPU市场需求将会迎来爆发式增长。这对GPU企业来说将会是巨大的机会。

登临科技联合创始人王平在接受电子发烧友采访的时候表示:“以电力为例,可以很清楚的看到这个市场未来的变化。几十年前,电力只是用在一些小用量的场景,随着电力的供给越来越多,电器也越来越多的时候,最后电力就成了一个基本设施。可以说,算力也是朝着基础设施的方向在发展。而现在通用GPU还远没有到爆炸式需求的阶段。”

然而从目前的情况来看,国内的GPU还难以在大模型的训练中承担起重要责任,不过可以看到有不少企业在该领域持续耕耘。对于国内的GPU企业可以怎么做,才能在抓住ChatGPT带来的这波机会,如何为国内大模型的发展提供算力支持?

在接受电子发烧友采访的时候,燧原科技创始人兼COO张亚林谈到了几点:首先,企业需要能够提供更高性价比的算力,从ChatGPT训练就能看到算力的成本有多高,从这个角度来看,并不是所有人都能玩得起这场游戏。

其次,大算力芯片企业需要能够站到系统的角度思考问题,最终算力的呈现是一个集群系统,这里面包含几千张加速卡,几千颗芯片,大量的互联和存储,很多服务器。整个系统的设计、调动能力、是否易用跟芯片的设计会不太一样。这样更能够提供满足用户需求的产品

在人工智能算力领域,燧原科技已经有很深的积累。目前已经迭代两代训练和推理产品,第三代在研发中。此外,燧原科技已经在科研领域和智慧城市的应用中落地了训练和推理的超千卡算力集群。张亚林表示,类似ChatGPT这样的AIGC生成式模型,对于燧原科技而言是个机遇,公司可以把已经积累的系统集群的经验推广到更多的客户赛道上,帮助客户使能更多大模型的生成。

面对与国际巨头的差距,天数智芯对电子发烧友表示,坚持通用GPU发展的路线,全面覆盖训练和推理两条产品发展主线。结合行业解决方案为各行业、各产业发展提供完整成熟的软硬件一体化方案。在未来的产品发展上,逐步缩小和国际先进产品的差距,为国内人工智能发展提供强有力的支持。

天数智芯自2021年3月推出云端训练通用GPU产品--天垓100,并于2022年12月推出云端推理通用GPU产品--智铠100,截止目前,天数智芯订单规模就已经突破5亿元。目前,基于天垓100训练的模型种类超过了两百种。天数智芯表示,公司在训练芯片上坚持通用GPU架构、主流生态兼容等发展路线,对于通用性、兼容性、安全性等方面都进行了支持,可以为ChatGPT的发展提供有效安全的算力底座。

对于以ChatGPT为代表的大模型训练和部署,对通用GPU或者算力的高要求,登临科技联合创始人王平谈到,从ChatGPT用户数超1亿,日访问量几千万的数据来看,它的运营成本相当高,每天的电费达到几十万人民币量级。他认为,这时候计算效率很重要,如果计算架构相比于传统的GPGPU更有优势的话,它在计算效率上也就会更有优势。

就比如登临科技的一些计算密度更大的产品。登临科技是一家专注于高性能通用计算平台的芯片研发与技术创新的公司,登临自主研发的GPU+架构正式采用了软件定义的片内异构体系,目前首款基于GPU+的系列产品—Goldwasser已在云至边缘的各个应用场景实现规模化落地。据王平介绍,登临科技希望通过异构,从由点及面在一些足够大的市场领域,把产品做到比英伟达同系列产品更具性价比优势,甚至超过英伟达。

高速接口IP的机会和挑战

就如上文所言,大模型的训练需要大量的GPU,ChatGPT的训练就使用了1万张英伟达的高端GPU。然而从训练的角度来看,计算性能再好的GPU芯片如A100如果无法集群在一起去训练,那么训练一个类ChatGPT的大模型可能需要上百年。因此,AI大模型的训练对高速接口IP是一个巨大的挑战,也是一个巨大的机遇。

在以ChatGPT为代表的生成式AI大模型产业中,接口IP能够发挥哪些作用呢?奎芯科技市场及战略副总裁唐睿在接受电子发烧友网采访时谈到了几点:

首先是芯片上的互联接口,也就是Die to Die类型的互联接口IP,包括UCIe等,用以扩充单芯片的计算能力;其次是Chip to Chip类型的互联接口IP,包括SerDes/PCIe/CXL等,能够加快芯片之间的互联和数据交换,满足更高带宽的需求;此外还有内存接口IP,包括SATADDR、HBM等,能够用于打造更高性能的存储产品,帮助类ChatGPT存储和交换大规模的数据;再上一层就是数据通讯接口的接口IP。因此,从训练的角度来看,类ChatGPT应用的爆发,能够带来非常大的接口IP需求。

奎芯科技成立于2021年,目前已经推出的高速接口IP组合包括USB、PCIe、SATA、SerDes、MIPI、DDR、HDMI、DP、HBM等丰富的类型。唐睿指出,从技术上来看,国产接口IP厂商确实还处于追赶的位置,不过这种差距已经越来越小。2023年,奎芯科技将会推出一系列性能达到国际领先水平的接口IP产品,包括HBM3以及其他领先的D2D类型的互联接口IP。

当前,AI大模型训练所用到的算力集群基本上都是基于英伟达通用算力芯片来打造,在这方面国产通用算力芯片还存在一定的性能差距。唐睿表示,国产高性能计算芯片还是有机会的,AI大模型并不是一个近期出现的新鲜事物,近些年国内AI产业已经在跟进这一趋势,只是类ChatGPT类型应用背后的大模型参数规模更大。

针对这方面的需求,国内芯片产业也早就启动了这方面的布局,包括奎芯科技所在的接口IP赛道,都在向这个方向努力。不过,从IP研发到芯片设计,再到应用落地,这中间会有一个时间差。实际上,国外的公司也是在用之前的芯片通过互联在做这方面的硬件支持。

服务器厂商的机会和挑战

大模型的训练和部署离不开服务器的支持。微软Azure AI基础设施总经理尼迪·卡佩尔表示,他们构建了一个系统架构,可以在非常大的范围内运行且十分可靠,这是ChatGPT成功的重要原因。云服务依赖于数千个不同的部件,包括服务器、管道、不同的金属和矿物等。

近年来,在全球数字化、智能化的浪潮下,智能手机自动驾驶、数据中心、图像识别等应用推动AI服务器市场迅速成长。根据IDC数据,2021年全球AI服务器市场规模已达到 145亿美元,并预计2025年将超过260亿美元。

近段时间ChatGPT概念的火热,更是对算力基础设施的需求起到了带动作用。宁畅副总裁兼CTO赵雷此前在接受媒体采访的时候表示,ChatGPT的训练和部署,都需要大量智能计算数据存储以及传输资源,计算机基础设施、算力等上游技术将因此受益。

宁畅是一家集研发、生产、部署、运维一体的服务器厂商,及IT系统解决方案提供商。该公司很早就开始着重发力于人工智能服务器和液冷服务器。赵雷表示,公司目前在用的、在研的人工智能和液冷服务器,包括今年推出的浸没液冷服务器,刚好跟上算力高速增长的市场需求。公司随时准备着为客户提供合适的高算力产品和解决方案。

在人工智能服务器方面,宁畅已经推出多款产品,包括X620 G50、X660 G45、X640 G40、X620 G40。日前,百度正式发布大型语言模型文心一言,随后宁畅联合百度宣布宁畅AI服务器支持百度文心一言,宁畅凭借AI服务器产品及定制化服务,为百度文心一言提供算力保障。

目前国内有不少优秀的服务器厂商,除了上述提到的宁畅,还有浪潮信息、中科曙光等。不过整体来看,国内在算力的提供商仍然存在瓶颈,比如总体算力不够,算力分布不均。也就是说存在部分客户算力过剩,部分客户算力不足,或者A时间算力过剩,B时间算力不足的情况。短期来看,这个问题要靠云技术解决,长期来看是要提供过剩的算力。也就是说,需要云技术去平衡协调算力不均匀的问题,还需要提高算力、算力效率等。

另外还有算力成本的问题,虽然目前每单位算力单价已经下降,但是过去几年服务器的平均售价一直上涨。赵雷认为,可能算力类型单一,不太能够有效地支撑高速增长的模式,可能要有各种各样不同类型的算力。比如ChatGPT,是不是可以做针对GPT模型专门的ASIC。算力的应用类型越窄,它的效率就会越高,越通用效率就越低。

总结

显然,随着ChatGPT、GPT-4及文心一言等大型语言模型的发布,以及未来大模型在各个领域中实现部署应用,人们离期待已久的通用人工智能也就越来越近。而大模型的研发和应用部署,也将给算力芯片、接口IP、服务器等产业带来前所未有的机会。同时国内在这些领域具备自己的独特优势,也面临着诸多挑战。这将会是一场持久战。



声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 人工智能
    +关注

    关注

    1776

    文章

    43796

    浏览量

    230563
收藏 人收藏

    评论

    相关推荐

    微软Copilot全面更新为OpenAI的GPT-4 Turbo模型

    起初,Copilot作为Bing Chat AI助手推出,初期采用GPT-3.5模型,随后升级至GPT-4取得显著进步,如今再次更新至性能卓越的GPT-4 Turbo模型,这无疑将使得Copilot功能再上新台阶。
    的头像 发表于 03-13 13:42 243次阅读

    能RADXA微服务器试用体验】Radxa Fogwise 1684X Mini 规格

    通过网络可以了解到,能RADXA微服务器的具体规格: 处理:BM1684X :高达32Tops INT8峰值
    发表于 02-28 11:21

    嵌入式人工智能的就业方向有哪些?

    国内外科技巨头纷纷争先入局,在微软、谷歌、苹果、脸书等积极布局人工智能的同时,国内的BAT、华为、小米等科技公司也相继切入到嵌入式人工智能的赛道。那么嵌入式AI可就业的方向有哪些呢
    发表于 02-26 10:17

    OpenAI发布的GPT-4 Turbo版本ChatGPT plus有什么功能?

    OpenAI的GPT-4 Turbo以前所未有的功能和价格改变人工智能的未来 在人工智能领域的一次里程碑式活动中,OpenAI开发者大会上发布了GPT-4 Turbo,这是突破性
    的头像 发表于 12-05 17:57 1440次阅读
    OpenAI发布的<b class='flag-5'>GPT-4</b> Turbo版本ChatGPT plus有什么功能?

    百度发布文心大模型4.0挑战GPT-4,工信部推动IPv6协议在无线局域网设备中的应用

    数据中心的容量不断增长,百度文心大模型4.0如何挑战GPT-4,以及我国如何通过推动IPv6协议在无线局域网设备中的应用,加快网络强国建设的步伐。我们不仅可以见证技术的力量,更能感受到国家在产业发展和技术创新方面的决心与投入。
    的头像 发表于 10-19 11:05 262次阅读
    百度发布文心大模型4.0<b class='flag-5'>挑战</b><b class='flag-5'>GPT-4</b>,工信部推动IPv6协议在无线局域网设备中的应用

    ai人工智能机器人

    随着时间的推移,人工智能发展越来越成熟,智能时代也离人们越来越近,近几年人工智能越来越火爆,人工智能的应用已经开始渗透到各行各业,与生活交
    发表于 09-21 11:09

    《通用人工智能:初心与未来》-试读报告

    、社交、想象、创造、感知,这是无法用逻辑和推理去定义和构造的。人工智能路途遥远,远远还不到与人类竞争的程度,而且也不会反生的。与其胡思乱想,不如好好学习
    发表于 09-18 10:02

    GPT-3.5 vs GPT-4:ChatGPT Plus 值得订阅费吗 国内怎么付费?

    GPT-3.5 vs GPT-4:ChatGPT Plus值得订阅费吗?ChatGPT Plus国内如何付费?  ChatGPT-3.5一切都很好,但ChatGPT-4(通过ChatGPT Plus
    的头像 发表于 08-02 12:09 2981次阅读
    <b class='flag-5'>GPT</b>-3.5 vs <b class='flag-5'>GPT-4</b>:ChatGPT Plus 值得订阅费吗 <b class='flag-5'>国内</b>怎么付费?

    微软Office AI工具硬核开价 每人每月30美元

    Microsoft 365 Copilot是一款基于GPT-4开发的人工智能代码自动补全工具,用户可以在各个Microsoft 365应用中直接使用,还可以作为AI助手来全面调用各种Offic
    的头像 发表于 07-20 16:44 752次阅读

    OpenAI宣布GPT-4 API全面开放使用!

    OpenAI 在博客文章中写道:“自 3 月份以来,数百万开发者请求访问 GPT-4 API,并且利用 GPT-4 的创新产品范围每天都在增长。” “我们设想基于对话的模型未来可以支持任何用例。”
    的头像 发表于 07-12 14:55 873次阅读

    GPT-4催生的接口IP市场空间

    GPT-4大语言模型公布以来,百度、阿里、知乎、出门问问等国内互联网公司纷纷跟进,在近两个月中相继推出了自家的产品。日前,鲜有公开演讲的奇绩创坛创始人兼CEO陆奇也分享了他对大模型时代的宏观思考
    的头像 发表于 07-03 14:17 514次阅读

    【书籍评测活动NO.16】 通用人工智能:初心与未来

    新的担忧,有些人认为人工智能将很快取代人类,人类的发展在不远的将来会面临极大挑战(机器人世界末日将会到来)。 《通用人工智能:初心与未来》 主要内容本书尝试给人们一个新的视
    发表于 06-21 14:41

    人工通用智能的火花:GPT-4的早期实验

    人工智能(AI)研究人员一直在开发和完善大型语言模型(LLMs),这些模型在各种领域和任务中表现 出非凡的能力,挑战我们对学习和认知的理解。由OpenAI开发的最新模型GPT-4[Ope23
    发表于 06-20 15:49 1次下载

    GPT-4已经会自己设计芯片了吗?

      GPT-4已经会自己设计芯片了!芯片设计行业的一个老大难问题HDL,已经被GPT-4顺利解决。并且,它设计的130nm芯片,已经成功流片
    的头像 发表于 06-20 11:51 600次阅读
    <b class='flag-5'>GPT-4</b>已经会自己设计<b class='flag-5'>芯片</b>了吗?

    微软GPT-4搜索引擎重大升级 新Bing开放AI能力

    GPT-4GPT-4有更强悍的能力可以提供创意性文章创作和图像识别功能。微软马上跟进,宣布旗下的Bing Chat已经升级使用了OpenAI提供的GPT-4技术。 现在,微软公司在官网声明称,基于
    的头像 发表于 05-05 17:15 2225次阅读