0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

黑马Groq单挑英伟达,AI芯片要变天?

科技云报到 来源:jf_60444065 作者:jf_60444065 2024-02-26 12:01 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

科技云报道原创。

近一周来,大模型领域重磅产品接连推出:OpenAI发布“文字生视频”大模型Sora;Meta发布视频预测大模型 V-JEPA;谷歌发布大模型 Gemini 1.5 Pro,更毫无预兆地发布了开源模型Gemma......

难怪网友们感叹:“一开年AI发展的节奏已经如此炸裂了么!”

但更令人意想不到的是,AI芯片领域处于绝对霸主地位的英伟达,竟然也遇到了挑战,而且挑战者还是一家初创公司。

在这家名叫Groq的初创芯片及模型公司官网上,它号称是世界最快大模型,比GPT-4快18倍,测试中最快达到破纪录的每秒吞吐500 tokens。

这闪电般的速度,来源于Groq自研的LPU(语言处理单元),是一种名为张量流处理器(TSP)的新型处理单元,自然语言处理速度是英伟达GPU 10倍,做到了推理的最低延迟。

“快”字当头,Groq可谓赚足眼球。Groq还喊话各大公司,扬言在三年内超越英伟达。

事实上,在这一波AI热潮中,“天下苦英伟达久矣”。英伟达GPU芯片价格一再被炒高,而Groq的LPU架构能“弯道超车”,显然是众望所归。

因此,不少舆论惊呼Groq要颠覆英伟达,也有业内人士认为Groq想要“平替”英伟达还有很长的路要走。

但无论持哪种观点,Groq的出现不仅是对现有芯片架构和市场格局的挑战,也预示着AI芯片及其支撑的大模型发展方向正在发生变化——聚焦AI推理。

Groq LPU:快字当头

据介绍,Groq的芯片采用14nm制程,搭载了230MB大静态随机存储器(SRAM)以保证内存带宽,片上内存带宽达80TB/s。在算力方面,该芯片的整型(8位)运算速度为750TOPs,浮点(16位)运算速度为188TFLOPs。

Anyscale的LLMPerf排行显示,在Groq LPU推理引擎上运行的Llama 2 70B,输出tokens吞吐量快了18倍,优于其他所有云推理供应商。

据网友测试,面对300多个单词的“巨型”prompt(AI模型提示词),Groq在不到一秒钟的时间里,就为一篇期刊论文创建了初步大纲和写作计划。此外,Groq还完全实现了远程实时的AI对话。

电子邮件初创企业Otherside AI的首席执行官兼联合创始人马特·舒默(Matt Shumer)在体验Groq后称赞其快如闪电,能够在不到一秒钟的时间内生成数百个单词的事实性、引用性答案。

更令人惊讶的是,其超过3/4的时间用于搜索信息,而生成答案的时间却短到只有几分之一秒。

Groq之所以“快如闪电”,其创新的核心在于LPU。

据官方信息显示,LPU推理引擎是一种新型的端到端处理单元系统,它为计算密集型应用提供最快的推理能力,这些应用具有序列组件,例如AI语言应用程序(LLM)。

LPU旨在克服LLM的两个瓶颈:计算密度和内存带宽。

就LLM而言,LPU比GPU和CPU具有更大的计算能力。这减少了每个单词的计算时间,从而可以更快地生成文本序列。

同时,与利用高带宽内存(HBM)的GPU不同,Groq的LPU利用SRAM进行数据处理,比HBM快约20倍,从而显著降低能耗并提高效率。

GroqChip的独特架构与其时间指令集相结合,可实现自然语言和其他顺序数据的理想顺序处理。

消除外部内存瓶颈,不仅使LPU推理引擎能够在LLM上提供比GPU高几个数量级的性能。

而且由于LPU只进行推理计算,需要的数据量远小于模型训练,从外部内存读取的数据更少,消耗的电量也低于GPU。

此外,LPU芯片设计实现了多个TSP的无缝连接,避免了GPU集群中的瓶颈问题,显著地提高了可扩展性。

因此,Groq公司宣称,其LPU所带来的AI推理计算是革命性的。

在AI推理领域挑战GPU

尽管Groq高调喊话,但想要“平替”英伟达GPU并不容易。从各方观点来看,Groq的芯片还无法与之分庭抗礼。

原Facebook人工智能科学家、原阿里技术副总裁贾扬清算了一笔账,因为Groq小得可怜的内存容量,在运行Llama 2 70B模型时,需要305张Groq卡才足够,而用英伟达的H100则只需要8张卡。

从目前的价格来看,这意味着在同等吞吐量下,Groq的硬件成本是H100的40倍,能耗成本是10倍。

但跳出单纯的价格对比,Groq LPU的解决方案依然展现出了不小的应用潜力。

根据机器学习算法步骤,AI芯片可以划分为训练AI芯片和推理AI芯片。

训练芯片是用于构建神经网络模型,需要高算力和通用性,追求的是高计算性能(高吞吐率)、低功耗。

推理芯片是对训练好的神经网络模型进行运算,利用输入的新数据来一次性获得正确结论。

因此完成推理过程的时间要尽可能短、低功耗,更关注用户体验方面的优化。

虽然现阶段GPU利用并行计算的优势在AI领域大获全胜,但由于英伟达GPU的独有架构,英伟达H100等芯片在推理领域算力要求远不及训练端,这也就给Groq等竞争对手留下了机会。

因此,专注于AI推理的Groq LPU,得以在推理这个特定领域挑战英伟达GPU的地位。从测试结果上看,Groq能够达到令人满意的“秒回”效果。

这也在一定程度上显示了通用芯片与专用芯片的路径分歧。

随着AI和深度学习的不断发展,对专用芯片的需求也在增长。

各种专用加速器如FPGAASIC以及其他初创公司的AI芯片已经不断涌现,它们在各自擅长的领域内展现出了挑战GPU的可能性。

相比于英伟达通用型AI芯片,自研AI芯片也被称作ASIC,往往更适合科技公司本身的AI工作负载需求且成本较低。

比如,云巨头AWS就推出了为生成式AI和机器学习训练而设计全新自研AI芯片AWS Trainium2,性能比上一代芯片提高到4倍,可提供65ExaFlops超算性能。

微软也推出第一款定制的自研CPU系列Azure Cobalt和AI加速芯片Azure Maia,后者是微软首款AI芯片,主要针对大语言模型训练,预计将于明年初开始在微软Azure数据中心推出。

谷歌云也推出了新版本的TPU芯片TPU v5p,旨在大幅缩减训练大语言模型时间投入。

无论是大厂自研的AI芯片,还是像Groq LPU这样的专用芯片,都是为了优化特定AI计算任务的性能和成本效率,同时减少对英伟达等外部供应商的依赖。

作为GPU的一个重要补充,专用芯片让面对紧缺昂贵的GPU芯片的企业有了一个新的选择。

AI芯片聚焦推理

随着AI大模型的快速发展,尤其是Sora以及即将推出的GPT-5,都需要更强大高效的算力。但GPU在推理方面的不够高效,已经影响到了大模型业务的发展。

从产业发展趋势来看,AI算力负载大概率将逐步从训练全面向推理端迁移。

华尔街大行摩根士丹利在2024年十大投资策略主题中指出,随着消费类边缘设备在数据处理、存储端和电池续航方面的大幅改进,2024年将有更多催化剂促使边缘AI这一细分领域迎头赶上,AI行业的发展重点也将从“训练”全面转向“推理”。

高通CEO Amon也指出,芯片制造商们的主要战场不久后将由“训练”转向“推理”。

Amon在采访时表示:“随着AI大模型变得更精简、能够在设备上运行并专注于推理任务,芯片制造商的主要市场将转向‘推理’,即模型应用。预计数据中心也将对专门用于已训练模型推理任务的处理器产生兴趣,一切都将助力推理市场规模超越训练市场。”

在最新的财报电话会上,英伟达CFO Colette Kress表示,大模型的推理场景已经占据英伟达数据中心40%的营收比例。这也是判断大模型行业落地前景的重要信号

事实上,巨头们的一举一动也在印证这一趋势的到来。

据路透社报道,Meta将推新款自研AI推理芯片Artemis。预计Meta可于年内完成该芯片在自有数据中心的部署,与英伟达GPU协同提供算力。

而英伟达也通过强化推理能力,巩固自身通用GPU市占率。

在下一代芯片H200中,英伟达在H100的基础上将存储器HBM进行了一次升级,为的也是提升芯片在推理环节中的效率。

不仅如此,随着各大科技巨头、芯片设计独角兽企业都在研发更具效率、部分替代GPU的芯片,英伟达也意识到这一点,建立起了定制芯片的业务部门。

总的来说,以现在AI芯片供不应求的现状,GPU的增长暂时还不会放缓。但随着AI发展趋势的快速变化,英伟达不可能是永远的王者,而Groq也绝对不是唯一的挑战者。

【关于科技云报道】

专注于原创的企业级内容行家——科技云报道。成立于2015年,是前沿企业级IT领域Top10媒体。获工信部权威认可,可信云、全球云计算大会官方指定传播媒体之一。深入原创报道云计算、大数据、人工智能、区块链等领域。

审核编辑 黄宇

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 英伟达
    +关注

    关注

    23

    文章

    4043

    浏览量

    97700
  • AI芯片
    +关注

    关注

    17

    文章

    2069

    浏览量

    36580
  • 大模型
    +关注

    关注

    2

    文章

    3454

    浏览量

    4974
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    中国AI芯片市场:华为将占半壁江山,英伟跌落,这家第二

    2026年华为将占据中国AI芯片市场50%的份额,成为该领域的绝对领导者。   目前,英伟(NVIDIA)以39%的市场份额位居中国AI
    的头像 发表于 12-07 11:04 7915次阅读
    中国<b class='flag-5'>AI</b><b class='flag-5'>芯片</b>市场:华为将占半壁江山,<b class='flag-5'>英伟</b><b class='flag-5'>达</b>跌落,这家第二

    英伟重磅杀入Arm AI PC,N1X芯片跑分曝光!结果比较意外

     电子发烧友网报道(文/黄山明)如今我们正处于信息时代迈入AI时代的过渡期,而作为AI时代最大的“卖铲人”,英伟算是吃尽了时代的红利。不仅将公司一举带上了全球第一的市值,更是让
    的头像 发表于 03-04 00:58 3112次阅读
    <b class='flag-5'>英伟</b><b class='flag-5'>达</b>重磅杀入Arm <b class='flag-5'>AI</b> PC,N1X<b class='flag-5'>芯片</b>跑分曝光!结果比较意外

    黄仁勋:英伟AI芯片订单排到2026年 英伟上季营收加速增长62%再超预期

    AI芯片总龙头英伟的财报终于带来了惊喜;英伟公司发布财报数据显示,上季营收加速增长62%;再
    的头像 发表于 11-20 11:36 865次阅读

    【「AI芯片:科技探索与AGI愿景」阅读体验】+AI芯片的需求和挑战

    的我我们讲解了这几种芯片的应用场景,设计流程、结构等。 CPU: 还为我们讲解了一种算法:哈希表算法 GPU: 介绍了英伟H100GPU芯片。使用了一下关键技术: ①张量
    发表于 09-12 16:07

    外媒:英伟正开发新款中国特供芯片B30A 或为旗舰AI芯品B300的阉割版

    ;或为旗舰AI芯品B300的阉割版 ;估计性能只有B300的50%--70%。 据外媒路透社报道,为了中国市场;英伟正在加速研发基于最新Blackwell架构的AI
    的头像 发表于 08-20 15:19 3146次阅读
    外媒:<b class='flag-5'>英伟</b><b class='flag-5'>达</b>正开发新款中国特供<b class='flag-5'>芯片</b>B30A 或为旗舰<b class='flag-5'>AI</b>芯品B300的阉割版

    特朗普叫停英伟对华特供版 英伟H20出口限制 或损失55亿美元

    是“中国特供版”人工智能芯片;是英伟公司为符合美国出口规定专门为中国市场开发的定制芯片,H20芯片在训练
    的头像 发表于 04-16 16:59 1892次阅读

    英伟、高通布局AI投资版图,这些明星企业被收入囊中!

    的模型并不会减少芯片的需求,相反,未来的计算需求只会增加,尤其是对计算基础设施的需求。 英伟也在利用其雄厚的资金大幅增加了对各种初创公司的投资,尤其是对AI初创公司的投资。根据Pit
    的头像 发表于 03-25 09:22 1832次阅读

    IBM携手英伟AI数据平台推动企业级AI创新

    近日,IBM(纽约证券交易所:IBM)宣布与英伟(纳斯达克股票代码:NVDA)开展全新合作,双方将基于英伟 AI 数据平台参考架构(re
    发表于 03-24 19:20 415次阅读

    新思科技携手英伟加速芯片设计,提升芯片电子设计自动化效率

    解决方案在英伟 GPU和英伟 CUDA-X库上所实现的加速 基于英伟 GB200 Grac
    发表于 03-19 17:59 437次阅读

    英伟市值一夜蒸发近2万亿 英伟股价下跌超8%

    财年第四财季和全财年业绩数据上看,2025财年第四财季及全年的营收和利润都实现了大幅增长,大家特别关注的数据中心业务也是业绩增长的核心动力,展现出英伟AI领域的强大实力。而且英伟
    的头像 发表于 03-04 10:19 998次阅读

    英伟与联发科联手打造2025年AI PC芯片

    ,这款AI PC芯片的研发工作已进入关键阶段。早在2024年10月,该芯片便已成功进入流片阶段,预示着其量产日期的临近。预计到了2025年下半年,这款集英伟
    的头像 发表于 02-14 16:54 1601次阅读

    Groq获沙特15亿美元投资,加速AI芯片全球布局

    近日,美国AI芯片初创公司Groq宣布了一项重大融资进展。2月10日,该公司透露已从沙特阿拉伯获得高达15亿美元的投资承诺,旨在扩大其先进的AI芯片
    的头像 发表于 02-13 16:20 844次阅读

    美银分析师:英伟加大“物理AI”投入为明智之举

    近日,美国银行的分析师对英伟在“物理AI”领域的最新动向发表了评论。分析师指出,英伟决定加大对“物理
    的头像 发表于 01-08 10:51 743次阅读

    英伟收购AI初创公司Run:ai

    全球领先的芯片制造商英伟近日正式完成了对以色列人工智能初创公司Run:ai的收购。这一收购案在经过欧盟反垄断机构的严格审查后,最终获得了批准,标志着
    的头像 发表于 12-31 10:46 871次阅读

    微软大手笔采购英伟AI芯片

    据全球知名市场调研机构Omdia的最新估计,微软在2024年的英伟Hopper架构芯片采购计划上展现出了惊人的手笔。这一举动旨在帮助微软在构建下一代人工智能(AI)系统的激烈竞争中抢
    的头像 发表于 12-20 15:50 959次阅读