0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

如何取替英伟达?如何颠覆英伟达?

ZYNQ 来源:半导体行业观察 2023-07-10 11:21 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

随着生成式AI的火热以及英伟达市值冲破万亿美元,如何取替英伟达,成为AI芯片市场新贵,又成为了一个热门话题。

以下为文章原文摘录:

看到英伟达这个万亿美元的市值,我想没有任何人敢说他不想要。。。。。。想要,就得琢磨琢磨怎么才能造他娘的反。

王侯将相宁有种乎!

你得盘个逻辑,提个口号才能举旗,得想办法证明旧社会的不足和新社会的先进性才有机会。

不知道多少人分析过Nvidia的GPU的成本,我们以最新的Hopper H100为例。大致上,为了跑AI大模型,你从Nvidia手上购买到的是如下这样的一张卡,他叫做SXM5模组,单手就能拿捏的样子。

这个模组附带了大量的供电VRM,也通常会使用相对高阶的PCB保证供电的铜损最小。最中间的差不多就是一颗Hopper GPU芯片,看得出由7颗Die用chiplet方式封装,分别是1颗logic Die和6颗HBM。

把他的成本打开,SXM的成本不会高于300$,封装的Substrate及CoWoS大约也需要$300,中间的Logic Die最大颗,这是一颗看起来非常高贵的die,使用4nm工艺打,尺寸为814mm2,TSMC一张12英寸Wafer大致上可以制造大约60颗这个尺寸的Die,Nvidia在Partial Good上一向做得很好(他几乎不卖Full Good),所以这60颗大致能有50颗可用,Nvidia是大客户,从TSMC手上拿到的价格大约是$15000,所以这个高贵的Die大约只需要$300。哦,只剩下HBM了,当前DRAM市场疲软得都快要死掉一家的鬼样了,即使是HBM3大抵都是亏本在卖,差不多只需要$15/GB,嗯,80GB的容量成本是$1200。

你掐指一算……

凸(艹皿艹 ),你花钱到底买到的是什么?这居然是一个投机倒把倒卖DRAM的货,整颗GPU物料成本中DRAM占了~60%,而且这DRAM的容量,80GB,它是个啥?够个屁啊,老黄还骗我买8张卡来存放一个GPT3大模型。

高贵的黄教主啊,想不到你是个高价倒卖DRAM的二手贩子啊........Grace把LPDDR也集成进去了,是不是这集成的LPDDR不得也比标准DDR DIMM贵个几倍?

所以,要革Nvidia命的第一步,就应该从DRAM出手,如果我做把DRAM成本做到更合理的结构,并且再把容量做大到更少的芯片数量就能存放大模型。

这天,我能翻。

就前几天,聪明绝顶的GraphCore联合创始人兼CTO为众多竞争者指出了一条路,如下:

013a36ec-1eca-11ee-962d-dac502259ad0.png

看到没,LPDDR定制一下是可以做到50% HBM的带宽,但是容量远大于HBM的,剩下你只要在AI大模型的存/算带宽容量比上做到最好就行。

不过。。。。。。。他自己为啥不做?

因为一颗H100 GPGPU虽然成本只有 ~$2000,但它在市场上的售价是 ~$30000,在15倍的暴利面前,你想用降成本的方式来获取竞争力。嗯,假设你做一颗成本$1000,比H100性价比更高的DSA,能打赢吗?

客户他又不是傻子,他愿意用$30000的价格买一个$2000成本的东西,他真的会图你的成本能再降低$1000 ?

这个巨大的溢价空间,并非源自GPGPU本身,而来自于其背后的巨大黑手,一个复杂的系统,这个系统本身,甚至潜移默化影响了用户的算法

Nvidia是一个伪装成卖Device,但真实是在卖一个system的公司。Apple也是。

只有打掉这个系统才有可能破解其成本,想一想,iOSAndroid,Windows有Linux,cuda却没有开源路径……

一计不成,再生一计。我再治他一个system的阉人之罪。

回到中国本土市场,你注意到老黄最近在呼吁,美国政府对中国的技术管制要三思而后行。嗯,网传老黄差点就来大陆炒光模块的A股了。

逻辑是没问题的,美国的技术管制大概率Nvidia是参与了,所以他才那么在美国发布管制时,第一时间推出了A800、H800这样的数字对中国人是好意头的芯片型号,这种体贴AMD苏妈妈就慢了一拍(苏妈妈推出了mi388……)。

美国技术管制的约束大致是芯片总带宽要小于600GB/s(双向)。

GPU A100的Nvlink带宽是600GB/s,考虑到PCIe不能裁,A800的Nvlink被限制到400GB/s(12Lane降低到8Lane)。

这还好,洒洒水啦。

H100相比A100算力FP16从300T增加到接近1P,Nvlink带宽从600GB/s提升到900GB/s,咔嚓一刀,H800的Nvlink带宽还是得降低到400GB/s。

有点憋屈,但是我作为骄傲的中国客户,为了图8这个吉利,连4这个数字都能忍了。

我记得我列过几次大模型训练的结构,以GPT3为例,大致上用1024张A100训练GPT,8P一个Node,在Node内模型并行, 然后按8个8P(64P)做8级流水并行,然后16组8x8做Batch 16的数据并行。。。。。。

015fed1a-1eca-11ee-962d-dac502259ad0.png

H100的下一代是B100,它的FP16算力大致上从900T提升到了~2P Flops附近。

哦豁,在这个算力下如果B800只有400GB/s的Nvlink带宽,基本上Tensor并行这个训练行为就没法正常执行了,各大厂商走过路过想一下啊,B800你还要再下10亿美元的单吗?

大概Nvidia和US政府定规则的时候,只考虑了Ampere和Hopper,没把摩尔定律算进去。

所以这个破绽很简单,坏人不让我们做的,我们就越要发展。单芯片的IO能力怼上去啊,600GB不够就上1TB,把互联做得大大的,8P的模型并行不够,直接来16P、32P的大互联。

有人会说:这样是不是有点不公平?嗯,美国卡中国是公平的,反过来利用一下反而不公平了?如果能给老黄一个猴子偷桃就一定要偷。

黄教主近期在台北发布了GH200,就有很多黄粉大吹特吹不是?然后呢?这块芯片的带宽是超标美国对中国技术管制的……嗯,老黄在中国发布了不能卖给中国的产品。很公平?

还有人会说:如果真这么做了,美国就会放松技术管制了。我只能说,如果你不做,技术管制不会凭空的放开,你只有做了,才有放开的一天。

当然,你说,革命之事,你求的本就是天下,不是一城一池。那是。

Nvidia看长远,最大的破腚,其实是基尼系数太高,不患贫而患不均。

TSMC曾经讲过一个故事。台湾同胞辛辛苦苦攒钱建厂,一张4nm那么先进的工艺哦,才能卖到$15000,但是那某个客户拿去噢,能卖出$1500000($30000*50)的货啦,机车,那样很讨厌耶。你懂我意思吗?

就如最开始说的,在这个世界的商业规则下,$2000成本的东西卖$30000,只有一家,销售量还很大,这是不符合逻辑的,这种金母鸡得有航母才守得住。

天下财共一石,老黄独占八斗。

这是对全天下IT产业的伤害,包括TSMC,一个健康的产业,其整个环节是需要一个合理的分配比例的,你要说Logic制造的技术含量最高,但是分成的收益却不到1%,这种分配关系不足以长期维系,tsmc的工艺演进是需要钱的(靠的就是大家共筹,利益均分),如果全世界IT就这么多钱,英伟达你是可以通过系统优势拿走更多,但产业链中tsmc及其他各个环节就会更加艰难。三星的HBM其实同理,操了白粉的心,卖个白菜的价,不值得。

嗯,不过tsmc没钱发展工艺对我们也不是坏事。或者说把芯片制造行业打到毛利接近零,那全世界只有中国人能做,也挺好。

摩尔定律之下,长期稳定地挤牙膏才是发展的王道(当然Intel最终也没挤好,但如果Intel如果过早把牙膏都挤了,死得更早)。

一个人过早获得了超额的财富,剩下就看他能不能守得住了 :) 从历史来看,很难的。

AI这个行业,也终将,昔日王榭堂前燕 飞入寻常百姓家。这是大势。





审核编辑:刘清

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • pcb
    pcb
    +关注

    关注

    4418

    文章

    23979

    浏览量

    426309
  • VRM
    VRM
    +关注

    关注

    0

    文章

    32

    浏览量

    13567
  • 英伟达
    +关注

    关注

    23

    文章

    4116

    浏览量

    99645
  • AI芯片
    +关注

    关注

    17

    文章

    2166

    浏览量

    36869
  • chiplet
    +关注

    关注

    6

    文章

    499

    浏览量

    13653

原文标题:如何颠覆英伟达?

文章出处:【微信号:ZYNQ,微信公众号:ZYNQ】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    硅光成AI胜负手?英伟20亿美元战略投资Marvell

    电子发烧友网报道(文 / 吴子鹏)当地时间 3 月 31 日(周二),全球市值最高的半导体企业英伟正式宣布,向美国半导体厂商迈威尔科技(Marvell,MRVL.US)战略投资 20 亿美元,将其
    的头像 发表于 04-06 07:02 1.2w次阅读

    天合光能出席英伟GTC 2026大会

    当地时间3月19日,英伟GTC 2026大会在美国加州圣何塞举行,天合光能出席此次大会。
    的头像 发表于 03-23 15:46 434次阅读

    施耐德电气与英伟深化合作以构建高效吉瓦级AI工厂

    施耐德电气携手英伟联合发布全新Vera Rubin参考设计,为英伟最新机架级系统提供经过验证的供配电与冷却方案。
    的头像 发表于 03-20 13:52 480次阅读

    新思科技与英伟多项硬核科技成果亮相GTC 2026

    新思科技(Synopsys, Inc.,纳斯达克股票代码:SNPS)在英伟 GTC 2026 大会(NVIDIA GTC 2026)上,展示了其与英伟战略合作的最新成果,携手重塑千
    的头像 发表于 03-18 17:36 1039次阅读

    麦格纳宣布扩大与英伟的战略合作

    麦格纳宣布扩大与英伟的战略合作,为整车厂基于英伟DRIVE Hyperion平台的项目落地提供支持。
    的头像 发表于 01-09 12:59 536次阅读

    英伟重磅出手!AI 推理存储全面觉醒

    电子发烧友网报道(文/黄晶晶)近日,有消息称,英伟将以大约200亿美元收购人工智能芯片初创公司Groq,这将是英伟迄今为止规模最大的一笔收购。但
    的头像 发表于 12-26 08:44 1.2w次阅读
    <b class='flag-5'>英伟</b><b class='flag-5'>达</b>重磅出手!AI 推理存储全面觉醒

    黄仁勋:英伟AI芯片订单排到2026年 英伟上季营收加速增长62%再超预期

    AI芯片总龙头英伟的财报终于带来了惊喜;英伟公司发布财报数据显示,上季营收加速增长62%;再超华尔街预期。业界都比较振奋,英伟
    的头像 发表于 11-20 11:36 1482次阅读

    NVIDIA新闻:英伟10亿美元入股诺基亚 英伟推出全新量子设备

    给大家分享一些NVIDIA新闻: 英伟10亿美元入股诺基亚 在当地时间10月28日,英伟正式宣布将以10亿美元入股诺基亚;据悉英伟
    的头像 发表于 10-29 17:12 2448次阅读

    英伟推机器人“新大脑”,黄仁勋:人形机器人3年将普及

    英伟行业资讯
    jf_15747056
    发布于 :2025年08月25日 18:01:33

    英伟自研HBM基础裸片

    电子发烧友网综合报道,据台媒消息,传闻英伟已开始开发自己的HBM基础裸片,预计英伟的自研HBM基础裸片采用3nm工艺制造,计划在2027年下半年进行小批量试产。并且这一时间点大致对
    的头像 发表于 08-21 08:16 3043次阅读

    国家网信办约谈英伟

    近日,英伟算力芯片被曝出存在严重安全问题。此前,美议员呼吁要求美出口的先进芯片必须配备“追踪定位”功能。美人工智能领域专家透露,英伟算力芯片“追踪定位”“远程关闭”技术已成熟。为维
    的头像 发表于 07-31 13:56 2853次阅读
    国家网信办约谈<b class='flag-5'>英伟</b><b class='flag-5'>达</b>

    施耐德电气与英伟深化合作

    近日,施耐德电气宣布与英伟深化合作,旨在满足市场对可持续、AI就绪基础设施日益增长的需求。
    的头像 发表于 06-24 15:02 1557次阅读

    英伟AI人才,去了华为

    电子发烧友网综合报道 近日,英伟首席科学家比尔·戴利(Bill Dally)表示,美国对中国实施的人工智能出口管制禁令,让中国获得很大的发展空间,过去英伟
    的头像 发表于 06-06 00:05 7561次阅读

    英伟拟再推中国特供GPU,今年6月量产!

    电子发烧友网综合报道 近年来,美国政府对华半导体出口管制政策不断收紧,英伟等半导体企业面临严峻挑战。为保持在中国市场的竞争力,英伟推出了多款特供版GPU,以满足政策限制下的市场需求
    发表于 05-27 00:03 4908次阅读