据外电报道,美国ai芯片初创企业d-matrix最近宣布,将推出jayhawk ii芯片,用于其独创的数字memory computing引擎,通过chiplet结构进行生成宏观推理。
公司方面表示,该引擎的内存带宽比nvidia的h100a100等高端的gpu大40倍。此外,d-matrix还主张,jayhawk ii对30亿至400亿大型语言模型(llm)的每秒生成推理能力增加10至20倍。公司方面表示,与gpu解决方案相比,生成推理的总拥有费用从10倍减少了20倍。
在物理设计方面,该芯片由6纳米工程制成,核心之间通过bow接口实现相互连接,支持各种精度的浮点数据型。
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。
举报投诉
-
芯片
+关注
关注
447文章
47821浏览量
409199 -
NVIDIA
+关注
关注
14文章
4597浏览量
101762 -
语言模型
+关注
关注
0文章
436浏览量
10059 -
chiplet
+关注
关注
6文章
380浏览量
12419
发布评论请先 登录
相关推荐
英伟达发布新一代H200,搭载HBM3e,推理速度是H100两倍!
电子发烧友网报道(文/李弯弯)日前,英伟达正式宣布,在目前最强AI芯片H100的基础上进行一次大升级,发布新一代H200芯片。H200拥有141GB的内存、4.8TB/秒的带宽,并将与
AI计算需求激增,英伟达H100功耗成挑战
根据预测,若H100的年利用率保持在61%,那么单台设备每年将耗电3740千瓦小时左右。如果英伟达在2023年售出150万块H100,2024年再增加至200万块,那么到2024年底,将有350万块
英伟达推出新款AI芯片H200 性能飙升90%但是估计依然被出口管制
大,也是H100的升级版,号称性能飙升90%;全球最强 AI 芯片。 据英伟达的消息,H200拥有141GB的内存、4.8TB/秒的带宽,并将与H1
英伟达特供版芯片将上市:性能最高不到H100的20%
本周四,一些媒体首次报道了英伟达特供芯片的消息。报道称,这三款新产品是在 H100 GPU 的基础版本基础上进行修改的,采用的是最新架构,但性能大幅
传英伟达新AI芯片H20综合算力比H100降80%
但据悉,三种新型AI芯片不是“改良型”,而是“缩小型”。用于ai模型教育的hgx h20的带宽和计算速度是有限的。整体计算能力理论上比nvidia的h100 gpu芯片低80%左右。h20是h
MI300X能否与H100一较高下?
市场研究公司Omdia近日发布报告称,预计英伟达二季度用于AI和高性能计算应用的H100 GPU的出货量超过了900吨。并且预计其在未来几个季度的GPU销量将大致相同,因此英伟达今年将
发表于 09-28 14:50
•1291次阅读
传微软砍单英伟达H100芯片
但中国台湾工厂的ai供应链条方面英伟达ai芯片仍供不应求,但微软到2024年的需求成倍增加有望保持gh200芯片订单上调,ai服务器的长期成长动力是不会改变。”
升腾910和英伟达h100对比
升腾910和英伟达h100对比 随着人工智能计算进入快速发展的阶段,AI芯片的性能也越来越得到人们的关注,其中两款最受关注的芯片必须是华为
英伟达a100和h100哪个强?英伟达A100和H100的区别
英伟达a100和h100哪个强? 就A100和H100这两个产品来说,它们虽然都是英伟达公司的高
评论