近日,佰维存储在接受调研时透露,公司近期成功研发并发布了支持CXL2.0规范的CXLDRAM内存扩展模块。这款产品具有支持内存容量和带宽扩展、内存池化共享、高带宽、低延迟、高可靠性等优势,特别适合于AI高性能计算的应用。
佰维存储一直致力于技术研发创新,这次的新产品再次证明了公司在技术研发上的实力。公司表示,未来将继续加大对技术研发的投入,不断推出创新产品,以满足市场不断变化的需求。
此外,佰维存储在IC芯片方面也取得了重大突破。公司透露,其第一颗主控芯片研发进展顺利,已经回片点亮,正在进行量产准备。这一进展对于佰维存储来说意义重大,标志着公司在IC芯片领域取得了重要突破,进一步提升了公司的核心竞争力。
随着AI技术的快速发展,高性能计算的需求也在不断增长。佰维存储的CXLDRAM内存扩展模块和IC芯片研发进展,将有助于满足这一市场需求,推动AI技术的进一步发展。
未来,佰维存储将继续发挥自身技术优势,积极应对市场挑战,不断推出创新产品。同时,公司也将积极寻求与各方的合作机会,共同推动半导体产业的繁荣发展。
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。
举报投诉
-
内存
+关注
关注
8文章
2767浏览量
72765 -
佰维存储
+关注
关注
0文章
89浏览量
7935 -
AI+
+关注
关注
0文章
6浏览量
2966
发布评论请先 登录
相关推荐
高性能存储实现新突破的英特尔至强处理器
基于第四代英特尔 至强 可扩展处理器的 Curve 高性能分布式存储方案在吞吐、时延、TCO 等方面具备出色优势,能够为金融、互联网、交通、能源等各行业提供高效的云原生存储解决方案。
发表于 02-26 14:01
•143次阅读
微软正在研发新型网卡,旨在提升自研AI芯片性能
微软近日被曝正在秘密研发一款高性能的新型网卡,这一创新旨在增强其自研的Maia AI服务器芯片的功能,并可能大幅度降低对外部芯片设计厂商如英伟达的依赖。据知情人士透露,这款网卡的设计思路与英伟达热销的ConnectX-7网卡有着
知合计算完成数亿元融资,致力于研发高性能通用可扩展处理器
该公司专注于高性能通用可扩展处理器的研发,运用芯片切片技术扩大运算能力范围,同时结合光计算和光互联技术提高处理效果和扩展率。其产品应用于AI、多媒体、通讯和安全等领域,重点助力数据中心
佰维发布CXL 2.0 DRAM,赋能高性能计算
设备内存之间的一致性,突破内存墙瓶颈,缩减整体响应时间。此外,CXL支持部署新的内存层,可以弥合主内存和SSD存储之间的延迟差距。 随着AI应用爆发,“内存墙”成为制约计算系统
发表于 12-27 15:17
•126次阅读
佰维发布CXL 2.0 DRAM,赋能高性能计算
设备内存之间的一致性,突破内存墙瓶颈,缩减整体响应时间。此外,CXL支持部署新的内存层,可以弥合主内存和SSD存储之间的延迟差距。 随着AI应用爆发,“内存墙”成为制约计算系统
国产六核CPU,三屏异显,赋能新一代商显
,采用AEC-Q100车规级芯片工艺,并且通过ISO26262 ASIL_B功能安全认证,是国产高性能芯片的代表作。米尔电子与芯驰科技(SemiDrive)强强联合,基于芯驰D9-Pro高性能国产工业
发表于 12-22 18:07
RISC-V内核突破百亿颗 RVV1.0如何解锁端侧AI市场应用潜能
的技术版本。向量扩展版本对于RISC-V架构在AI领域的广泛应用非常重要。向量指令集的实现可以在大规模矩阵运算或稀疏矩阵计算中产生良好的加速效果。
得益于RVV1.0标准的赋能和自研N
发表于 12-01 13:17
英码科技精彩亮相火爆的IOTE 2023,多面赋能AIoT产业发展!
产品,包括覆盖多层次算力的智能工作站(边缘计算盒子)、AI加速卡等;同时向大家展示自研的AI技术服务——“深元”0代码移植工具链和创新性的行业解决方案,赋
发表于 09-25 10:03
创龙科技位居头版,2023深圳elexcon电子展为智能化赋能!
微电子、中移物联、灵动微电子、华大电子、中科芯、国芯科技、中微半导、笙泉科技、中电港、敏矽微、雅特力、研智科技、劳特巴赫、同星智能、江波龙、康芯威、沛顿、康盈半导体、东芯、佰维、益登/芯科科技、美格智能
发表于 08-24 11:49
【昉·星光 2 高性能RISC-V单板计算机体验】使用之一:星光 2开箱之硬件分析
昉·星光 2 是全球首款集成了GPU的高性能RISC-V单板计算机。与昉·星光1 相比( JH7100 SoC 芯片采用双核64位高性能RISC-V CPU,自带2MB的二级缓存,工作频率最高
发表于 07-28 15:02
智能网卡简介及其在高性能计算中的作用
最先进的人工智能模型在不到五年的时间内经历了超过 5,000 倍的规模扩展。这些 AI 模型严重依赖复杂的计算和大量内存来实现高性能深度神经网络 (DNN)。只有使用 CPU、GPU 或专用芯片等
发表于 07-28 10:10
从高性能内核到双核设计,MCU朝边缘AI进击
AI芯片难以在边缘端铺开。 那么边缘AI是否可以交由MCU来完成呢?传统的MCU设计哪怕针对一些轻度AI计算来说,仍有一些吃力。所以不少MCU厂商开始发力更
易飞扬携高性能计算互连硬件和液冷互连解决出席德国ISC高性能计算大会
[中国,深圳,2023年5月6日]5月21-25日,全球领先的高性能计算和超级计算领域的国际会议之一的ISC高性能计算大会(ISC High
评论