0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

Neuchips展示大模型推理ASIC芯片

SSDFans 来源:SSDFans 2025-01-06 17:30 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

领先的AI专用集成电路ASIC)解决方案提供商Neuchips在CES 2024上展示了其革命性的Raptor Gen AI加速芯片(以前称为N3000)和Evo PCIe加速卡LLM解决方案。新的芯片解决方案Raptor使企业能够以现有解决方案的一小部分成本部署大型语言模型(LLM)推理。

NeuchipsCEO Ken Lau表示:“我们很高兴在CES 2024上向业界展示我们的Raptor芯片和Evo卡。Neuchips的解决方案代表了自然语言处理在性价比上的巨大飞跃。有了Neuchips,任何组织都可以在广泛的AI应用中从LLM中获得力量。”

LLM民主化

Raptor和Evo共同提供了一个优化的堆栈,使企业可以轻松访问市场领先的LLM。与现有解决方案相比,Neuchips的AI解决方案显著降低了硬件成本。高能效也最大限度地减少了用电量,进一步降低了总拥有成本。

在CES 2024上,Neuchips展示了Raptor和Evo,在个人AI助理应用程序上加速Whisper和LlamaAI聊天机器人。该解决方案突出了LLM推理对实际业务需求的强大功能。

其他技术会议将展示Raptor和Evo如何削减语音到文本应用程序的部署成本。

Raptor GenAI加速器为突破LLM性能提供动力

Raptor每个芯片的运算速度高达每秒200TOPS。它在AI推理操作(如矩阵乘法、向量和嵌入表查找)方面的出色性能适用于Gen-AI和基于变压器的AI模型。这一突破性的吞吐量是通过Neuchips为神经网络量身定制的专利压缩和效率优化来实现的。

Evo第5代PCIe卡为加速和低功耗设定新标准

与Raptor互补的是Neuchips的超低功耗Evo加速卡。Evo结合了8通道PCIe Gen 5和32GB LPDDR5,实现64 GB/s主机I/O带宽和1.6 Tbps每秒的内存带宽,每卡仅55瓦。

正如DLRM所展示的那样,Evo还具有100%的可扩展性,允许客户通过添加更多芯片来线性提高性能。这种模块化设计确保了对未来AI工作负载的投资保护。

该公司2024年下半年推出了HHHL(half-height half-length)外形产品Viper,提供更大的部署灵活性。新系列在紧凑的设计中带来了数据中心级的AI加速。

原文链接:

https://www.techpowerup.com/317298/neuchips-to-showcase-industry-leading-gen-ai-inferencing-accelerators-at-ces-2024


声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • ASIC芯片
    +关注

    关注

    2

    文章

    94

    浏览量

    24628
  • LLM
    LLM
    +关注

    关注

    1

    文章

    340

    浏览量

    1256

原文标题:Neuchips展示大模型推理ASIC芯片!

文章出处:【微信号:SSDFans,微信公众号:SSDFans】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    欧洲之光!5nm,3200 TFLOPS AI推理芯片即将量产

    数据中心AI推理处理器的按时上市。通过此次合作,GUC展示了其在复杂芯片组架构设计以及利用2.5D先进封装技术实现HBM3
    的头像 发表于 11-29 13:52 4287次阅读
    欧洲之光!5nm,3200 TFLOPS AI<b class='flag-5'>推理</b><b class='flag-5'>芯片</b>即将量产

    微弱信号采集 ASIC芯片 CBM12AD1X

    ASIC芯片
    芯佰微电子
    发布于 :2025年11月28日 15:04:53

    什么是AI模型推理能力

    NVIDIA 的数据工厂团队为 NVIDIA Cosmos Reason 等 AI 模型奠定了基础,该模型近日在 Hugging Face 的物理推理模型排行榜中位列榜首。
    的头像 发表于 09-23 15:19 810次阅读

    NVIDIA Nemotron Nano 2推理模型发布

    NVIDIA 正式推出准确、高效的混合 Mamba-Transformer 推理模型系列 NVIDIA Nemotron Nano 2。
    的头像 发表于 08-27 12:45 1367次阅读
    NVIDIA Nemotron Nano 2<b class='flag-5'>推理模型</b>发布

    请问如何在RK3588上使用npu,用onnx模型推理

    请问如何在瑞芯微 RK3588上使用npu,用onnx模型推理。官网上介绍说要把ONNX模型转换成RKNN模型。但是我并不想这么干,请问有什么办法吗?
    发表于 08-09 00:51

    模型推理显存和计算量估计方法研究

    随着人工智能技术的飞速发展,深度学习大模型在各个领域得到了广泛应用。然而,大模型推理过程对显存和计算资源的需求较高,给实际应用带来了挑战。为了解决这一问题,本文将探讨大模型
    发表于 07-03 19:43

    谷歌新一代 TPU 芯片 Ironwood:助力大规模思考与推理的 AI 模型新引擎​

    Cloud 客户开放,将提供 256 芯片集群以及 9,216 芯片集群两种配置选项。   在核心亮点层面,Ironwood 堪称谷歌首款专门为 AI 推理精心设计的 TPU 芯片
    的头像 发表于 04-12 00:57 3178次阅读

    详解 LLM 推理模型的现状

    2025年,如何提升大型语言模型(LLM)的推理能力成了最热门的话题之一,大量优化推理能力的新策略开始出现,包括扩展推理时间计算、运用强化学习、开展监督微调和进行提炼等。本文将深入探讨
    的头像 发表于 04-03 12:09 1234次阅读
    详解 LLM <b class='flag-5'>推理模型</b>的现状

    中科驭数高性能网卡产品 成就DeepSeek推理模型网络底座

    2025年初,DeepSeek-V3与DeepSeek-R1推理模型的开源引爆了AI社区,这两款产品作为通用千亿级模型与专用推理优化模型,为全球AI技术生态带来重大变革,不仅
    的头像 发表于 03-31 11:56 510次阅读
    中科驭数高性能网卡产品 成就DeepSeek<b class='flag-5'>推理模型</b>网络底座

    为什么无法在运行时C++推理中读取OpenVINO™模型

    使用模型优化器 2021.1 版OpenVINO™转换模型 使用 Runtime 2022.3 版本在 C++ 推理实现 ( core.read_model()) 中读取模型Open
    发表于 03-05 06:17

    AI推理带火的ASIC,开发成败在此一举!

    电子发烧友网报道(文/梁浩斌)去年年底,多家大厂爆出开发数据中心ASIC芯片的消息,包括传闻苹果与博通合作开发面向AI推理ASIC,亚马逊也在年底公布了其AI 
    的头像 发表于 03-03 00:13 4091次阅读
    AI<b class='flag-5'>推理</b>带火的<b class='flag-5'>ASIC</b>,开发成败在此一举!

    AI大模型在汽车应用中的推理、降本与可解释性研究

    佐思汽研发布《2024-2025年AI大模型及其在汽车领域的应用研究报告》。 推理能力成为大模型性能提升的驱动引擎 2024下半年以来,国内外大模型公司纷纷推出
    的头像 发表于 02-18 15:02 1813次阅读
    AI大<b class='flag-5'>模型</b>在汽车应用中的<b class='flag-5'>推理</b>、降本与可解释性研究

    黑芝麻智能芯片加速DeepSeek模型推理

    近日,黑芝麻智能宣布,其武当C1200家族芯片已成功完成DeepSeek模型推理的部署,而A2000芯片也将全面支持基于DeepSeek的多模态大
    的头像 发表于 02-14 15:04 811次阅读

    摩尔线程宣布成功部署DeepSeek蒸馏模型推理服务

    近日,摩尔线程智能科技(北京)有限责任公司在其官方渠道发布了一则重要消息,宣布公司已经成功实现了对DeepSeek蒸馏模型推理服务的部署。这一技术突破,标志着摩尔线程在人工智能领域迈出了坚实的一步
    的头像 发表于 02-06 13:49 1182次阅读

    如何开启Stable Diffusion WebUI模型推理部署

    如何开启Stable Diffusion WebUI模型推理部署
    的头像 发表于 12-11 20:13 1149次阅读
    如何开启Stable Diffusion WebUI<b class='flag-5'>模型</b><b class='flag-5'>推理</b>部署