0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

基于NIVIDA RTX的GPU加速边缘AI服务器——AIR-500D

jf_01711660 来源:jf_01711660 作者:jf_01711660 2023-08-17 13:31 次阅读

随着边缘计算和人工智能对制造业、智慧城市、医疗和其他行业的不断深入,应用中对海量图像数据处理的需求持续激增。作为NVIDIA的精英合作伙伴,研华可提供基于英伟达最新的Jetson AGX Orin和RTX系列平台的边缘AI解决方案。这些性能出色的解决方案非常适合于包括机器人视频分析在内的各种AI应用。研华的解决方案包括一个紧凑的人工智能系统和一个服务器级系统,可满足边缘推理和再训练的要求。

基于NIVIDA RTX的GPU加速边缘AI系统

双GPU用于计算密集型AI推理及再训练

产品特点:

Intel Xeon-1700系列处理器

• 支持4 x DDR4 SO-DIMM插槽,最大可达128GB

• 支持双PCIe x16 350W高性能GPU卡

• 海量存储,支持4 × 2.5 " SATAIII SSD RAID 0/1

• 支持扩展PCIe x1/x4/x16, M.2 B Key和E Key

• 内置1200W电源

• 支持IPMI 2.0管理,可靠性和安全性增强

案例分享——机器人AOI缺陷检测

传统的机器视觉系统有时无法区分缺陷,因为视觉上相似的部件之间也可能存在差异和偏差。通过利用AI技术,可以解决这个问题,并提高整体检测的精准度。

本案例中的客户是一家机器人视觉设备制造商,他们将自己的机械臂与AI技术相结合,进行检测缺陷。AIR-500D利用2 x RTX GPU处理不同生产线上捕获到的大量图像数据,然后,对这些图片进行分类、检测和重新整理,训练AI模型,提高分析结论的准确性。
研华嵌入式边缘智能系统AIR-500D,是基于英伟达最新的Jetson AGX Orin和RTX系列平台的边缘AI解决方案。更多关于AIR-500D或研华工控机信息,可关注苏州研讯电子科技有限公司~

审核编辑:汤梓红

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 工控机
    +关注

    关注

    10

    文章

    1340

    浏览量

    47785
  • 服务器
    +关注

    关注

    12

    文章

    8116

    浏览量

    82509
  • 人工智能
    +关注

    关注

    1776

    文章

    43845

    浏览量

    230601
  • AOI
    AOI
    +关注

    关注

    6

    文章

    133

    浏览量

    24118
收藏 人收藏

    评论

    相关推荐

    台积电:AI服务器处理器预计翻番,拉动收入增长 

    台积电将 AI 服务器处理器严格限定为用于 AI 训练与推理的 GPU、CPU 及 AI 加速
    的头像 发表于 04-19 15:04 95次阅读

    AI服务器脱离GPU依赖,AI PC市场潜力无限

    由于GPU供应短缺,AI服务器一度出现供给不足的情况。廖仁祥指出,考虑到AI服务器价格相对较高,企业采购预算中已有20%用于此项开支,涵盖了
    的头像 发表于 04-11 09:32 97次阅读

    使用NVIDIA Triton推理服务器加速AI预测

    这家云计算巨头的计算机视觉和数据科学服务使用 NVIDIA Triton 推理服务器加速 AI 预测。
    的头像 发表于 02-29 14:04 209次阅读

    GPU交期缓解,AI服务器厂商营收暴涨

    电子发烧友网报道(文/周凯扬)AIGC在应用软件掀起的这股热潮背后,却隐藏着AI服务器组件缺货的难题。在云服务厂商和互联网厂商大肆采购AI GPU
    的头像 发表于 02-20 00:17 2268次阅读
    <b class='flag-5'>GPU</b>交期缓解,<b class='flag-5'>AI</b><b class='flag-5'>服务器</b>厂商营收暴涨

    gpu服务器是干什么的 gpu服务器与cpu服务器的区别有哪些

    gpu服务器是干什么的 gpu服务器与cpu服务器的区别 GPU
    的头像 发表于 01-30 15:31 313次阅读

    超微gpu服务器评测

    随着科技的不断发展和进步,GPU服务器在大数据分析、深度学习、人工智能等领域正变得越来越重要。而超微GPU服务器因其出色的性能和高度定制化的优势,成为了众多企业和研究机构的首选。本文将
    的头像 发表于 01-10 10:37 426次阅读

    gpu服务器是干什么的 gpu服务器与cpu服务器的区别

     相比于传统的CPU服务器GPU服务器支持同时计算大量相似的计算操作,可以实现更强的并行计算性能。GPU服务器通常配备多个高性能的
    的头像 发表于 12-02 17:20 1272次阅读

    大模型算驱动AI服务器行业报告

    AI服务器按芯片类型可分为CPU+GPU、CPU+FPGA、CPU+ASIC等组合形式,CPU+GPU是目前国内的主要选择(占比91.9%);AI
    发表于 11-28 09:18 118次阅读
    大模型算驱动<b class='flag-5'>AI</b><b class='flag-5'>服务器</b>行业报告

    AI服务器带动PCB性能价格双升

    AI 服务器中 PCB 价值量的提升主要体现在以下几个模块:GPU 加速卡(OAM),主要由 GPU 芯片、内存芯片、电源模块、散热器等部件
    的头像 发表于 09-21 15:46 508次阅读
    <b class='flag-5'>AI</b><b class='flag-5'>服务器</b>带动PCB性能价格双升

    全国首家!H800 GPU服务器租售正式启动~

      最强加速卡,最优性价比,为AI赋能!   ——我们荣幸地宣布,我们的H800 GPU服务器正式启动租售,为全国首家提供这一崭新科技。这一突破性的
    的头像 发表于 08-17 15:28 1884次阅读
    全国首家!H800 <b class='flag-5'>GPU</b><b class='flag-5'>服务器</b>租售正式启动~

    《开放加速规范AI服务器设计指南》发布,应对生成式AI算力挑战

    北京2023年8月11日 /美通社/ -- 8月10日,在2023年开放计算社区中国峰会(OCP China Day 2023)上,《开放加速规范AI服务器设计指南》(以下简称《指南》)发布。《指南
    的头像 发表于 08-14 09:49 511次阅读

    支持双NVIDIA GPU 研华新品高性能边缘AI系统AIR-500D重磅推出!

    近期,全球物联网方案提供厂商研华隆重发布了一款支持双NVIDIA RTX GPU的全新高性能Al系统—AIR-500D。该解决方案预装Intel Xeon D-1700处理器和双高性能GPU
    的头像 发表于 08-03 15:22 410次阅读
    支持双NVIDIA <b class='flag-5'>GPU</b> 研华新品高性能<b class='flag-5'>边缘</b><b class='flag-5'>AI</b>系统<b class='flag-5'>AIR-500D</b>重磅推出!

    GPU服务器是什么?

    具体是什么呢?如何选择GPU服务器GPU服务器有什么作用? GPU加快计算能够提供不凡的应用软件性能,能将应用软件计算聚集一部分的工作中
    的头像 发表于 08-01 18:03 606次阅读

    什么是边缘服务器边缘计算的未来如何?

    边缘服务器是指驻留在网络逻辑边缘上的任何类型的服务器,通常位于专用网络和互联网之间。边缘服务器
    的头像 发表于 07-31 17:38 625次阅读
    什么是<b class='flag-5'>边缘</b><b class='flag-5'>服务器</b>?<b class='flag-5'>边缘</b>计算的未来如何?

    AI服务器与传统服务器的区别是什么?

    AI 服务器确实是整个服务器市场的一部分,但它们是专门为基于云的 AI 模型训练或推理而设计的。在规格方面,广义的AI
    发表于 06-21 12:40 1320次阅读