对比 NVIDIA GPU 上的 TensorFlow,该集成使深度学习推理速度快 5 倍。
中国北京 – 2018 年 4 月 11 日 – MathWorks 今日宣布 ,MATLAB 现在可通过 GPU Coder 实现与 NVIDIA TensorRT 集成。这可以帮助工程师和科学家们在 MATLAB 中开发新的人工智能和深度学习模型,且可确保性能和效率满足数据中心、嵌入式应用和汽车应用不断增长的需求。
MATLAB 提供了一个完整的工作流程来快速训练、验证和部署深度学习模型。工程师可以使用 GPU 资源,而无需额外编程操作,因此可以专注于应用本身而不是性能调优。NVIDIA TensorRT 与 GPU Coder 的全新集成使得可以在 MATLAB 中开发深度学习模型,然后以高吞吐量低延迟的方式部署在 NVIDIA GPU 上运行。内部基准测试显示,MATLAB 生成的CUDA代码与 TensorRT 结合,在部署 Alexnet模型进行深度学习推理时,性能比 TensorFlow 高 5 倍;在部署 VGG-16 模型进行深度学习推理时,性能比 TensorFlow 高 1.25 倍。*
“不断发展的图像、语音、传感器和物联网 (IoT) 技术促使团队以更好的性能和效率研究人工智能解决方案。此外,深度学习模型变得越来越复杂。所有这些都给工程师们带来了巨大的压力,” MathWorks 总监 David Rich 说。“现在,团队可以使用 MATLAB 训练深度学习模型,NVIDIA GPU 可以将实时推理部署到从云端到数据中心到嵌入式边界设备等各种环境中。”
* 所有基准测试均在一台使用 NVIDIA TITAN Xp GPU、64GB RAM 的 Linux 12 core Intel® Xeon® E5-1650 v3 电脑上运行,使用的软件包括带 GPU Coder 的 MATLAB R2018a、TensorRT 3.0.1、TensorFlow 1.6.0、CUDA 9.0 和 cuDNN 7
关于 MathWorks
MathWorks 公司是数学计算软件领域世界领先的开发商。它所推出的 MATLAB 是一种用于算法开发、数据分析、可视化和数值计算的程序设计环境,称为“科学计算的语言”。Simulink 是一种图形环境,可用于对多域动态系统和嵌入式系统进行仿真和基于模型设计。全球的工程师和科学家们都依赖于 MathWorks 公司所提供的这些产品家族,来加快在汽车、航空、电子、金融服务、生物医药以及其他行业的发明、创新及开发的步伐。除此之外,MATLAB 和 Simulink 产品还是基础教学和研究工具,为全球众多大学和教学机构所采用。MathWorks 创立于 1984 年,总部位于美国马萨诸塞州内蒂克,在 15 个国家共拥有超过 3500 名员工。
-
matlab
+关注
关注
189文章
3028浏览量
239173 -
NVIDIA
+关注
关注
14文章
5682浏览量
110102 -
MathWorks
+关注
关注
16文章
85浏览量
62219 -
人工智能
+关注
关注
1819文章
50298浏览量
266843
发布评论请先 登录
MathWorks 加入 EDGE AI FOUNDATION,推进面向工程化系统的嵌入式 AI 发展
IBM宣布扩大与NVIDIA的合作
Magna AI加入NVIDIA Inception计划,推动生产级人工智能规模化发展
NVIDIA TensorRT LLM 1.0推理框架正式上线
利用超微型 Neuton ML 模型解锁 SoC 边缘人工智能
Lambda采用Supermicro NVIDIA Blackwell GPU服务器集群构建人工智能工厂
“人工智能+”行动重磅发布!ElfBoard助力嵌入式教育智能化升级
创客总部加入MathWorks加速器计划
挖到宝了!人工智能综合实验箱,高校新工科的宝藏神器
挖到宝了!比邻星人工智能综合实验箱,高校新工科的宝藏神器!
最新人工智能硬件培训AI 基础入门学习课程参考2025版(大模型篇)
使用NVIDIA Triton和TensorRT-LLM部署TTS应用的最佳实践
维谛加速推进人工智能基础设施演进,助力NVIDIA 800 VDC 电源架构发布
MathWorks 宣布 MATLAB 与 NVIDIA TensorRT 集成来加快人工智能应用
评论