0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

微软宣布将多平台通用ONNX机器学习引擎开源

DPVg_AI_era 来源:lq 2018-12-07 09:01 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

微软宣布将多平台通用ONNX机器学习引擎开源,此举将让机器学习框架,向着机器学习框架的标准化和性能优化方向迈进了一大步。此前,为了推进AI框架标准化,更好地支持PyTorch和TensorFlow等框架,微软甚至降低了对自家CNTK框架的宣传调门,可谓“用心良苦”。

当地时间12月4日,微软在GitHub上宣布ONNX Runtime开源 。

ONNX Runtime是适用于Linux,Windows和Mac上ONNX格式的机器学习模型的高性能推理引擎。

ONNX是微软与Facebook和AWS共同开发的深度学习和传统机器学习模型的开放格式。ONNX格式是开放式生态系统的基础,使人工智能技术更易于访问,而且可以为不同人群创造价值:

开发人员可以为自己机器学习任务选择合适的框架,框架作者可以集中精力推出创新,提高框架的性能。对于硬件供应商来说,也可以简化神经网络计算的复杂度,实现优化算法

过去20多年来,微软一直在进行人工智能研究,并将机器学习和深度神经网络整合到旗下众多产品和服务中。由于团队使用许多不同的培训框架并针对不同的部署选项,因此确实需要统一这些分散的解决方案,以便快速,简单地操作模型。

此次开源的ONNX Runtime为这个问题提供了解决方案。该工具为数据科学家在选择的框架内训练和调整模型提供了更高的灵活性,并在云端和产品设计中以高性能打造这些模型。

ONNX引擎是Windows ML组件的关键部分。微软正在将这种机器学习界面纳入到Windows 10系统中,让开发人员在自己的Windows应用程序上使用训练过的机器学习模型。 Windows ML推理引擎可以在Windows设备上对这些模型进行本地评估,开发人员无需将模型放到云中运行。

ONNX Runtime有什么用?

ONNX是微软公开推出的首款推理机,完整支持ONNX 1.2和 ONNX机器学习的更高版本。这意味着ONNX Runtime直接随着ONNX的标准进步,实现对一大批AI模型和技术突破的支持。

微软的团队在使用ONNX Runtime来改善在Bing搜索、广告、Office产品套件等核心业务中的评分延时,提高运行效率。而对于由其他工具转而使用ONNX的模型,其平均表现提升了2倍。此外,微软的其他一些服务,如Windows ML 和ML.net等,也纳入了ONNX Runtime支持的业务之中。

ONNX Runtime在设计上是轻量级和模块化的,CPU的构建只有几M字节。可扩展架构、优化硬件加速器,降低计算延时,提升计算效率。

英伟达英特尔高通等巨头纷纷支持

很多业界领先的企业都在积极将自己的技术与ONNX Runtime实现集成和整合,使自己的服务能够完整支持ONNX规范,同时实现性能的最优化。

微软和英特尔正在合作,将nGraph编译器集成为ONNX Runtime的执行提供程序。nGraph编译器能够通过应用非设备特定和设备特定的优化来实现现有和未来的硬件加速。与原生框架相比,使用nGraph Compiler执行CPU推理任务可将性能提升45倍。

英伟达正在努力将TensorRT与ONNX Runtime实现整合,为在英伟达的GPU上部署快速增长的模型和应用程序提供简便的工作流程,同时实现最佳性能。

NVIDIA TensorRT包括一个高性能的推理优化器和运行时,可以在推荐器,自然语言处理和图像/视频处理等应用程序中以最小的延迟提供极高的吞吐量。

ONNX的另一个早期支持者是高通,也支持ONNX Runtime。高通AI业务高级主管Gary Brotman表示:“ONNX Runtime的推出和开源是微软提升跨设备类别框架的互操作性,实现标准化和性能优化的积极一步,我们希望开发人员欢迎在骁龙移动平台上支持ONNX Runtime。

业内领先的物联网芯片制造商恩智浦(NXP)最近也宣布支持ONNX Runtime。“我们希望,用户在众多机器学习框架中进行选择时能够拥有最大的灵活性和自由度。”

恩智浦AI技术中心负责人Markus Levy表示。“我们很高兴能够通过支持微软在我们的平台上发布ONNX Runtime,让机器学习开发者客户群能够享受ONNX带来的好处。”

如何使用ONNX Runtime

首先,你需要建立一个ONNX模型。没有ONNX模型?没问题。ONNX的优点就是能够通过众多工具实现框架的互操作性 。你可以直接从ONNX Model Zoo获得ResNet和TinyYOLO等热门模型的预训练版本。

你还可以使用Azure Custom Vision Cognitive Service创建自己的自定义计算机视觉模型。如果已经拥有TensorFlow、Keras、Scikit-Learn或CoreML格式的模型,可以使用我们的开源转换器(ONNX MLTools和TF2 ONNX)进行转换。

可以使用Azure机器学习服务训练新模型并保存为ONNX格式。

要使用ONNX Runtime,只需安装所需平台和所选语言的软件包,或者从源代码创建。ONNX Runtime支持 CPU 和 GPU (CUDA) 以及兼容Linux、Windows和Mac上的Python、C#和C接口。具体的安装说明可以在GitHub中获取。

你可以直接从源或预编译的二进制文件将ONNX Runtime集成到代码中,一种简单的操作方法是使用Azure机器学习为应用程序部署服务,以待调用。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 微软
    +关注

    关注

    4

    文章

    6719

    浏览量

    107330
  • 神经网络
    +关注

    关注

    42

    文章

    4827

    浏览量

    106777
  • 机器学习
    +关注

    关注

    66

    文章

    8541

    浏览量

    136222

原文标题:微软开源ONNX Runtime,想用什么深度学习框架任你选!

文章出处:【微信号:AI_era,微信公众号:新智元】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    全国首个开源鸿蒙机器人操作系统 M-Robots OS 正式开源

    7月24日,在2025开放原子开源生态大会上,深开鸿CEO王成录博士宣布:M-Robots开源项目正式启动。该项目由开放原子开源基金会孵化、深开鸿牵头发起,旨在以
    的头像 发表于 07-24 10:56 790次阅读
    全国首个<b class='flag-5'>开源</b>鸿蒙<b class='flag-5'>机器</b>人操作系统 M-Robots OS 正式<b class='flag-5'>开源</b>

    面向AI与机器学习应用的开发平台 AMD/Xilinx Versal™ AI Edge VEK280

    AMD/Xilinx Versal™ AI Edge VEK280评估套件是一款面向AI与机器学习应用的开发平台,专为边缘计算场景优化设计。以下从核心配置、技术特性、应用场景及开发支持等方面进行详细
    的头像 发表于 04-11 18:33 2024次阅读
    面向AI与<b class='flag-5'>机器</b><b class='flag-5'>学习</b>应用的开发<b class='flag-5'>平台</b> AMD/Xilinx Versal™ AI Edge VEK280

    NVIDIA Isaac GR00T N1开源人形机器人基础模型+开源物理引擎Newton加速机器人开发

    NVIDIA Isaac GR00T N1开源人形机器人基础模型+开源物理引擎Newton加速机器人开发
    的头像 发表于 03-20 16:56 1275次阅读

    深度解读英伟达Newton机器人平台:技术革新与跨界生态构建

    :高性能物理引擎与AI融合 Newton是英伟达联合Google DeepMind和迪士尼研究院共同开发的 开源物理引擎 ,专为机器人学习与仿真优化设计。其核心技术特点包括:
    的头像 发表于 03-20 15:15 2454次阅读
    深度解读英伟达Newton<b class='flag-5'>机器人平台</b>:技术革新与跨界生态构建

    AgiBot World Colosseo:构建通用机器人智能的规模化数据平台

    人数据的匮乏,制约了通用操纵能力的突破。上海人工智能实验室与AgiBot公司联合研发的AgiBot World Colosseo平台,通过构建大规模、模态的真实世界数据集与通用政策模
    的头像 发表于 03-12 11:42 1687次阅读
    AgiBot World Colosseo:构建<b class='flag-5'>通用机器</b>人智能的规模化数据<b class='flag-5'>平台</b>

    BlackBerry QNX推出通用嵌入式开发平台

    BlackBerry有限公司(纽交所代码:BB;多伦证券交易所代码:BB)旗下部门QNX今日宣布推出QNX 通用嵌入式开发平台(General Embedded Developmen
    的头像 发表于 03-11 16:04 935次阅读

    零知开源平台重磅升级!嵌入式开发进入“涡轮增压”时代

    本帖最后由 PCB56242069 于 2025-3-11 13:44 编辑 ​亲爱的开发者们,我们带来革命性的开发工具升级!零知开源平台全新编译引擎正式发布,让代码编译效率实现300%的飞跃
    发表于 03-11 11:22

    如何使用命令更快的R ACCENT-10.onnx模型转换为IR?

    使用命令更快的R ACCENT-10.onnx 模型转换为 IR:python ./mo_onnx.py --input_model FasterRCNN-10.onnx
    发表于 03-07 07:43

    ONNX模型无法转换为IR v10,为什么?

    使用以下命令 ONNX* 模型转换为 IR:mo --input_model model.onnx 该模型无法转换为 IR v10,而是转换为 IR v11。
    发表于 03-06 06:32

    使用模型优化器命令ONNX模型转换为OpenVINO™ IR格式时出现“ReplacementID”错误怎么解决?

    使用模型优化器命令 ONNX 模型转换为 OpenVINO™ IR 格式: --input_model \"{onnx_path} --input_shape [1,512, 896
    发表于 03-05 09:41

    灵汐科技开源类脑深度学习应用开发平台BIDL

    富案例等问题,一直制约着其广泛应用。为了突破这一瓶颈,灵汐科技联合脑启社区正式宣布开源类脑深度学习应用开发平台BIDL(Brain-inspired Deep Learning)。
    的头像 发表于 03-05 09:13 1478次阅读
    灵汐科技<b class='flag-5'>开源</b>类脑深度<b class='flag-5'>学习</b>应用开发<b class='flag-5'>平台</b>BIDL

    ONNX模型转换为IR后报错,怎么解决?

    运行模型优化器,以 ONNX 模型转换为 IR。 收到错误:[ ERROR ] The ExpandDims node Unsqueeze_333 has more than 1 input
    发表于 03-05 09:11

    如何选择云原生机器学习平台

    当今,云原生机器学习平台因其弹性扩展、高效部署、低成本运营等优势,逐渐成为企业构建和部署机器学习应用的首选。然而,市场上的云原生
    的头像 发表于 12-25 11:54 696次阅读

    在算力魔方上运行Genesis:一款颠覆性开源生成式物理引擎!

    作者:算力魔方创始人 刘力 一,Genesis简介   Genesis是一款由19个顶尖科研机构联手打造的,用于通用机器人、具身智能和物理 AI 应用的开源生成式物理引擎。它可以生成整个世界,包括
    的头像 发表于 12-23 18:10 1240次阅读
    在算力魔方上运行Genesis:一款颠覆性<b class='flag-5'>开源</b>生成式物理<b class='flag-5'>引擎</b>!

    构建云原生机器学习平台流程

    构建云原生机器学习平台是一个复杂而系统的过程,涉及数据收集、处理、特征提取、模型训练、评估、部署和监控等多个环节。
    的头像 发表于 12-14 10:34 673次阅读