0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

【技术干货】教你如何基于华为昇腾CANN架构快速实现模型推理应用

英码科技 来源:英码科技 作者:英码科技 2024-03-08 08:36 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

昇腾的AI全软件栈平台、开源框架、CANN、MindSpore、MindX 等工具,可以让开发者实现「统一端边云,全端自动部署」,开启了机器学习开发的新时代,一直被人们寄予厚望。但正因为资源极其丰富,浩如星辰,想要快速寻找,到摸索清楚其中的原理,并最终结合自己手上的项目实现应用部署,人力成本、时间成本将增加不少,不利于快速推进项目。

现在~好消息来了! 经过英码科技工程师们的认真梳理,本篇文章,我们以英码科技EA500I边缘计算盒子为例,为大家介绍在昇腾CANN架构下,基于PyTorch框架的ResNet50模型,以及基于YOLOV7网络模型如何快速实现模型推理应用。

CANN架构介绍

异构计算架构CANN(Compute Architecture for Neural Networks)是华为针对AI场景推出的异构计算架构,向上支持多种AI框架,包括MindSpore、PyTorch、TensorFlow等,向下服务AI处理器编程,发挥承上启下的关键作用,是提升昇腾AI处理器计算效率的关键平台。同时针对多样化应用场景,提供多层次编程接口,支持用户快速构建基于昇腾平台的AI应用和业务。

01

样例1介绍(ResNet50模型)

▍基于PyTorch框架的ResNet50模型,对*.jpg图片分类,输出各图片所属分类的编号、名称。

样例的理流程如下图所示:

dfe64976-dce3-11ee-b759-92fbcf53809c.jpg 1   样例下载  

命令行方式下载(下载时间较长,需稍作等待)。

# 开发环境,非root用户命令行中执行以下命令下载源码仓。

cd ${HOME}

git clone https://gitee.com/ascend/samples.git

注:如果需要切换到其它tag版本,以v0.9.0为例,可执行以下命令。

git check outv0.9.0

样例的代码目录说明如下:

dfea4c24-dce3-11ee-b759-92fbcf53809c.png

2 准备环境

(1)安装CANN软件

最新版本的CANN软件安装指南请戳→安装指南

注:英码科技EA500I智能工作站系统环境中已适配该软件,无需另行下载安装。

(2)设置环境变量

注:“$HOME/Ascend”请替换“Ascend-cann-toolkit”包的实际安装路径。

# 设置CANN依赖的基础环境变量

. ${HOME}/Ascend/ascend-toolkit/set_env.sh

#如果用户环境存在多个python3版本,则指定使用python3.7.5版本

exportPATH=/usr/local/python3.7.5/bin:$PATH

#设置python3.7.5库文件路径

exportLD_LIBRARY_PATH=/usr/local/python3.7.5/lib:$LD_LIBRARY_PATH

# 配置程序编译依赖的头文件与库文件路径

export DDK_PATH=$HOME/Ascend/ascend-toolkit/latest

export NPU_HOST_LIB=$DDK_PATH/runtime/lib64/stub

(3)安装OpenCV

执行以下命令安装opencv ,须确保是3.x版本;

sudo apt-get installlibopencv-dev

3 样例运行

(1)获取PyTorch框架的ResNet50模型(*.onnx),并转换为昇腾AI处理器能识别的模型(*.om)

注:此处以昇腾310 AI处理器为 例,针对其它昇腾AI处理器的模型转换,需修改atc命令中的-- soc_version参数值。

# 为方便下载,这里直接给出原始模型下载及模型转换命令,可以直接拷贝执行。

cd $HOME/samples/inference/modelInference/sampleResnetQuickStart/

cpp/model wgethttps://obs-9be7.obs.cn-east- 2.myhuaweicloud.com/003_Atc_Models/resnet50/resnet50.onnx

atc --model=resnet50.onnx--framework=5 --output=resnet50 --

input_shape="actual_input_1:1,3,224,224" --soc_version=Ascend310

atc命令中各参数的解释如下,详细约束说明请参见《ATC模型转换指南》。

--model :ResNet-50网络的模型文件的路径

--framework:原始框架类型。5表示ONNX。

--output:resnet50.om模型文件的路径。请注意,记录保存该om模型文件的路径,后续开发应用时需要使用。

--input_shape:模型输入数据的shape。

--soc_version:昇腾AI处理器的版本。

说明:如果无法确定当前设备的soc_version,则在安装驱动包的服务器执行npu-smi info 命令进行查询,在查询到的“Name“前增加Ascend信息,例如“Name“对应取值为_xxxyy_ , 实际配置的soc_version值为Ascend_xxxyy_。

(2)获取测试图片数据

请从以下链接获取该样例的测试图片dog1_ 1024_683.jpg,放在data目录下。

cd $HOME/samples/inference/modelInference/

sampleResnetQuickStart/cpp/data wget

https://obs-9be7.obs.cn-east- 2.myhuaweicloud.com/models/aclsample/dog1_1024_683.jpg

注:若需更换测试图片,则需自行准备测试图片,并将测试图片放到data录下。

(3)编译样例源码

执行以下命令编译样例源码:

cd $HOME/samples/inference/modelInference/

sampleResnetQuickStart/

cpp/scripts bash sample_build.sh

(4)运行样例

执行以下脚本运行样例:

bash sample_run.sh

执行成功后,在屏幕上的关键提示信息示例如下,提示信息中的label表示类别标识、conf表示该分类的最大置信度,class表示所属类别。这些值可能会根据版本、环境有所不同,请以实际情况为准:

[INFO] The sample starts to run

out_dog1_1024_683.jpg

label:162 conf:0.902209 class:beagle

[INFO] Theprogram runs successfully

4 代码逻辑详解(C&C++语言)

样例中的接口调用流程如下图所示:

dffa7360-dce3-11ee-b759-92fbcf53809c.png

在此样例基础上:

若想要更换测试图片,只需自行准备好新的jpg图片并存放到样例的data目录下,图片数据预处理时会自 动从该目录下读取图片数据、再缩放至模型所需的大小。

若想要更换模型,则需关注以下修改点:

1.准备模型:需自行准备好原始模型并存放到样例的model目录下,再参考《ATC模型转换指南》转换模型;

2. 加载模型:在aclmdlLoadFromFile接口处加载转换后的模型;

3. 准备模型输入/输出数据结构:根据新模型的输入、输出个数准备;

4. 获取推理结果&后处理:根据新模型的输出数据进行后处理。

须知:一般来说,更换其它图片分类模型(例如resnet50- >resnet101) ,由于同类模型的输入、输出类 似,在此样例基础上改动较小,但如果更换为其它类型的模型(例如目标检测模型),由于不同类型模型的输入、输出差别较大,在此样例基础上数据预处理、模型输入&输出准备以及数据后处理等改动很大,建议在Ascend Sample仓先找到目标检测类的样例,再基于目标检测样例修改。

02

样例2介绍(YOLOV7模型)

以YOLOV7网络模型为例,使能Acllite对图片进行预处理,并通过模型转换使能静态AIPP功能,使能AIPP功能后,YUV420SP_U8格式图片转化为RGB,然后减均值和归一化操作,并将该信息固化到转换后的离线模型中,对YOLOV7网络执行推理,对图片进行物体检测和分类,并给出标定框和类别置信度。

样例输入:图片。

样例输出:图片物体检测,并且在图片上给出物体标注框,类别以及置信度。 1 获取源码包

可以使用以下两种方式下载,请选择其中一种进行源码准备。

命令行方式下载(下载时间较长,但步骤简单):

# 开发环境,非root用户命令行中执行以下命令下载源码仓。

cd ${HOME}

git clone https://gitee.com/ascend/samples.git

注:如果需要切换到其它tag版本,以v0.5.0为例,可执行以下命令。

git checkoutv0.5.0 压缩包方式下载(下载时间较短,但步骤稍微复杂)。

注:如果需要下载其它版本代码,请先请根据前置条件说明进行samples仓分支切换。 # 1. samples仓右上角选择【克隆/下载】下拉框并选择【下载ZIP】。

# 2. 将ZIP包上传到开发环境中的普通用户家目录中, 【例如:${HOME}/ascend-samples- master.zip】。

# 3. 开发环境中,执行以下命令,解压zip包。

cd ${HOME}

unzip ascend-samples-master.zip

2 第三方依赖安装 设置环境变量,配置程序编译依赖的头文件,库文件路径。“$HOME/Ascend”请替换“Ascend-cann-toolkit”包的实际安装路径。 export DDK_PATH=$HOME/Ascend/ascend-toolkit/latest

export NPU_HOST_LIB=$DDK_PATH/runtime/lib64/stub

export THIRDPART_PATH=${DDK_PATH}/thirdpart

export LD_LIBRARY_PATH=${THIRDPART_PATH}/lib:$LD_LIBRARY_PATH

创建THIRDPART_PATH路径:

mkdir-p${THIRDPART_PATH}

acllite

注:源码安装ffmpeg主要是为了acllite库的安装 执行以下命令安装x264 # 下载x264

cd ${HOME}

git clonehttps://code.videolan.org/videolan/x264.git

cdx264

# 安装x264

./configure --enable-shared --disable-asm

make

sudomakeinstall

sudo cp /usr/local/lib/libx264.so.164 /lib 执行以下命令安装ffmpeg:

# 下载ffmpeg

cd ${HOME}

wge thttp://www.ffmpeg.org/releases/ffmpeg-4.1.3.tar.gz --no-check-certificatetar-zxvfffmpeg-4.1.3.tar.gz

cdffmpeg-4.1.3

# 安装ffmpeg

./configure --enable-shared --enable-pic --enable-static--disable-x86asm--enable-libx264 --enable-gpl--prefix=${THIRDPART_PATH}

make-j8

make install

执行以下命令安装acllite: cd ${HOME}/samples/inference/acllite/cplusplus

make

make install

安装opencv

执行以下命令安装opencv(注:须确保是3.x版本)

sudo apt-get installlibopencv-dev

3 样例运行

(1)数据准备

请从以下链接获取该样例的输入图片,放在data目录下。

cd $HOME/samples/inference/modelInference/sampleYOLOV7/data

wgethttps://obs-9be7.obs.cn-east-

2.myhuaweicloud.com/models/aclsample/dog1_1024_683.jpg (2)ATC模型转换 将YOLOV7原始模型转换为适配昇腾310处理器的离线模型(*.om文件),放在model路径下。 #为了方便下载,在这里直接给出原始模型下载及模型转换命令,可以直接拷贝执行。 cd $HOME/samples/inference/modelInference/ sampleYOLOV7/model

wgethttps://obs-9be7.obs.cn-east-

2.myhuaweicloud.com/003_Atc_Models/yolov7/yolov7x.onnx

wgethttps://obs-9be7.obs.cn-east-

2.myhuaweicloud.com/003_Atc_Models/yolov7/aipp.cfg

atc--model=yolov7x.onnx--framework=5 --output=yolov7x --

input_shape="images:1,3,640,640" --soc_version=Ascend310 --

insert_op_conf=aipp.cfg 样例编译

执行以下命令,执行编译脚本,开始样例编译。 cd $HOME/samples/inference/modelInference/ sampleYOLOV7/scripts

bash sample_build.sh 样例运行

执行运行脚本,开始样例运行。 bash sample_run.s

(3)样例结果展示

运行完成后,会在样例工程的out目录下生成推理后的图片,显示对比结果如下所示。

结语

以上内容详细介绍了在昇腾CANN架构下,基于PyTorch框架的ResNet50模型,以及基于YOLOV7网络模型如何快速实现模型推理应用的主要流程,尤其方便已购买英码科技EA500I边缘计算盒子的开发者朋友们快速实现推理应用。

下期将会继续更新关于昇腾开发工具的其他详细使用教程,欢迎关注!

# end

e016cc18-dce3-11ee-b759-92fbcf53809c.png    

关于英码科技

广州英码信息科技有限公司成立于2006年,是一家致力提供“云-边-端”协同的AIoT产品与细分场景解决方案的人工智能企业。

英码旗下的“深元”AI产品体系,打造了一个以高、中、低多层次算力硬件为基础,算法自训练和生态整合为驱动,AI赋能平台为支撑,工具链为辅助的全栈式AI应用服务架构,打通场景需求-算法-硬件集成-业务平台对接-项目交付的全链条,为客户提供算法、算力双重自定义的产品和服务,推动AI和边缘计算在细分场景的广泛应用。

英码的AIoT产品以及定制服务面向智慧城市、智慧交通、智慧金融、智慧校园、智慧应急、智慧园区等不同行业和细分场景,为客户提供全方位的软硬件支撑和产品自定义能力。

英码科技的以“感知万物,智算赋能”为核心理念,软硬结合全面赋能千行百业智能化转型,构建无所不及的智能世界。

审核编辑 黄宇

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 华为
    +关注

    关注

    217

    文章

    35782

    浏览量

    260696
  • AI
    AI
    +关注

    关注

    89

    文章

    38090

    浏览量

    296497
  • 架构
    +关注

    关注

    1

    文章

    533

    浏览量

    26504
  • pytorch
    +关注

    关注

    2

    文章

    813

    浏览量

    14695
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    开发者指南 | 华为Ascend310B启动镜像制作与烧写全攻略

    (Ascend310B)是一款高性能、低功耗的AI处理器,专为边缘计算和推理应用场景而设计。它基于华为自研的达芬奇架构,具备强大的计算能力和高效的运算效率,能够支持多
    的头像 发表于 11-24 18:03 1424次阅读
    开发者指南 | <b class='flag-5'>华为</b><b class='flag-5'>昇</b><b class='flag-5'>腾</b>Ascend310B启动镜像制作与烧写全攻略

    国产AI芯片真能扛住“算力内卷”?海思的这波操作藏了多少细节?

    反而压到了310W。更有意思的是它的异构架构:NPU+CPU+DVPP的组合,居然能同时扛住训练和推理场景,之前做自动驾驶算法时,用它跑模型时延直接降了20%。 但疑惑也有:这种算力密度下,散热怎么解决?而且
    发表于 10-27 13:12

    华为与全球开发者共赢生态

    华为全联接大会2025期间,华为计算业务总裁张迪煊发表了“以开发者为中心,加速自主创新,共赢
    的头像 发表于 09-20 15:57 1573次阅读

    华为亮相2025金融AI推理应用落地与发展论坛

    近日,2025金融AI推理应用落地与发展论坛在上海举行。中国银联执行副总裁涂晓军、华为数字金融军团CEO曹冲出席本次论坛并发表致辞。论坛上,华为公司副总裁、数据存储产品线总裁周跃峰博士发布AI
    的头像 发表于 08-15 09:45 945次阅读

    华为CANN与智谱GLM端侧模型完成适配

    2025年8月5日,在计算产业发展峰会上,华为宣布CANN(Compute Architecture for Neural Networks)
    的头像 发表于 08-11 11:00 2192次阅读

    正面迎战英伟达CUDA,华为宣布CANN全面开源

    8月5日,在北京举行的计算产业发展峰会上,华为轮值董事长徐直军宣布,升腾 AI 核心软件平台 CANN 将全面开源,同时还将Mind 系列应用软件及工具链同步开放,包括Mindst
    的头像 发表于 08-06 14:34 9180次阅读
    正面迎战英伟达CUDA,<b class='flag-5'>华为</b>宣布<b class='flag-5'>CANN</b>全面开源

    中软国际签约成为华为模型一体机伙伴

    7月26日,2025世界人工智能大会(WAIC 2025)在上海世博展览馆拉开序幕。大会中,中软国际与华为举行了“大模型一体机伙伴合作”签约仪式,华为
    的头像 发表于 07-30 09:42 963次阅读
    中软国际签约成为<b class='flag-5'>华为</b><b class='flag-5'>昇</b><b class='flag-5'>腾</b>大<b class='flag-5'>模型</b>一体机伙伴

    华为正式开源盘古7B稠密和72B混合专家模型

    [中国,深圳,2025年6月30日] 今日,华为正式宣布开源盘古70亿参数的稠密模型、盘古Pro MoE 720亿参数的混合专家模型和基于
    的头像 发表于 06-30 11:19 1104次阅读

    华为人工智能伙伴峰会成功举行

    近日,在华为中国合作伙伴大会期间,人工智能伙伴峰会在深圳正式召开。会上,华为计算业务总裁
    的头像 发表于 04-01 15:38 1137次阅读

    大华股份亮相华为中国合作伙伴大会2025 星汉×推动行业创新发展

    以“因聚而生 众智有为”为主题的“华为中国合作伙伴大会2025”在深圳国际会展中心举办。作为华为的生态合作伙伴,大华股份受邀出席峰会,亮相多展区并携手
    的头像 发表于 03-25 17:43 2364次阅读
    大华股份亮相<b class='flag-5'>华为</b>中国合作伙伴大会2025 星汉×<b class='flag-5'>昇</b><b class='flag-5'>腾</b>推动行业创新发展

    DeepSeek在上的模型部署的常见问题及解决方案

    2024年12月26日,DeepSeek-V3横空出世,以其卓越性能备受瞩目。该模型发布即支持,用户可在硬件和MindIE
    的头像 发表于 03-25 16:53 1887次阅读
    DeepSeek在<b class='flag-5'>昇</b><b class='flag-5'>腾</b>上的<b class='flag-5'>模型</b>部署的常见问题及解决方案

    润和软件将持续深化“+DeepSeek”技术路线

    (以下简称“润和软件”)作为生态核心伙伴受邀出席,人工智能研究院AI总工朱凯分享了基于“ + openEuler + OpenHarmony + DeepSeek”的全场景云-
    的头像 发表于 03-08 09:39 1121次阅读

    推理服务器+DeepSeek大模型 技术培训在图为科技成功举办

    2月17日,华为政企业务团队受邀莅临图为科技深圳总部,并成功举办了一场聚焦于《推理服务器+DeepSeek大模型》的专业知识培训。 此次
    的头像 发表于 02-26 17:38 1046次阅读
    <b class='flag-5'>昇</b><b class='flag-5'>腾</b><b class='flag-5'>推理</b>服务器+DeepSeek大<b class='flag-5'>模型</b> <b class='flag-5'>技术</b>培训在图为科技成功举办

    华为推出DeepSeek大模型一体机

    DeepSeek大模型的横空出世,让AI正以前所未有的速度重塑各行各业的发展格局。DeepSeek一体机深度融合腾高性能算力底座与DeepSeek全系列大
    的头像 发表于 02-18 09:56 2608次阅读

    迅龙软件出席华为APN伙伴大会,获APN钻石伙伴授牌及两项大奖

    2025年2月15日,华为APN伙伴大会在深圳顺利举办。本次大会汇聚来自能源、交通、制造、教育等各行各业的APN合作伙伴,共同探讨A
    的头像 发表于 02-17 17:04 1394次阅读
    迅龙软件出席<b class='flag-5'>华为</b><b class='flag-5'>昇</b><b class='flag-5'>腾</b>APN伙伴大会,获<b class='flag-5'>昇</b><b class='flag-5'>腾</b>APN钻石伙伴授牌及两项大奖