0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

拒绝手写代码!Openclaw+Skill一键部署Qwen3.5到算能边缘盒子

算能开发者社区 2026-04-18 17:32 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

通义千问最新一代多模态大模型Qwen3.5已成功适配能BM1684XBM1688系列TPU芯片,2B、4B、9B三个版本均已适配,从预编译 bmodel 可 LLM-TPU(附录链接(4))直接下载使用。本文介绍如何通过Openclaw + Skill实现全自动部署——不写一行代码,不记一条命令,对话即部署。

关于Qwen3.5

Qwen3.5(附录链接(1))是阿里通义实验室推出的新一代多模态大语言模型,主要亮点包括:

  • 多模态理解:原生支持图片和视频输入,可对图像内容进行精细化描述、文字识别、场景理解等
  • 创新架构:采用Full Attention + Linear Attention 混合架构,兼顾理解深度与推理效率
  • 多语言支持:流畅支持超过100种语言
  • 丰富的能力矩阵:文本生成、逻辑推理、视觉分析、代码开发、多语言对话等全面覆盖
  • 多版本可选:提供2B、4B、9B等多种参数规模,满足不同场景需求

相对于上一代Qwen3VL,表现更加优异,如下:

901b537e-3b09-11f1-ab55-92fbcf53809c.png

Openclaw + Skill:对话即部署

传统部署流程需要手动拉代码、装依赖、编译扩展、下载模型、写启动脚本……每一步都可能踩坑。而通过Openclaw(附录链接(2))+ Skill,这一切只需两步

第一步:添加 技能

将 qwen3_5-bmodel Skill(附录链接(3))添加到Openclaw:

gitclonehttps://github.com/baifengbai/skill_hub.git
ln -s"$(pwd)/skill_hub/skills/qwen3_5-bmodel"~/.Openclaw/skills/qwen3_5-bmodel

第二步:用自然语言描述需求

在 Openclaw 中输入:

帮我在 BM1684X 设备(IP: 192.168.150.2)上部署 Qwen3.5 多模态模型,启动 Web 服务

将替换为你的 BM1684X 设备实际 IP 地址。192.168.150.2

就这么简单。Openclaw 自动读取 Skill 文档,全程接管:

  • 通过 gssh 连接远程边缘盒子
  • 拉取 LLM-TPU(附录链接(4))代码,编译 chat.so
  • 下载预编译 bmodel(~2.3G)
  • 上传 Flask Web 服务,配置 SSE 流式输出
  • 建立端口转发,本地浏览器直接访问

部署完成后,打开 即可体验图片/视频/文字多模态问答:


为什么用 Skill?

Skill 不只是一个部署脚本。它沉淀了真实踩坑经验

坑点

Skill 中的解决方案

系统 Python 3.8 无法加载 cpython-310 的 chat.so自动使用 Python 3.10 虚拟环境
transformers 4.x 不识别 Qwen3.5 model_type自动升级到 Transformers >= 5.x
config 缺少 processor_config.json 导致 Processor 回退自动补全配置文件
dfss SFTP 模式下载新文件失败自动切换 HTTP 模式
Dash 没有 disown,后台进程被杀使用 setsid 脱离会话
前端 SSE 流第二轮无法发送正确处理 reader.cancel()

这些经验被结构化地写入 Skill 文档,AI Agent 读取后自动规避,让你不再重复踩坑

完整 Skill 库见 skill_hub(附录链接(5)),已添加多个模型的skill一键部署:

技能

模型

说明

qwen3_5-bmodelQwen3.5-VL-2B多模态图片/视频/文字问答
QWEN3-bmodelQwen3-4B文本对话 LLM
Vila-bmodelViLA-1.5-3B视觉语言模型
FunASR-bmodelFunASR语音识别
YOLOV5-bmodelYOLOv5s目标检测
ppocr-bmodelPP-OCRv4文字识别
ByteTrack-bmodelYOLOv5s多目标追踪

已适配版本

Qwen3.5 的2B、4B、9B三个参数版本均已完成适配,INT4 量化预编译 bmodel 可从 LLM-TPU(附录链接(4))直接下载,开箱即用:

版本

量化方式

平台

Qwen 3.5-2BINT4自动回合 W4BF16BM1684X / BM1688
Qwen3.5-4BINT4自动回合 W4BF16BM1684X / BM1688
Qwen3.5-9BINT4自动回合 W4BF16BM1684X / BM1688

更大参数版本(4B、9B)适合对精度要求更高的场景,用户可根据实际算力和业务需求灵活选择。

性能表现

基于 BM1684X 平台,INT4量化的 Qwen3.5-2B 模型实测表现:

指标

数值

首Token延迟(FTL)

~0.46s(图片输入) / ~0.10s(纯文本)

生成速度(TPS)

~27.7 tokens/s

视觉编码耗时

~0.2s

以一张768×768图片为例,仅占用约576个Token,高效平衡了图像理解精度与推理速度。

效果展示

下图展示了 Qwen3.5 在BM1684X上运行的实际效果,包括图片理解和纯文本对话:

902e5bf4-3b09-11f1-ab55-92fbcf53809c.png

模型能够对输入图片进行详细的场景描述(床、梳妆台、书架、植物、装饰等元素的精准识别),并在纯文本模式下流畅对话,展现出优秀的多模态理解能力。

应用场景

Qwen3.5在TPU上的适配,为以下场景提供了高性价比的端侧AI方案:

  • 智能安防:实时视频流的场景理解与异常检测
  • 智能零售商品识别、货架分析、顾客行为理解
  • 工业质检:产品外观缺陷检测与分析报告生成
  • 智慧文档:合同、票据、表格等文档的OCR与结构化提取
  • 教育科研:图表解读、论文辅助阅读与多语言翻译
  • 边缘智能设备机器人无人机嵌入式平台的多模态交互

总结

Qwen3.5成功落地算能BM1684X/BM1688平台,标志着国产大模型与国产AI芯片的又一次深度协同。通过 Openclaw + Skill的自动化部署方案,开发者可以真正实现零代码、零门槛地将前沿多模态AI能力部署到边缘设备中。

  • 想要极简体验?用Openclaw + Skill,对话即部署
  • 想要深度定制?参考手动部署方式

手动部署方式

如果你更习惯手动操作,也可以按以下步骤部署。

模型编译

通过算能TPU-MLIR编译框架,仅需一条命令即可完成模型编译:

llm_convert.py -m Qwen3.5-2B-int4-AutoRound --max_input_length 1024 -s 2048 -c bm1684x --out_dir qwen3.5 --max_pixels 768,768

支持INT4量化(AutoRound/AWQ/GPTQ),在保持模型精度的同时大幅降低显存占用和推理成本。

下载预编译 bmodel

#BM1684X
python3 -m dfss --url=open@sophgo.com:/ext_model_information/LLM/LLM-TPU/qwen3.5-2b-int4-autoround_w4bf16_seq2048_bm1684x_1dev_dynamic_20260415_111517.bmodel

#BM1688
python3 -m dfss --url=open@sophgo.com:/ext_model_information/LLM/LLM-TPU/qwen3.5-2b-int4-autoround_w4bf16_seq2048_bm1688_2core_dynamic_20260415_212627.bmodel

Python 运行

访问 LLM-TPU Qwen3_5 目录(附录链接(4)),有 Python 和 C++ 两种 Demo:

903c9a34-3b09-11f1-ab55-92fbcf53809c.png

pip3 install torchvision transformers qwen_vl_utils
cd python_demo
mkdir build && cd build && cmake .. && make && cp *cpython* .. && cd ..
python3 pipeline.py -m your_model.bmodel -c config

C++ 运行

cd cpp_demo
mkdir build && cd build && cmake .. && make && cp pipeline .. && cd ..
./pipeline -m your_model.bmodel -c config


适配与验证日期:2026年4月16日

附录

链接汇总

编号

地址

(1)

https://www.modelscope.cn/collections/Qwen/Qwen35

(2)

https://github.com/openclaw/openclaw

(3)

https://github.com/baifengbai/skill_hub/tree/main/skills/qwen3_5-bmodel

(4)

https://github.com/sophgo/LLM-TPU/tree/main/models/Qwen3_5

(5)

https://github.com/baifengbai/skill_hub

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • skill
    +关注

    关注

    0

    文章

    17

    浏览量

    12182
  • 大模型
    +关注

    关注

    2

    文章

    3748

    浏览量

    5268
  • OpenClaw
    +关注

    关注

    0

    文章

    34

    浏览量

    18
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    【幸狐Omni3576边缘计算套件试用体验】OpenClaw 板端部署

    【幸狐Omni3576边缘计算套件试用体验】OpenClaw 板端部署 本文介绍了幸狐Omni3576边缘计算套件实现 OpenClaw
    发表于 04-19 20:56

    AIBOX + JishuShell:一键部署端侧 AI,把本地龙虾“装”进小盒子

    JishuShell:款能够将龙虾一键部署本地的工具,让AIAgent更方便实现本地运行。目前,FireflyAIBOX-3576和AIBOX-3588已成功跑通Ji
    的头像 发表于 04-15 16:35 306次阅读
    AIBOX + JishuShell:<b class='flag-5'>一键</b><b class='flag-5'>部署</b>端侧 AI,把本地龙虾“装”进小<b class='flag-5'>盒子</b>

    海光DCU完成Qwen3.5多模态MoE模型全量适配

    近日,海光DCU完成Qwen3.5-397B MoE旗舰多模态模型、Qwen3.5-35B-A3B MoE多模态模型全量适配、精度对齐与推理部署验证。本次适配依托FlagOS专属vLLM-plugin-FL多芯片插件实现落地。
    的头像 发表于 03-26 09:35 623次阅读

    天数智芯完成阿里云通义千问Qwen3.5系列多模态模型全量适配

    近日,天数智芯携手众智FlagOS 社区完成阿里云通义千问 Qwen3.5 系列多模态模型全量适配,实现模型精度精准对齐与端端无缝部署,再度彰显公司在通用 GPU 领域深厚的技术积淀与领先的生态适配能力。
    的头像 发表于 03-26 09:25 1388次阅读

    OpenClaw搭建教程:云服务器一键部署完整流程

    很多开发者在了解OpenClaw之后,最关心的其实是个非常实际的问题:OpenClaw到底怎么搭建?普通云服务器能不能部署?过程复杂吗? 答案其实很简单。
    的头像 发表于 03-12 14:39 607次阅读

    沐曦股份曦云C系列GPU全面适配通义千问Qwen3.5三款新模型

    今日,通义千问团队正式开源发布Qwen3.5系列中等规模模型,推出包括Qwen3.5-35B-A3B、Qwen3.5-122B-A10B、Qwen3.5-27B三个版本。沐曦股份旗下曦
    的头像 发表于 02-28 10:05 674次阅读
    沐曦股份曦云C系列GPU全面适配通义千问<b class='flag-5'>Qwen3.5</b>三款新模型

    美格智能高力AI模组+Qwen3.5,打造端侧最强AI智能体

    ”提供强大的力底座,成为解锁AI原生应用的关键。QWEN3.5开发者友好,适合本地部署近期,Qwen3.5系列模型的发布,为AI的本地化部署
    的头像 发表于 02-27 08:33 561次阅读
    美格智能高<b class='flag-5'>算</b>力AI模组+<b class='flag-5'>Qwen3.5</b>,打造端侧最强AI智能体

    摩尔线程MTT S5000全面适配Qwen3.5三款新模型

    时间做出极速响应,宣布已在旗舰级AI训推体全功能GPU MTT S5000上,完成对这三款全新模型的全方位适配。   此次高效支持充分展示了摩尔线程MUSA生态的成熟度与完备性。在本次Qwen3.5
    的头像 发表于 02-26 16:23 716次阅读

    沐曦股份曦云C系列GPU深度适配通义千问Qwen3.5模型

    今天,通义千问今天正式发布 Qwen3.5,并推出Qwen3.5系列的第款模型 Qwen3.5-397B-A17B 的开放权重版本。沐曦股份曦云C系列GPU 完成对
    的头像 发表于 02-26 14:26 758次阅读
    沐曦股份曦云C系列GPU深度适配通义千问<b class='flag-5'>Qwen3.5</b>模型

    香橙派全志系列开发板适配OpenClaw教程

    。这些高性价比开发板现在也能流畅运行您的“数字员工”。您无需高昂投入,只需块百元级的全志开发板,就能在本地部署理解指令、操作软件、处理工作流的智能体,让AI助手成为人人可及的日
    发表于 02-25 18:29

    香橙派昇腾系列开发板如何部署OpenClaw

    香橙派昇腾系列开发板解锁专业级智能体,OpenClaw拥抱高力未来 上两篇文章我们给出了香橙派此芯及RK系列产品部署OpenClaw的教程,接下来我们将这只智能小龙虾接入
    发表于 02-25 10:13

    摩尔线程快速完成对Qwen3.5模型全面适配

    2月17日,摩尔线程宣布已在旗舰级AI训推体全功能GPU MTT S5000上完成对阿里最新大模型Qwen3.5的全方位适配。此次支持充分展示了摩尔线程MUSA生态的成熟度与完备性,开发者可通过
    发表于 02-18 08:32 1116次阅读

    OPi RK3588/RK3588S系列产品全面适配Openclaw,智能体“人人可及”时代正式开启

    。 Orangepi5plus_1.2.0_ubuntu_jammy_desktop_xfce_linux6.1.43.7z 在终端中执行官方一键安装的脚本 curl -fsSL https://molt.bot/install.sh | bash 下载完成后,会自动进入配置界面,配置
    发表于 02-10 17:43

    OPi 6Plus全面适配OpenClaw

    6Plus这块高性能国产开发板上,实现OpenClaw的极致优化与稳定部署,从此拥有个自己专属的、免费的、力充沛、稳定可靠、7x24小时在线的“超级员工”。 话不多说,开整! 首
    发表于 02-06 20:00

    后摩智能M50芯片成功部署OpenClaw

    近日,由OpenClaw(曾用名ClawdBot)引发的技术热潮持续扩散,这现象被不少人称为AI Agent的“ChatGPT时刻”。昨日,后摩智能名工程师通过搭载后摩智能M50芯片的边缘
    的头像 发表于 02-02 16:31 988次阅读