0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

Qwen3-VL 4B/8B全面适配,BM1684X成边缘最佳部署平台!

算能开发者社区 2025-10-16 18:00 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

算能BM1684X上完成Qwen3-VL 4B/8B模型的适配,推理速度13.7/7.2 tokens/s,使其成为边缘部署多模态大模型的最佳选择。

近日,阿里千问正式开源Qwen3-VL系列的4B和8B版本模型,为边缘计算和端侧设备提供了更高效的多模态AI解决方案。算能BM1684X芯片已完成对该系列模型的适配,4B/8B模型在边缘端实现了13.7 /7.2 tokens/s的推理性能。

模型性能突破,小参数大能力

Qwen3-VL系列再添新成员——Dense架构的Qwen3-VL-8B、Qwen3-VL-4B 模型,本地部署友好,在MMMU、MathVista等基准测试中超越了同级别的其他模型,并在部分测试场景中展现出与更大规模模型相媲美的性能,通过架构优化,它有效解决了小模型中常见的视觉与文本能力不平衡问题,为边缘场景带来了更多解法。

e4a9ec9e-aa76-11f0-8ce9-92fbcf53809c.jpg

Qwen3-VL 4B和8B模型在保持模型轻量化的同时,确保了多模态理解能力的完整性。这两个规模的模型均提供Instruct和Thinking两个版本,满足不同场景的应用需求。

Qwen3-VL模型能主动识别异常行为,自动调取多路摄像头追踪,并调用工具生成处置方案,实现从感知到决策的闭环;凭借增强的空间推理能力,系统可精准分析人员轨迹、识别异常聚集,构建动态安防态势图,预警潜在风险;进一步扩展了长上下文能力,支持对长视频的秒级精确定位,在文搜检索的基础上,提供有逻辑依据的事件分析,大幅提升调查效率。

另外,很多传统算法没有覆盖的corner case,不再需要人工标注训练,直接通过prompt调整即可实现,从"看得见"迈向"看得懂",Qwen3-VL将为各种端侧设备的智能化升级注入新动力。

BM1684x适配加速,推理性能一骑绝尘

BM1684X芯片已完成对Qwen3-VL系列的适配工作,并开源在LLM-TPU仓库,所有基于BM1684X的盒子、计算卡、微服务器都可以稳定运行。

e4c1c634-aa76-11f0-8ce9-92fbcf53809c.png

API一键部署:如果想将Qwen3-VL的多模态能力集成到其他系统中,通过AIGC-SDK封装好的标准API,只需要一行命令即可实现:

bash scripts/init_app.sh qwen3vl

测试数据显示,Qwen3-VL模型在BM1684X平台上的推理速度达到13.7 tokens/s,这一性能表现使得实时多模态理解在边缘端成为可能。同时,芯片的多路视频编解码能力使其能够同时处理32路1080p视频流,为大规模部署奠定基础。

Qwen3-VL系列模型与BM1684X的结合,为多个行业的智能化升级提供了新的技术路径,本地化部署能够有效降低云端传输延迟,提升系统响应速度。

开源开放的工具链给了用户更多的控制权,进一步降低了模型部署的难度,开发者可以便捷地将自己微调后的模型移植到边缘设备,加速应用落地。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 芯片
    +关注

    关注

    462

    文章

    53552

    浏览量

    459294
  • 算能科技
    +关注

    关注

    0

    文章

    7

    浏览量

    512
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    爱芯元智边缘AI芯片AX8850完成Qwen3-VL多模态大模型适配

    适配 Qwen3-VL-2B/4B/8B 到 AX8850 开发板和 M.2 算力卡,可在本地完成图片内容理解和视频概要生成,可配合“树莓派5”使用。
    的头像 发表于 11-26 13:57 2031次阅读
    爱芯元智<b class='flag-5'>边缘</b>AI芯片AX8850完成<b class='flag-5'>Qwen3-VL</b>多模态大模型<b class='flag-5'>适配</b>

    NVIDIA ACE现已支持开源Qwen3-8B小语言模型

    为助力打造实时、动态的 NPC 游戏角色,NVIDIA ACE 现已支持开源 Qwen3-8B 小语言模型(SLM),可实现 PC 游戏中的本地部署
    的头像 发表于 10-29 16:59 1023次阅读

    广和通成功部署DeepSeek-R1-0528-Qwen3-8B模型

    近日,广和通在MediaTek MT8893平台上成功部署并运行了DeepSeek-R1-0528-Qwen3-8B模型,显著提升了端侧AI设备的处理效率与智能化水平,特别是在本地化复杂
    的头像 发表于 09-26 13:35 669次阅读

    基于米尔瑞芯微RK3576开发板的Qwen2-VL-3B模型NPU多模态部署评测

    格式的模型文件。 qwen2_5_vl_3b_vision_rk3576.rknn qwen2.5-vl-3b-w4a16_level1_rk3576.rkllm 操作如下,同官方指导[8]。: 先从
    发表于 08-29 18:08

    阿里通义千问发布小尺寸模型Qwen3-4B,手机也能跑

    电子发烧友网综合报道 8月7日,阿里通义千问宣布发布更小尺寸新模型——Qwen3-4B-Instruct-2507和Qwen3-4B-Thinking-2507。目前新模型已在魔搭社区
    的头像 发表于 08-12 17:15 6310次阅读
    阿里通义千问发布小尺寸模型<b class='flag-5'>Qwen3-4B</b>,手机也能跑

    壁仞科技完成Qwen3旗舰模型适配

    近日,在高效适配Qwen3系列模型推理后,壁仞科技宣布完成旗舰版Qwen3-235B-A22B模型的训练适配和优化。由此,壁仞科技已实现Qwen3
    的头像 发表于 05-16 16:23 782次阅读

    Arm CPU适配通义千问Qwen3系列模型

    近日,阿里巴巴开源了新一代通义千问模型 Qwen3,Arm 率先成为首批成功适配该模型的计算平台厂商。与此同时,Arm 面向人工智能 (AI) 框架开发者的开源计算内核 Arm KleidiAI
    的头像 发表于 05-12 16:37 1106次阅读

    Intel OpenVINO™ Day0 实现阿里通义 Qwen3 快速部署

    本文将以 Qwen3-8B 为例,介绍如何利用 OpenVINO 的 Python API 在英特尔平台(GPU, NPU)Qwen3 系列模型。
    的头像 发表于 05-11 11:36 1383次阅读
    Intel OpenVINO™ Day0 实现阿里通义 <b class='flag-5'>Qwen3</b> 快速<b class='flag-5'>部署</b>

    NVIDIA使用Qwen3系列模型的最佳实践

    220 亿)和 30B-A3B,以及六款稠密 (Dense) 模型 0.6B、1.7B4B8B、14
    的头像 发表于 05-08 11:45 2601次阅读
    NVIDIA使用<b class='flag-5'>Qwen3</b>系列模型的<b class='flag-5'>最佳</b>实践

    后摩智能NPU适配通义千问Qwen3系列模型

    近日,阿里云重磅推出Qwen3 系列开源混合推理模型。用时不到1天,后摩智能自研NPU迅速实现Qwen3 系列模型(Qwen3 0.6B-14B)在端边侧的高效
    的头像 发表于 05-07 16:46 1127次阅读

    B都有!BM1684X一键适配全系列Qwen3

    Qwen3发布,大小尺寸通吃Qwen3一发布,登顶开源大模型排行榜!235B、32B8B4B
    的头像 发表于 04-30 18:37 1178次阅读
    几<b class='flag-5'>B</b>都有!<b class='flag-5'>BM1684X</b>一键<b class='flag-5'>适配</b>全系列<b class='flag-5'>Qwen3</b>

    壁仞科技完成阿里巴巴通义千问Qwen3全系列模型支持

    4月29日,阿里巴巴通义千问发布并开源8款新版Qwen3系列“混合推理模型”(简称“Qwen3”)。Qwen3发布后数小时内,壁仞科技完成全
    的头像 发表于 04-30 15:19 1357次阅读

    爱芯通元NPU适配Qwen2.5-VL-3B视觉多模态大模型

    InternVL2.5-1B/8B/MPO,Huggingface推出的全球最小多模态大模型SmloVLM-256M。为工业界提供了离线部署多模态大模型(VLM)实现图片本地高效率理解的可行性方案。
    的头像 发表于 04-21 10:56 2604次阅读
    爱芯通元NPU<b class='flag-5'>适配</b><b class='flag-5'>Qwen2.5-VL-3B</b>视觉多模态大模型

    利用英特尔OpenVINO在本地运行Qwen2.5-VL系列模型

    近期阿里通义实验室在 Hugging Face 和 ModelScope 上开源了 Qwen2.5-VL 的 Base 和 Instruct 模型,包含 3B、7B 和 72B 在内的
    的头像 发表于 03-12 13:42 2304次阅读
    利用英特尔OpenVINO在本地运行<b class='flag-5'>Qwen2.5-VL</b>系列模型

    如何在边缘端获得GPT4-V的能力:算力魔方+MiniCPM-V 2.6

    GPT4-V的能力:MiniCPM-V 2.6 。 MiniCPM-V 2.6是MiniCPM-V系列最新、性能最佳的模型,基于SigLip-400M和Qwen2-7B构建,共8B参数
    的头像 发表于 01-20 13:40 1115次阅读
    如何在<b class='flag-5'>边缘</b>端获得GPT<b class='flag-5'>4</b>-V的能力:算力魔方+MiniCPM-V 2.6