0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

Arm SME2技术加速腾讯翻译大模型推理

Arm社区 来源:Arm社区 2026-05-06 10:07 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

出国旅行,多多少少都会被语言问题绊住脚步。想必很多人都遇过这种尴尬时刻:手机信号、网速卡顿,翻译软件直接罢工,沟通全靠手舞足蹈,干着急又无奈!拥有一款翻译精准,还能在端侧本地运行的翻译模型,和烦恼说拜拜!

腾讯混元将翻译大模型 Hy-MT1.5 压缩至最小 440MB(1.25-bit 模型),轻轻松松装进手机。不仅如此,依托第二代 Arm 可伸缩矩阵扩展 (Arm SME2) 技术加持,推理表现进一步提升,随时随地让你解锁丝滑流畅的端侧翻译体验!

Hy-MT1.5 是腾讯混元团队打造的专业翻译大模型,原生支持 33 种语言,5 种方言/民汉,1056 个翻译方向。为了进一步在有限的手机内存下,实现更好的使用体验,腾讯推出了两种量化压缩方案,以适配不同的手机用户需求。其中,1.25-bit 模型主打极致压缩;而 2-bit 模型则是在性能和质量间取得了出色平衡。2-bit 模型通过采用拉伸弹性量化 (SEQ),并结合量化感知蒸馏,在几乎不牺牲翻译质量的同时,将模型体积压缩至 574MB。此外,得益于 Arm SME2 技术,在支持该技术的移动设备上,2-bit 模型的推理速度更快、运行能效更高,移动端翻译体验夯爆了!

1bd42c7a-43b0-11f1-90a1-92fbcf53809c.gif

2-bit 模型运行在支持与未支持 SME2 技术的移动设备上的速度对比演示

SME2 作为 Armv9 架构中的一组高级 CPU 指令,专为在端侧直接加速面向矩阵的计算工作负载而设计,使 CPU 能够处理支撑着当今大语言模型等用例的密集数学运算,同时显著降低功耗与延迟。由此打造出可在数十亿台移动设备上运行的更具吸引力、更智能、更直观的应用,并带来切实可量化的提升表现。对用户而言,应用体验将因此变得更加迅捷、本地化且安全可信。SME2 现已应用在多款智能手机上(具体机型详见设备列表),你的手机是否也已搭载了这项技术了呢?

设备列表:https://learn.arm.com/learning-paths/cross-platform/multiplying-matrices-with-sme2/1-get-started#devices

而对于移动端开发者来说,SME2 技术为他们带来了端侧 AI 加速功能,有助于实现更迅捷、更智能的端侧体验,革新移动应用功能。得益于 Arm 的软件加速层 —— Arm KleidiAI,它能够无缝集成到主流运行时库和 AI 框架中,开发者无需改动现有代码、模型或应用,即可直接获取 SME2 带来的性能提升。除此之外,SME2 通过 CPU 实现 AI 加速的标准化,为开发者提供了统一、可移植的移动端 AI 基础,基于 SME2 构建的应用在 iOS 和安卓系统上都能实现一致的性能表现。开发者一次构建应用与工作负载,即可部署至海量基于 Arm 架构的设备上。

端侧 AI 的核心并非单纯为设备堆砌更多智能功能,而是让智能更贴近用户的应用场景,切实升级大家的日常使用体验。一直以来,Arm 与腾讯混元持续依托技术创新,携手推动端侧应用功能与用户体验的优化升级,助力本土开发者更高效、顺畅地开展端侧 AI 创新开发。

端侧 AI 正在重塑移动体验,而 Arm 正是实现这些无缝交互体验的计算基础和强劲驱动力!

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • ARM
    ARM
    +关注

    关注

    135

    文章

    9596

    浏览量

    393838
  • cpu
    cpu
    +关注

    关注

    68

    文章

    11336

    浏览量

    226009
  • 大模型
    +关注

    关注

    2

    文章

    3805

    浏览量

    5280

原文标题:畅游异国无惧语言!Arm SME2 加速腾讯翻译大模型推理,端侧体验又快又准

文章出处:【微信号:Arm社区,微信公众号:Arm社区】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    利用ExecuTorch和Arm SME2加速端侧机器学习推理

    贴纸、分离主体以替换背景,或是对图像局部进行选择性增强。这些效果背后,是轻量级分割模型在运行,这些模型通过 ExecuTorch(PyTorch 的开源端侧推理运行时)以及第二代 Arm
    的头像 发表于 03-03 10:27 739次阅读
    利用ExecuTorch和<b class='flag-5'>Arm</b> <b class='flag-5'>SME2</b><b class='flag-5'>加速</b>端侧机器学习<b class='flag-5'>推理</b>

    Arm率先适配腾讯混元HY-1.8B-2Bit模型

    计算平台,Arm 率先完成了对该模型的成功适配。HY-1.8B-2Bit 现已能够在搭载启用第二代可伸缩矩阵扩展 (SME2) 技术的 Ar
    的头像 发表于 02-10 17:29 2110次阅读

    Arm SME2技术赋能端侧AI加速实现卓越移动端体验

    试想这样的场景:当你正在发消息时,手机能在你输入过程中实时翻译文字,还能即时总结整段对话内容;或是在拍照时,手机能在你按下快门之前,迅速解析复杂场景画面,并自动对关键主体进行聚焦。换言之,以往需要停顿处理的手机应用,如今已能实时预判并满足你的需求。
    的头像 发表于 01-22 14:18 751次阅读

    LLM推理模型是如何推理的?

    这篇文章《(How)DoReasoningModelsReason?》对当前大型推理模型(LRM)进行了深刻的剖析,超越了表面的性能宣传,直指其技术本质和核心局限。以下是基于原文的详细技术原理、关键
    的头像 发表于 01-19 15:33 735次阅读
    LLM<b class='flag-5'>推理模型</b>是如何<b class='flag-5'>推理</b>的?

    沐曦曦云C500/C550 GPU产品适配腾讯混元开源翻译模型1.5版本

    12月30日,腾讯混元宣布推出并开源翻译模型1.5,共包含两个模型:Tencent-HY-MT1.5-1.8B 和 Tencent-HY-MT1.5-7B,两个
    的头像 发表于 01-06 14:13 614次阅读
    沐曦曦云C500/C550 GPU产品适配<b class='flag-5'>腾讯</b>混元开源<b class='flag-5'>翻译</b><b class='flag-5'>模型</b>1.5版本

    壁仞科技壁砺166M产品适配腾讯混元开源翻译模型1.5版本

    12月30日,腾讯混元正式开源翻译模型1.5版本,该版本共包含两个模型:Tencent-HY-MT1.5-1.8B和Tencent-HY-MT1.5-7B,支持33个语种互译以及5种民
    的头像 发表于 01-05 15:39 470次阅读
    壁仞科技壁砺166M产品适配<b class='flag-5'>腾讯</b>混元开源<b class='flag-5'>翻译</b><b class='flag-5'>模型</b>1.5版本

    Arm Lumex平台赋能新一代旗舰智能手机体验升级

    可伸缩矩阵扩展 (SME2) 技术的全新 Arm C1 CPU 集群与Arm Mali G1-Ultra GPU,Lumex 将先进智能计算带到全球数十亿手机用户的手中,并依托各大旗
    的头像 发表于 12-15 14:27 934次阅读

    Arm助力MediaTek天玑9500重塑旗舰体验

    Arm 合作伙伴产品上“芯”!近日,MediaTek 发布了天玑 9500 旗舰 5G 智能体 AI 芯片,该芯片基于启用 SME2 的全新 Arm C1 CPU 集群打造,并搭载 Arm
    的头像 发表于 10-10 11:28 1417次阅读

    什么是AI模型推理能力

    NVIDIA 的数据工厂团队为 NVIDIA Cosmos Reason 等 AI 模型奠定了基础,该模型近日在 Hugging Face 的物理推理模型排行榜中位列榜首。
    的头像 发表于 09-23 15:19 1523次阅读

    Arm正式取消Cortex命名!CPU向着高算力进发,Lumex CSS平台加持!

    Lumex、面向PC市场的Niva,以及面向物联网和边缘 AI的Orbis。   Lumex CSS 平台集成了搭载第二代可伸缩矩阵扩展 (SME2) 技术
    的头像 发表于 09-17 08:25 3389次阅读
    <b class='flag-5'>Arm</b>正式取消Cortex命名!CPU向着高算力进发,Lumex CSS平台加持!

    全新Arm Lumex CSS平台实现两位数性能提升

    及下一代个人电脑加速其人工智能 (AI) 体验的先进计算平台。Lumex CSS 平台集成了搭载第二代可伸缩矩阵扩展 (SME2) 技术的最高性能 Arm CPU、GPU 及系统 IP
    的头像 发表于 09-10 16:14 1078次阅读
    全新<b class='flag-5'>Arm</b> Lumex CSS平台实现两位数性能提升

    NVIDIA Nemotron Nano 2推理模型发布

    NVIDIA 正式推出准确、高效的混合 Mamba-Transformer 推理模型系列 NVIDIA Nemotron Nano 2
    的头像 发表于 08-27 12:45 2053次阅读
    NVIDIA Nemotron Nano <b class='flag-5'>2</b><b class='flag-5'>推理模型</b>发布

    Arm率先适配腾讯混元开源模型,助力端侧AI创新开发

    共同赋能端侧人工智能 (AI) 部署,助力本土开发者实现 AI 应用创新! 这次的首日开源适配是双方再次携手提升端侧应用功能和用户体验的又一例证。去年,ArmArm KleidiAI 技术
    的头像 发表于 08-08 09:16 1579次阅读
    <b class='flag-5'>Arm</b>率先适配<b class='flag-5'>腾讯</b>混元开源<b class='flag-5'>模型</b>,助力端侧AI创新开发

    Arm SME2 技术加速安卓 AI 升级,驱动移动应用下一代功能革新

    从按下快门前就对照片进行即时锐化,到通话过程中实时消除背景噪音,再到离线状态下与人工智能 (AI) 助手互动,端侧 AI 正在重塑移动体验。而 Arm 计算平台正是实现这些无缝交互体验的强劲驱动力
    的头像 发表于 07-18 20:28 1983次阅读

    模型推理显存和计算量估计方法研究

    ,如乘法、加法等; (2)根据各层计算操作的类型和复杂度,确定每层所需的计算量; (3)将各层计算量相加,得到模型总的计算量。 基于硬件加速的算力估计 随着硬件加速
    发表于 07-03 19:43