0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

天玑9300内存硬件压缩技术大幅降低手机AI大模型内存占用 行业第一

科技快报 2023-11-09 19:17 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

近期,联发科发布了全新一代旗舰级5G生成式AI移动芯片天玑9300。创新的全大核架构设计结合新一代AI处理器APU和联发科特有的前沿技术,为端侧生成式AI应用提供强劲性能,带来精彩、丰富的端侧生成式AI体验。联发科还与众多业内AI企业深度合作,在移动端构建了丰富的AI生态。

wKgZomVMv8eADU9oAAQ3TenYVuU744.png

全新第七代AI处理器APU 790,为生成式AI而生

随着用户对生成式AI应用需求日益增长,端侧生成式AI便捷、安全性等优势便凸显出来。当然,部署端侧AI大语言模型需要强大的AI算力支撑。

天玑9300搭载联发科第七代AI处理器APU 790,为生成式AI而设计,拥有硬件级的生成式AI引擎,可以实现更加高速且安全的边缘AI计算,深度适配Transformer模型进行算子加速,速度是上一代的8倍。

wKgZomVMv8eAKzkoAACAKjC3qno04.jpeg

同时APU 790的性能和能效得到显著提升,整数运算和浮点运算能力提升至前一代的2倍,苏黎世ETHZv5.1 AI-Benchmark Mobile Soc跑分2109 分,AI性能成功霸榜,功耗更是降低了45%。在强大的AI性能支持下,1秒以内即可生成图片。天玑9300强悍的AI算力、创新的全大核CPU架构和Immortalis-G720 GPU都为端侧运行生成式AI打下坚实的性能基础。

wKgaomVMv8eAcpkNAADeRBHfMik961.png

同时,基于亿级参数大语言模型的特性,联发科开发了混合精度 INT4 量化技术,结合联发科特有的内存硬件压缩技术NeuroPilot Compression,可以更高效地利用内存带宽,大幅减少AI大模型占用终端内存,为端侧运行AI大语言模型突破手机内存限制,助力更大参数模型在端侧落地。

基于以上,天玑9300首次在vivo旗舰手机端侧落地70亿参数AI大语言模型,处理速度可达20 Tokens每秒。不仅如此,联发科突破了行业极限,已经与vivo成功在端侧运行了130亿参数的大语言模型。甚至,天玑9300已率先实现在移动芯片上成功运行330亿参数的AI大语言模型,领跑业界。

wKgZomVMv8eAPVkxAAPPtwbJuWc216.png

天玑9300还支持多模态生成式AI大模型,打造出“文生诗”“文生图”“文生趣图”等丰富有趣的端侧体验。

wKgaomVMv8iALhwxAAGaCv5Plyo949.png

可见,天玑9300的AI算力和端侧生成式AI能力已领先行业,足以让用户随时随地AI创造力全飙。

生成式AI模型端侧技能扩充,带来全面、丰富的端侧生成式AI体验

与云侧生成式AI解决方案不同,由于硬件环境的差异,部署端侧生成式AI也需要考虑手机内存、存储容量、负载上限等因素。为此,联发科率先提出了先进的解决方案。

APU 790 支持生成式AI模型端侧技能扩充技术NeuroPilot Fusion,它可以基于基础大模型持续在端侧进行低秩自适应(LoRA,Low-Rank Adaptation)融合,在混合式AI的赋能下,可以基于1个基础大模型,通过云端训练,在端侧完成N个功能的融合,赋予基础大模型更全面、更丰富的生成式AI应用能力。

wKgZomVMv8iAXe4XAABaWKSYnzQ756.png

比如基于AI模型端侧技能扩充技术的“图生GIF动图”功能,用户可以根据一张照片更换不同的风格甚至表情,玩出个人专属风格的表情包,秒变表情包小达人。

wKgaomVMv8iAB9DsAACRrudsS3I16.jpeg

AI开发平台NeuroPilot加速端侧生成式AI生态布局

基于强大的AI算力和先进的内存硬件压缩技术、AI模型端侧技能扩充等技术,天玑9300的APU 790将端侧生成式AI的速度和广度提升到了全新的水平。同时,为加速生成式AI在端侧部署和普及,联发科也凭借其AI开发平台NeuroPilot构建了丰富的AI生态,从底层硬件到工具链、模型中心以及开发生态,助力生态快速、高效地部署端侧生成式AI应用。

wKgZomVMv8mATCMQAAFtyqnYvf435.jpeg

AI开发平台NeuroPilot支持Android、Meta LIama 2、百度文心一言大模型、百川智能百川大模型等前沿主流AI大模型。

wKgaomVMv8mAVVuWAAA8z6By0Gs810.png

更为重要的是,NeuroPilot拥有一套完整且先进的工具链,除了NeuroPilot Compression低秩自适应融合,还有Speculative Decoding推测解码加速和模型优化与转化技术。

wKgZomVMv8mAMIU0AADSWumX36o46.jpeg

联发科的天玑开发者中心还可提供端侧生成式AI落地一站式开发者资源,分享端侧模型部署案例提升开发效率。目前已有20多个生成式AI合作伙伴加入生态共建。

联发科还携手业界合同伙伴打造精彩的生成式AI应用体验。虹软的生成式AI超级分辨率技术基于天玑9300 APU 边缘计算能力,相比前代,性能可提升30%。在25倍放大的拍摄时,利用生成式AI超级分辨率技术,可以拍出细节更真实的图像效果。

wKgaomVMv8mAcNmRAABQdQkk4sE020.png

wKgZomVMv8mAE3uwAADJITZjfH073.jpeg

极感科技的生成式AI语意搜索技术也基于天玑9300 APU边缘计算能力,对比前代,性能可提升260%。比如在手机的相册中搜索照片,描述照片的内容即可在毫秒内精准搜到对应的照片。而且在断网状态下也能搜索,隐私也不会泄露。

wKgaomVMv8yAeF-ZAALKHNuCuvQ896.png

wKgZomVMv9GAfTyQAAMO0P_Neg4228.png

Morpho的视频通话实时数字分身生成技术,同样基于天玑9300 APU边缘计算能力,对比前代,性能提升26%。一般的虚拟人像生成器需手动选取容貌样式花费时间。但基于视频通话实时数字分身生成技术,用户操作容易,仅需打开摄像头单帧图片即可瞬间生成数字分身。

wKgaomVMv9OACoRKAAL1idTB22s222.png

基于天玑9300 APU边缘计算能力,慧鲤生成式AI防眩光技术性能可提升60%。在此技术加持下,无论是室外还是室内,在拍摄时如有眩光,只要轻松一暗即可消除眩光干扰。

wKgZomVMv9iAKGkGAAfDwZZa-OU845.png

可以看到,在AI端云融合的趋势下,天玑9300在AI算力、生成式AI用户体验和生态方面展现出全面的优势,为新一代旗舰级端侧生成式AI体验树立了新的标杆,强大生成式AI就要用天玑。

wKgaomVMv9iAMO1oAAQBOXjl-Yk675.png

其同时,联发科等领军生成式AI的公司无时无刻不在通过技术创新和生态建造,积极推进混合式AI计算,开创出具有特色和效率的途径来推动端侧生成式AI部署的发展,以期将生成式AI在端侧普及,让越来越多的用户享有特色化的端侧AI体验,构建智能全域新体验,让科技更普惠大众。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 联发科
    +关注

    关注

    57

    文章

    2750

    浏览量

    259877
  • 内存
    +关注

    关注

    9

    文章

    3234

    浏览量

    76512
  • AI
    AI
    +关注

    关注

    91

    文章

    41109

    浏览量

    302597
  • 大模型
    +关注

    关注

    2

    文章

    3771

    浏览量

    5272
  • 天玑9300
    +关注

    关注

    3

    文章

    53

    浏览量

    652
  • AI大模型
    +关注

    关注

    0

    文章

    407

    浏览量

    1038
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    存储芯片闪崩!谷歌发布新算法,AI内存占用只需原来1/6?

    Cache内存占用降低至原来的1/6且几乎无精度损失。   随后在当地时间3月25日,美光科技开盘最高跌幅超6%,收盘跌3.4%,四累计跌幅超过13%;闪迪当天收跌3.5%;3月2
    的头像 发表于 03-27 13:50 7037次阅读
    存储芯片闪崩!谷歌发布新算法,<b class='flag-5'>AI</b><b class='flag-5'>内存</b><b class='flag-5'>占用</b>只需原来1/6?

    忆联自研芯片以压缩技术重塑KV Cache存储效率

    2026年3月,谷歌研究院发布TurboQuant压缩算法技术,迅速在存储与AI基础设施领域引发热议。该算法能够压缩KV缓存,实现内存
    的头像 发表于 04-10 14:10 395次阅读

    南亚科技3D堆叠AI内存UltraWIO技术

    南亚科技近日首度对外界披露其定制化AI内存的研发进度。公司表示,正与多家逻辑IC厂及生态系伙伴合作,部分产品已进入试产阶段,预计今年下半年将浮现更多具体成果。 此次南亚科技主推的技术
    的头像 发表于 03-06 14:10 2310次阅读

    内存持续涨价,多重信号预警成本压力#内存芯片#涨价#行业#消费电子#AI#

    内存芯片
    jf_15747056
    发布于 :2026年01月08日 18:38:35

    如何利用NPU与模型压缩技术优化边缘AI

    随着人工智能模型从设计阶段走向实际部署,工程师面临着双重挑战:在计算能力和内存受限的嵌入式设备上实现实时性能。神经处理单元(NPU)作为强大的硬件解决方案,擅长处理 AI
    的头像 发表于 11-07 15:26 1421次阅读
    如何利用NPU与<b class='flag-5'>模型</b><b class='flag-5'>压缩</b><b class='flag-5'>技术</b>优化边缘<b class='flag-5'>AI</b>

    AI体验跃迁,9500用双NPU开创端侧AI新时代

    AI 正从“尝鲜”迈向“常用”,下代体验该由谁定义?联发科9500给出答案:行业首发将端侧 AI
    的头像 发表于 09-24 14:47 895次阅读
    <b class='flag-5'>AI</b>体验跃迁,<b class='flag-5'>天</b><b class='flag-5'>玑</b>9500用双NPU开创端侧<b class='flag-5'>AI</b>新时代

    科普:什么AI 内存技术

    问题。 为什么 AI 内存很重要? 在 AI 模型训练和推理过程中,大量的数据需要从内存传输到处理器(如 GPU 或 TPU)进行计算。传统
    的头像 发表于 09-03 15:44 1648次阅读

    9500 性能大爆发!NPU AI算力或达100TOPS

    电子发烧友网综合报道,据博主数码闲聊站独家爆料,联发科9500 NPU用上全新IP硬件AI算力对比前代直接翻倍。此外,
    的头像 发表于 08-21 11:12 4342次阅读
    <b class='flag-5'>天</b><b class='flag-5'>玑</b>9500 性能大爆发!NPU <b class='flag-5'>AI</b>算力或达100TOPS

    联发科野心不小,9500 AI算力直接翻倍

    手机不仅可以运行更聪明的大模型,响应速度也更加迅速,让手机AI 有了更强的“活人感”。继去年
    的头像 发表于 08-20 13:33 1059次阅读
    联发科野心不小,<b class='flag-5'>天</b><b class='flag-5'>玑</b>9500 <b class='flag-5'>AI</b>算力直接翻倍

    vivo S30 Pro mini搭载9300+旗舰芯片

    体验保驾护航;在 MediaTek 与蓝晶芯片技术栈的联合研发和深度定制下, 9300+ 在 vivo S30 Pro mini 上充分释放性能的同时,实现更低功耗。搭配 S30
    的头像 发表于 06-23 16:37 1861次阅读

    请问STM32N6 cubeAI部署时用的内存是在内部还是外部?

    STM32N6用cube AI部署模型的时候,用n6-allmems-O3之后analyse得到了RAM和FLASH的内存占用,这里展示的内存
    发表于 06-09 06:19

    请问STM32N6 cubeAI部署时用的内存是在内部还是外部?

    STM32N6用cube AI部署模型的时候,用n6-allmems-O3之后analyse得到了RAM和FLASH的内存占用,这里展示的内存
    发表于 06-03 12:13

    HarmonyOS优化应用内存占用问题性能优化

    、 概述 用户功能的不断增强,应用越来越复杂,占用内存也在不断膨胀,而内存作为系统的稀缺资源比较有限,当应用程序占用过多
    发表于 05-21 11:27

    MediaTek9400率先完成阿里Qwen3模型部署

    通义大模型团队在 9400 旗舰移动平台上率先完成 Qwen3(千问 3)的端侧部署。未来,搭载 9400 移动平台的设备可充分发挥
    的头像 发表于 05-08 10:11 1510次阅读

    请问STM32N6 cubeAI部署时用的内存是在内部还是外部?

    STM32N6用cube AI部署模型的时候,用n6-allmems-O3之后analyse得到了RAM和FLASH的内存占用,这里展示的内存
    发表于 04-28 08:25