0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

LLM之外的性价比之选,小语言模型

E4Life 来源:电子发烧友网 作者:周凯扬 2024-06-03 05:15 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群



电子发烧友网报道(文/周凯扬)大语言模型的风靡给AI应用创造了不少机会,无论是效率还是创意上,大语言模型都带来了前所未有的表现,这些大语言模型很快成为大型互联网公司或者AI应用公司的杀手级产品。然而在一些对实时性要求较高的应用中,比如AI客服、实时数据分析等,大语言模型并没有太大的优势。

在动辄万亿参数的LLM下,硬件需求已经遭受了不小的挑战。所以面对一些相对简单的任务,规模较小的小语言模型(SLM)反而更加适合。尤其是在端侧的本地AI模型,在低功耗算力有限的边缘AI芯片支持下,小语言模型反而更适合发挥最高性能,而不是促使硬件一味地去追求更大规模模型的支持。

微软Phi

2023年,微软推出了一个基于Transformer架构的小语言模型Phi-1,该模型只有13亿参数,且主要专注于基础的Python编程,实现文本转代码。整个模型仅仅用到8块A100 GPU,耗时四天训练完成的。

这也充分说明了小语言模型的灵活性,在LLM普遍需要成百上千块GPU,花费数十乃至上百天的时间完成模型的训练时,SLM却只需要千分之一的资源,就可以针对特定的任务打造适合的模型。

近日,微软对Phi模型进行了全面更新,推出了Phi-3-mini、Phi-3-small和Phi-3-medium三个版本。其中Phi3-mini是一个38亿参数的小语言模型,同步推出的Phi-3-small和Phi-3-medium分别为70亿参数和140亿参数的模型。

Phi-3-mini有支持4K和128K两个上下文长度的版本,也是这个规模的模型中,第一个支持到最高128K上下文长度的版本,微软声称其性能甚至超过不少70亿参数的大模型。通过在搭载A16芯片的iPhone 14上测试,在纯粹的设备端离线运行下,Phi-3-mini可以做到12 token每秒的速度。

谷歌Gemma


在Gemini模型获得成功后,基于大语言模型框架Gemini,谷歌也开发了对应的轻量小语言模型Gemma。Gemma分为20亿参数和70亿参数的版本,其中20亿参数的Gemma可以在移动设备和笔记本电脑上运行,而70亿参数的版本则可以扩展至小型服务器上。虽然资源占用不高,但Gemma在各项基准测试中,依然可以与更大规模的模型相媲美,比如130亿参数的Llama-2等。

此外,谷歌不仅提供了预训练版本的Gemma,也支持通过额外的训练来实现模型调优,用于修改Gemma模型的行为,提高其在特定任务上的表现,比如通过人类语言互动进行训练,提高聊天机器人中响应式对话输入的表现等。

 
Gemma与Llama-2的性能对比/谷歌


在对运行设备的要求上,Gemma自然比不上大哥Gemini,但谷歌与英伟达合作,针对从数据中心到云端再到RTX AI PC的GPU都进行了优化,这样一来不仅具有广泛的跨设备兼容性,也能确保扩展性和高性能的双重优势。

写在最后


小语言模型的出现为行业带来了新的选择,尤其是在大多数大模型应用还是在不断烧钱的当下,小语言模型加速落地的同时,也提供了训练成本更低的解决方案。但与此同时,小语言模型的缺陷依然不可忽视,比如其规模注定了无法存储足够的“事实性知识”,其次这类小语言模型很难做到多语言支持。但我们必须认清小语言模型的存在并不是为了替代大语言模型,而是提供一个更加灵活的模型方案。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 模型
    +关注

    关注

    1

    文章

    3648

    浏览量

    51712
  • 大模型
    +关注

    关注

    2

    文章

    3440

    浏览量

    4964
  • LLM
    LLM
    +关注

    关注

    1

    文章

    340

    浏览量

    1257
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    广和通发布端侧情感对话大模型FiboEmo-LLM

    9月,广和通正式发布自主研发的端侧情感对话大模型FiboEmo-LLM。该模型专注于情感计算与自然语言交互融合,致力于为AI玩具、智能陪伴设备等终端场景提供“情感理解-情感响应”一体化
    的头像 发表于 09-26 13:37 1602次阅读

    蓝牙云屏:功能强大,性价比

    蓝牙云屏:功能强大,性价比​ 在仪器仪表行业,想要在严格控制成本的同时保证设备功能强大,往往是一件两难的事情。要么为了控制成本牺牲功能,导致产品竞争力不足;要么为了丰富功能增加成本,使产品失去
    的头像 发表于 09-25 17:12 372次阅读
    蓝牙云屏:功能强大,<b class='flag-5'>性价比</b><b class='flag-5'>之</b><b class='flag-5'>选</b>​

    RK3506开发板Linux开发板极致性价比

    RK3506开发板Linux开发板极致性价比瑞芯微RK3506开发板,3核Cortex-A7@1.5GHz+Cortex-M0,Linux+RT-Thread系统支持,128MB超大
    的头像 发表于 09-11 16:26 2778次阅读
    RK3506开发板Linux开发板极致<b class='flag-5'>性价比</b><b class='flag-5'>之</b><b class='flag-5'>选</b>

    3万字长文!深度解析大语言模型LLM原理

    我们正在参加全球电子成就奖的评选,欢迎大家帮我们投票~~~谢谢支持本文转自:腾讯技术工程作者:royceshao大语言模型LLM的精妙之处在于很好地利用数学解决了工业场景的问题,笔者基于过往工程经验
    的头像 发表于 09-02 13:34 3073次阅读
    3万字长文!深度解析大<b class='flag-5'>语言</b><b class='flag-5'>模型</b><b class='flag-5'>LLM</b>原理

    Votee AI借助NVIDIA技术加速方言小语种LLM开发

    了精准的方言及小语种大语言模型 (LLM)。此举成功解决了数据稀缺、语言复杂及计算效率等挑战,为全球数以百万计、缺乏数字化资源的语言使用者提
    的头像 发表于 08-20 14:21 650次阅读

    欧洲借助NVIDIA Nemotron优化主权大语言模型

    NVIDIA 正携手欧洲和中东的模型构建商与云提供商,共同优化主权大语言模型 (LLM),加速该地区各行业采用企业级 AI。
    的头像 发表于 06-12 15:42 925次阅读

    LM Studio使用NVIDIA技术加速LLM性能

    随着 AI 使用场景不断扩展(从文档摘要到定制化软件代理),开发者和技术爱好者正在寻求以更 快、更灵活的方式来运行大语言模型LLM)。
    的头像 发表于 06-06 15:14 778次阅读
    LM Studio使用NVIDIA技术加速<b class='flag-5'>LLM</b>性能

    小白学大模型:从零实现 LLM语言模型

    在当今人工智能领域,大型语言模型LLM)的开发已经成为一个热门话题。这些模型通过学习大量的文本数据,能够生成自然语言文本,完成各种复杂的任
    的头像 发表于 04-30 18:34 1062次阅读
    小白学大<b class='flag-5'>模型</b>:从零实现 <b class='flag-5'>LLM</b><b class='flag-5'>语言</b><b class='flag-5'>模型</b>

    详解 LLM 推理模型的现状

    2025年,如何提升大型语言模型LLM)的推理能力成了最热门的话题之一,大量优化推理能力的新策略开始出现,包括扩展推理时间计算、运用强化学习、开展监督微调和进行提炼等。本文将深入探讨LLM
    的头像 发表于 04-03 12:09 1241次阅读
    详解 <b class='flag-5'>LLM</b> 推理<b class='flag-5'>模型</b>的现状

    新品 | Module LLM Kit,离线大语言模型推理模块套装

    推理与数据交互需求。ModuleLLM是一款集成化的离线大语言模型(LLM)推理模块,专为需要高效、智能交互的终端设备设计。Module13.2LLMMate模块
    的头像 发表于 03-28 18:49 893次阅读
    新品 | Module <b class='flag-5'>LLM</b> Kit,离线大<b class='flag-5'>语言</b><b class='flag-5'>模型</b>推理模块套装

    无法在OVMS上运行来自Meta的大型语言模型LLM),为什么?

    无法在 OVMS 上运行来自 Meta 的大型语言模型LLM),例如 LLaMa2。 从 OVMS GitHub* 存储库运行 llama_chat Python* Demo 时遇到错误。
    发表于 03-05 08:07

    语言模型在军事应用中的安全性考量

    大型语言模型LLM)(如 ChatGPT、Claude 和 Meta AI)的出现是迄今为止人工智能领域最重大的进步。这项新技术也带来了新风险。众所周知的例子包括偏见、幻觉、知识产权(IP)盗窃
    的头像 发表于 02-09 10:30 753次阅读

    新品| LLM630 Compute Kit,AI 大语言模型推理开发平台

    LLM630LLM推理,视觉识别,可开发,灵活扩展···LLM630ComputeKit是一款AI大语言模型推理开发平台,专为边缘计算和智能交互应用而设计。该套件的主板搭载爱芯AX63
    的头像 发表于 01-17 18:48 1193次阅读
    新品| <b class='flag-5'>LLM</b>630 Compute Kit,AI 大<b class='flag-5'>语言</b><b class='flag-5'>模型</b>推理开发平台

    小白学大模型:构建LLM的关键步骤

    随着大规模语言模型LLM)在性能、成本和应用前景上的快速发展,越来越多的团队开始探索如何自主训练LLM模型。然而,是否从零开始训练一个
    的头像 发表于 01-09 12:12 1552次阅读
    小白学大<b class='flag-5'>模型</b>:构建<b class='flag-5'>LLM</b>的关键步骤

    在NVIDIA TensorRT-LLM中启用ReDrafter的一些变化

    Recurrent Drafting (简称 ReDrafter) 是苹果公司为大语言模型 (LLM) 推理开发并开源的一种新型推测解码技术,该技术现在可与 NVIDIA TensorRT-L
    的头像 发表于 12-25 17:31 1233次阅读
    在NVIDIA TensorRT-<b class='flag-5'>LLM</b>中启用ReDrafter的一些变化