0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

Liquid AI发布边缘AI模型LFM2,实现毫秒级实时推理与离线运行

Carol Li 来源:电子发烧友 作者:李弯弯 2025-07-15 08:59 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

电子发烧友网报道(文/李弯弯)近日,美国初创公司Liquid AI宣布正式推出下一代Liquid基础模型(LFM2),该模型在边缘模型类别中创下了速度、能效和质量的新纪录。

LFM2的诞生源于对AI底层逻辑的重构。与传统基于Transformer的模型不同,LFM2采用结构化、自适应的算子构建,其灵感源自动态系统理论、信号处理与数值线性代数的深度融合。

这种设计使模型具备三大核心优势:其一,训练效率较上一代提升300%,在CPU上吞吐量较Qwen3、Gemma等模型提升200%,延迟显著降低;其二,在长上下文处理(如32k token文档分析)和资源受限场景(如移动端、物联网设备)中表现卓越;其三,通过优化内存占用(LFM-3B仅需16GB内存,远低于Meta Llama-3.2-3B的48GB),实现毫秒级实时推理与离线运行。

“我们以第一性原理构建模型,如同工程师设计发动机般严谨。”Liquid AI联合创始人兼CEO Ramin Hasani在发布会上强调,“LFM2的目标是让每台设备都成为本地AI中心,释放生成式AI在边缘场景的潜力。”

从实测数据来看,在指令遵循、函数调用等智能体AI关键属性上,LFM2平均表现显著优于同规模竞品,成为本地与边缘用例的理想选择;

在MMLU(多模态学习理解)、RULER(长上下文推理)等权威评测中,LFM2-3B模型性能超越前代7B-13B模型,LFM2-40B则以混合专家(MoE)架构实现质量与成本的平衡;

生态兼容性方面,模型权重已开源至Hugging Face,支持通过Liquid Playground即时测试,并即将集成至边缘AI平台与iOS原生应用。

LFM2的发布,恰逢全球边缘AI市场爆发前夜。据预测,仅消费电子机器人、智能家电等领域的边缘AI技术,即可在2035年推动总潜在市场规模逼近1万亿美元。Liquid AI已与《财富》500强企业展开合作,通过提供超高效率的小型多模态基础模型与安全的企业级部署方案,助力客户实现数据主权与隐私保护。

“将大型生成式模型从云端迁移至设备端,是AI普惠化的必经之路。”Hasani指出,“LFM2的毫秒级延迟与离线能力,对手机、汽车、卫星等实时性要求极高的终端至关重要。”目前,该公司已与国防、航天、网络安全等领域达成战略合作,其技术栈正成为高安全性场景的首选方案。

LFM2的发布,只是Liquid AI技术长征的第一步。据透露,未来几个月内,公司将陆续推出系列强大模型,覆盖更广泛的模态与场景。随着企业从云端LLM转向经济高效、快速、私密的本地智能,LFM2或将成为AI技术民主化的关键推手。



声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 边缘AI
    +关注

    关注

    1

    文章

    271

    浏览量

    6218
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    黑马-Java+AI新版V16零基础就业班百度云网盘下载+Java+AI全栈开发工程师

    加载与训练扩展、以及最新版本的 Spring AI 框架对多种模型接入的抽象封装。实战中,需要根据响应时延要求(嵌入适合毫秒,远程接受百毫秒
    发表于 05-01 11:29

    [完结15章]Java转 AI高薪领域必备-从0到1打通生产AI Agent开发

    编写的推理引擎(如TensorRT、ONNX Runtime)进行无缝对接。将训练好的模型封装为标准的Java微服务,利用JVM的内存管理与线程池技术,去承载企业高吞吐的AI
    发表于 04-30 13:46

    论马斯克的预言:AI使人类边缘

    依据 马斯克认为AI已进入“递归式自我改进”阶段,新一代的AI模型由上一代模型参与训练,人类监督的角色正在被边缘化。他预计完全自动化的
    发表于 03-14 05:27

    边缘AI算力临界点:深度解析176TOPS香橙派AI Station的产业价值

    AGX Orin 150 TOPS+ 本地大模型推理、具身智能控制、多模态实时交互 迷你AI服务器 176TOPS 意味着OrangePi AI
    发表于 03-10 14:19

    如何在边缘AI应用场景中实现高性能、低功耗推理(上)

    。这种方法需要巨大的带宽才能将海量数据传输到云端。 边缘设备越来越多地使用AI推理技术,以实现快速实时响应并提高数据隐私和安全性,同时避免与
    的头像 发表于 02-27 07:48 1w次阅读
    如何在<b class='flag-5'>边缘</b><b class='flag-5'>AI</b>应用场景中<b class='flag-5'>实现</b>高性能、低功耗<b class='flag-5'>推理</b>(上)

    使用NORDIC AI的好处

    ; 自定义 Neuton 模型博客] Axon NPU :集成在 nRF54LM20B 等高端 SoC 中的专用 AI 加速器,对 TensorFlow Lite 模型实现最高约 1
    发表于 01-31 23:16

    工业视觉网关:RK3576赋能多路检测与边缘AI

    ~150ms6TOPS NPU 边缘AI推理易对接 MES / 追溯系统 一、产线痛点:从“人看”到“机判”的转变· 多工位/多角度同步:单机位覆盖不足,典型项目需 8~12 路并发,且画面时序一致性要求高
    发表于 10-16 17:56

    【「AI芯片:科技探索与AGI愿景」阅读体验】+第二章 实现深度学习AI芯片的创新方法与架构

    Transformer和视觉Transformer模型。 ViTA是一种高效数据流AI加速器,用于在边缘设备上部署计算密集型视觉Transformer模型
    发表于 09-12 17:30

    【「AI芯片:科技探索与AGI愿景」阅读体验】+AI芯片的需求和挑战

    边缘AI的不同特点: 边缘推理的优势:可以提供数据处理速度和响应速度,满足实时需求;可以缩短网络延迟,降低成本;可以提高安全性和隐私性,
    发表于 09-12 16:07

    【Sipeed MaixCAM Pro开发板试用体验】基于MaixCAM-Pro的AI生成图像鉴别系统

    能够有效捕捉AI生成图像与真实手绘扫描图像在纹理、笔触、光影、全局一致性等方面的细微差异。 边缘端部署:将模型量化、编译,最终高效运行在算力有限的MaixCAM-Pro开发板上。
    发表于 08-21 13:59

    边缘智能网关在水务行业中的应用—龙兴物联

    、重金属等),数据通过边缘网关实时处理。 优势:‌ 秒异常报警:‌ 边缘AI模型
    发表于 08-02 18:28

    爱芯元智重磅发布边缘计算战略

    近日,爱芯元智在2025世界人工智能大会上重磅发布边缘计算战略。展会现场汇聚了众多行业精英,共同见证了爱芯元智边缘计算与AI融合发展的新路径,为AI普惠美好生活擘画新的蓝图。
    的头像 发表于 08-01 10:45 1538次阅读

    信而泰×DeepSeek:AI推理引擎驱动网络智能诊断迈向 “自愈”时代

    网络智能诊断平台。通过对私有化网络数据的定向训练,信而泰打造了高性能、高可靠性的网络诊断模型,显著提升了AI辅助诊断的精准度与实用性。该方案实现了网络全流量深度解析能力与AI智能
    发表于 07-16 15:29

    最新人工智能硬件培训AI基础入门学习课程参考2025版(离线AI语音视觉识别篇)

    端侧离线 AI 智能硬件作为 AI 技术的重要载体之一,凭借其无需依赖网络即可实现智能功能的特性,在一些网络条件受限或对数据隐私有较高要求的场景中,发挥着不可或缺的作用。本章基于CSK
    发表于 07-04 11:14

    Nordic收购 Neuton.AI 关于产品技术的分析

    与 Nordic 的 nRF54 系列超低功耗无线 SoC 结合,使得即使是资源极为有限的设备也能高效运行边缘 AI。Nordic 目前正在将 Neuton 深度集成到自身开发生态中,未来会提供更多工具、固件
    发表于 06-28 14:18