电子发烧友网报道(文/李弯弯)近日,美国初创公司Liquid AI宣布正式推出下一代Liquid基础模型(LFM2),该模型在边缘模型类别中创下了速度、能效和质量的新纪录。
LFM2的诞生源于对AI底层逻辑的重构。与传统基于Transformer的模型不同,LFM2采用结构化、自适应的算子构建,其灵感源自动态系统理论、信号处理与数值线性代数的深度融合。
这种设计使模型具备三大核心优势:其一,训练效率较上一代提升300%,在CPU上吞吐量较Qwen3、Gemma等模型提升200%,延迟显著降低;其二,在长上下文处理(如32k token文档分析)和资源受限场景(如移动端、物联网设备)中表现卓越;其三,通过优化内存占用(LFM-3B仅需16GB内存,远低于Meta Llama-3.2-3B的48GB),实现毫秒级实时推理与离线运行。
“我们以第一性原理构建模型,如同工程师设计发动机般严谨。”Liquid AI联合创始人兼CEO Ramin Hasani在发布会上强调,“LFM2的目标是让每台设备都成为本地AI中心,释放生成式AI在边缘场景的潜力。”
从实测数据来看,在指令遵循、函数调用等智能体AI关键属性上,LFM2平均表现显著优于同规模竞品,成为本地与边缘用例的理想选择;
在MMLU(多模态学习理解)、RULER(长上下文推理)等权威评测中,LFM2-3B模型性能超越前代7B-13B模型,LFM2-40B则以混合专家(MoE)架构实现质量与成本的平衡;
生态兼容性方面,模型权重已开源至Hugging Face,支持通过Liquid Playground即时测试,并即将集成至边缘AI平台与iOS原生应用。
LFM2的发布,恰逢全球边缘AI市场爆发前夜。据预测,仅消费电子、机器人、智能家电等领域的边缘AI技术,即可在2035年推动总潜在市场规模逼近1万亿美元。Liquid AI已与《财富》500强企业展开合作,通过提供超高效率的小型多模态基础模型与安全的企业级部署方案,助力客户实现数据主权与隐私保护。
“将大型生成式模型从云端迁移至设备端,是AI普惠化的必经之路。”Hasani指出,“LFM2的毫秒级延迟与离线能力,对手机、汽车、卫星等实时性要求极高的终端至关重要。”目前,该公司已与国防、航天、网络安全等领域达成战略合作,其技术栈正成为高安全性场景的首选方案。
LFM2的发布,只是Liquid AI技术长征的第一步。据透露,未来几个月内,公司将陆续推出系列强大模型,覆盖更广泛的模态与场景。随着企业从云端LLM转向经济高效、快速、私密的本地智能,LFM2或将成为AI技术民主化的关键推手。
LFM2的诞生源于对AI底层逻辑的重构。与传统基于Transformer的模型不同,LFM2采用结构化、自适应的算子构建,其灵感源自动态系统理论、信号处理与数值线性代数的深度融合。
这种设计使模型具备三大核心优势:其一,训练效率较上一代提升300%,在CPU上吞吐量较Qwen3、Gemma等模型提升200%,延迟显著降低;其二,在长上下文处理(如32k token文档分析)和资源受限场景(如移动端、物联网设备)中表现卓越;其三,通过优化内存占用(LFM-3B仅需16GB内存,远低于Meta Llama-3.2-3B的48GB),实现毫秒级实时推理与离线运行。
“我们以第一性原理构建模型,如同工程师设计发动机般严谨。”Liquid AI联合创始人兼CEO Ramin Hasani在发布会上强调,“LFM2的目标是让每台设备都成为本地AI中心,释放生成式AI在边缘场景的潜力。”
从实测数据来看,在指令遵循、函数调用等智能体AI关键属性上,LFM2平均表现显著优于同规模竞品,成为本地与边缘用例的理想选择;
在MMLU(多模态学习理解)、RULER(长上下文推理)等权威评测中,LFM2-3B模型性能超越前代7B-13B模型,LFM2-40B则以混合专家(MoE)架构实现质量与成本的平衡;
生态兼容性方面,模型权重已开源至Hugging Face,支持通过Liquid Playground即时测试,并即将集成至边缘AI平台与iOS原生应用。
LFM2的发布,恰逢全球边缘AI市场爆发前夜。据预测,仅消费电子、机器人、智能家电等领域的边缘AI技术,即可在2035年推动总潜在市场规模逼近1万亿美元。Liquid AI已与《财富》500强企业展开合作,通过提供超高效率的小型多模态基础模型与安全的企业级部署方案,助力客户实现数据主权与隐私保护。
“将大型生成式模型从云端迁移至设备端,是AI普惠化的必经之路。”Hasani指出,“LFM2的毫秒级延迟与离线能力,对手机、汽车、卫星等实时性要求极高的终端至关重要。”目前,该公司已与国防、航天、网络安全等领域达成战略合作,其技术栈正成为高安全性场景的首选方案。
LFM2的发布,只是Liquid AI技术长征的第一步。据透露,未来几个月内,公司将陆续推出系列强大模型,覆盖更广泛的模态与场景。随着企业从云端LLM转向经济高效、快速、私密的本地智能,LFM2或将成为AI技术民主化的关键推手。
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。
举报投诉
-
边缘AI
+关注
关注
1文章
271浏览量
6218
发布评论请先 登录
相关推荐
热点推荐
黑马-Java+AI新版V16零基础就业班百度云网盘下载+Java+AI全栈开发工程师
加载与训练扩展、以及最新版本的 Spring AI 框架对多种模型接入的抽象封装。实战中,需要根据响应时延要求(嵌入适合毫秒级,远程接受百毫秒
发表于 05-01 11:29
[完结15章]Java转 AI高薪领域必备-从0到1打通生产级AI Agent开发
编写的推理引擎(如TensorRT、ONNX Runtime)进行无缝对接。将训练好的模型封装为标准的Java微服务,利用JVM的内存管理与线程池技术,去承载企业级高吞吐的AI
发表于 04-30 13:46
论马斯克的预言:AI使人类边缘化
依据
马斯克认为AI已进入“递归式自我改进”阶段,新一代的AI模型由上一代模型参与训练,人类监督的角色正在被边缘化。他预计完全自动化的
发表于 03-14 05:27
边缘AI算力临界点:深度解析176TOPS香橙派AI Station的产业价值
AGX Orin
150 TOPS+
本地大模型推理、具身智能控制、多模态实时交互
迷你AI服务器
176TOPS 意味着OrangePi AI
发表于 03-10 14:19
使用NORDIC AI的好处
; 自定义 Neuton 模型博客]
Axon NPU :集成在 nRF54LM20B 等高端 SoC 中的专用 AI 加速器,对 TensorFlow Lite 模型可实现最高约 1
发表于 01-31 23:16
工业视觉网关:RK3576赋能多路检测与边缘AI
~150ms6TOPS NPU 边缘AI推理易对接 MES / 追溯系统
一、产线痛点:从“人看”到“机判”的转变· 多工位/多角度同步:单机位覆盖不足,典型项目需 8~12 路并发,且画面时序一致性要求高
发表于 10-16 17:56
【「AI芯片:科技探索与AGI愿景」阅读体验】+第二章 实现深度学习AI芯片的创新方法与架构
Transformer和视觉Transformer模型。
ViTA是一种高效数据流AI加速器,用于在边缘设备上部署计算密集型视觉Transformer模型。
发表于 09-12 17:30
【「AI芯片:科技探索与AGI愿景」阅读体验】+AI芯片的需求和挑战
与边缘AI的不同特点:
边缘推理的优势:可以提供数据处理速度和响应速度,满足实时需求;可以缩短网络延迟,降低成本;可以提高安全性和隐私性,
发表于 09-12 16:07
【Sipeed MaixCAM Pro开发板试用体验】基于MaixCAM-Pro的AI生成图像鉴别系统
能够有效捕捉AI生成图像与真实手绘扫描图像在纹理、笔触、光影、全局一致性等方面的细微差异。
边缘端部署:将模型量化、编译,最终高效运行在算力有限的MaixCAM-Pro开发板上。
发表于 08-21 13:59
爱芯元智重磅发布边缘计算战略
近日,爱芯元智在2025世界人工智能大会上重磅发布边缘计算战略。展会现场汇聚了众多行业精英,共同见证了爱芯元智边缘计算与AI融合发展的新路径,为AI普惠美好生活擘画新的蓝图。
信而泰×DeepSeek:AI推理引擎驱动网络智能诊断迈向 “自愈”时代
网络智能诊断平台。通过对私有化网络数据的定向训练,信而泰打造了高性能、高可靠性的网络诊断模型,显著提升了AI辅助诊断的精准度与实用性。该方案实现了网络全流量深度解析能力与AI智能
发表于 07-16 15:29
最新人工智能硬件培训AI基础入门学习课程参考2025版(离线AI语音视觉识别篇)
端侧离线 AI 智能硬件作为 AI 技术的重要载体之一,凭借其无需依赖网络即可实现智能功能的特性,在一些网络条件受限或对数据隐私有较高要求的场景中,发挥着不可或缺的作用。本章基于CSK
发表于 07-04 11:14
Nordic收购 Neuton.AI 关于产品技术的分析
与 Nordic 的 nRF54 系列超低功耗无线 SoC 结合,使得即使是资源极为有限的设备也能高效运行边缘 AI。Nordic 目前正在将 Neuton 深度集成到自身开发生态中,未来会提供更多工具、固件
发表于 06-28 14:18
Liquid AI发布边缘AI模型LFM2,实现毫秒级实时推理与离线运行
评论