本站报道(文/李弯弯)近日,美国初创公司Liquid AI宣布正式推出下一代Liquid基础模型(LFM2),该模型在边缘模型类别中创下了速度、能效和质量的新纪录。
LFM2的诞生源于对AI底层逻辑的重构。与传统基于Transformer的模型不同,LFM2采用结构化、自适应的算子构建,其灵感源自动态系统理论、 信号处理与数值线性代数的深度融合。
这种设计使模型具备三大核心优势:其一,训练效率较上一代提升300%,在 CPU上吞吐量较Qwen3、Gemma等模型提升200%,延迟显著降低;其二,在长上下文处理(如32k token文档分析)和资源受限场景(如移动端、 物联网设备)中表现卓越;其三,通过优化内存占用(LFM-3B仅需16GB内存,远低于Meta Llama-3.2-3B的48GB),实现毫秒级实时推理与离线运行。
“我们以第一性原理构建模型,如同 工程师设计发动机般严谨。”Liquid AI联合创始人兼CEO Ramin Hasani在发布会上强调,“LFM2的目标是让每台设备都成为本地AI 中心,释放生成式AI在边缘场景的潜力。”
从实测数据来看,在指令遵循、函数调用等 智能体AI关键属性上,LFM2平均表现显著优于同规模竞品,成为本地与边缘用例的理想选择;
在MMLU(多模态学习理解)、RULER(长上下文推理)等权威评测中,LFM2-3B模型性能超越前代7B-13B模型,LFM2-40B则以混合专家(MoE)架构实现质量与成本的平衡;
生态兼容性方面,模型权重已开源至Hugging Face,支持通过Liquid Playground即时测试,并即将集成至边缘AI平台与 iOS原生应用。
LFM2的发布,恰逢全球边缘AI市场爆发前夜。据预测,仅 消费电子、 机器人、智能家电等领域的边缘 AI技术,即可在2035年推动总潜在市场规模逼近1万亿美元。Liquid AI已与《
财富》500强企业展开合作,通过提供超高效率的小型多模态基础模型与安全的企业级部署方案,助力客户实现数据主权与隐私保护。
“将大型生成式模型从云端迁移至设备端,是AI普惠化的必经之路。”Hasani指出,“LFM2的毫秒级延迟与离线能力,对 手机、
汽车、卫星等实时性要求极高的终端至关重要。”目前,该公司已与国防、航天、网络安全等领域达成战略合作,其技术栈正成为高安全性场景的首选方案。
LFM2的发布,只是Liquid AI技术长征的第一步。据透露,未来几个月内,公司将陆续推出系列强大模型,覆盖更广泛的模态与场景。随着企业从云端LLM转向经济高效、快速、私密的本地智能,LFM2或将成为AI技术民主化的关键推手。
免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
如有疑问请发送邮件至:bangqikeconnect@gmail.com