近日,面壁智能联合清华大学、OpenBMB开源社区正式发布并开源新一代端侧多模态大模型MiniCPM-V 4.6。这款仅有1.3B参数的"小钢炮",在全球同尺寸模型中登顶性能榜首,同时只需6GB内存即可在端侧流畅运行,在内存价格飞涨的当下,大幅降低了多模态大模型在各类智能终端上的落地门槛。
MiniCPM-V 4.6一经发布,就给1B量级多模态模型重新划定了起跑线。
在权威评测平台Artificial Analysis的综合榜单上,MiniCPM-V 4.6拿下13分,不仅全面超越阿里Qwen3.5-0.8B(10分)和谷歌Gemma4-E2B-it,甚至超过了参数规模更大的Mistral 3 3B,整体能力逼近Qwen3.5-2B级别。一个1.3B的模型,打赢了3B的对手,这在端侧多模态领域几乎是"以下犯上"的存在。
在具体任务上,MiniCPM-V 4.6的Instruct和Thinking两个版本均在通用图文理解、STEM数理推理、文档OCR及视频时序理解等任务上全面领先同尺寸竞品。换句话说,无论是看图说话、解题推理,还是识别文档里的密密麻麻的文字,它都是1B这个量级里最能打的。
真正让技术圈炸锅的,是MiniCPM-V 4.6在效率上实现的"反常识"表现——参数比Qwen3.5-0.8B更大,跑得却更快。
数据说话:在vLLM框架的推理测试中,MiniCPM-V 4.6的Token吞吐量达到Qwen3.5-0.8B的1.5倍,而Token消耗仅为后者的约2.5%。在Artificial Analysis评测中,1.3B非推理版本仅消耗约540万Token,仅为Qwen3.5-0.8B非推理版本的1/19、推理版本的1/43。这意味着同样一块RTX 4090,跑MiniCPM-V 4.6能扛住过去1.5倍的用户流量——对于SaaS服务来说,这就是实打实的利润。
在高分辨率图像处理上,MiniCPM-V 4.6处理3132×3132分辨率高清大图时,首字响应延迟仅约75.7毫秒,比Qwen3.5-0.8B快了2.2倍。而当图片分辨率暴涨49倍时,它的延迟增长居然不到2.5倍——这条几乎被"拉直"的延迟曲线意味着,无论加载多大的图,用户体感都差不多,一个字:稳。
这背后是两项核心架构创新。
第一,LLaVA-UHD v4架构。 这是面壁智能与清华大学联合自研的技术,核心思路是"早压缩"——在ViT视觉编码器内部,很早就把冗余的视觉Token优化掉,而不是等编码完成后再压缩。这一招直接将图像编码计算量降低了55.8%,后续ViT层的计算开销节省75%以上。
第二,4倍与16倍混合视觉Token压缩模式。 市面上绝大多数多模态模型都焊死在固定的4倍压缩上,而MiniCPM-V 4.6让开发者可以在两种模式间灵活切换:4倍模式精度更高,适合文档解析、密集文字识别等高要求场景;16倍模式速度更快,适合手机端实时交互和云端高并发API。一个模型,两种用法,鱼和熊掌兼得。
MiniCPM-V 4.6最大的实用价值,在于它真正能跑在端侧设备上。
仅需约6GB内存,就能在手机上流畅运行多模态任务。目前模型已在GitHub和Hugging Face全面开源,并提供Testflight测试版本,支持iOS、Android和HarmonyOS三大主流操作系统。你可以拿起手机拍一张照片,问它"这个现象的原因是什么",几秒钟后就能得到准确回答——全程离线,不需要联网,不产生Token账单。
在开源生态方面,MiniCPM-V 4.6提供了从微调到部署的完整工具链。它已适配ms-swift和LLaMA-Factory等主流微调框架,支持vLLM、SGLang、llama.cpp和Ollama等多个高性能推理框架,并提供GGUF、BNB、GPTQ等多种量化变体。开发者只需一张RTX 4090等消费级显卡,就能完成全流程微调,大幅降低了多模态应用的开发门槛。
MiniCPM系列并非首次亮相。此前面壁智能已在汽车、PC、手机和智能家居等多个终端场景实现规模化落地,合作伙伴涵盖联想、吉利、上汽大众等数十家行业头部企业。在汽车领域,MiniCPM已搭载于部分车型的智能座舱中,支持多轮自然语言对话、复杂意图理解和多模态场景感知。
此次MiniCPM-V 4.6的开源,将进一步推动多模态大模型在端侧设备的应用效率。从1.3B的参数规模到6GB的内存需求,从13分的评测成绩到1.5倍的推理吞吐,这款模型用扎实的数据证明了一件事:端侧多模态大模型,不再是"能用就行"的妥协方案,而是可以真正好用、够用、用得起的生产力工具。
关注
9文章
3248浏览量
76549免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
如有疑问请发送邮件至:bangqikeconnect@gmail.com