LFM2.5-1.2B-Thinking内存仅900MB
时间:2026-02-07 18:06:54 329浏览 收藏
学习科技周边要努力,但是不要急!今天的这篇文章《LFM2.5-1.2B-Thinking 发布,仅占900MB内存》将会介绍到等等知识点,如果你想深入学习科技周边,可以关注我!我会持续更新相关文章的,希望对大家都能有所帮助!
Liquid AI 正式发布全新推理模型 LFM2.5-1.2B-Thinking,该模型仅需约 900 MB 手机内存,即可实现同尺寸模型中首屈一指的推理速度与最优的推理精度。
据悉,LFM2.5-1.2B-Thinking 是 LFM2.5 系列的最新迭代版本,参数量为 12 亿,专为复杂推理任务深度优化。其核心特性在于“先思考、后作答”——在输出最终答案前,主动构建结构化思考路径,从而更系统、更可靠地完成问题求解。该能力充分融合了 LFM 架构固有的高速推理优势,进一步提升答案质量与逻辑严谨性。
相较于前代模型 LFM2.5-1.2B-Instruct,LFM2.5-1.2B-Thinking 在三项关键能力上实现显著跃升:数学推理(MATH-500 基准从 63 分提升至 88 分)、指令理解与执行(Multi-IF 基准从 61 分提升至 69 分)、以及工具调用能力(BFCLv3 基准从 49 分提升至 57 分)。

官方指出,尽管参数规模相较 Qwen3-1.7B 缩减近 40%,LFM2.5-1.2B-Thinking 在主流推理评测中不仅全面比肩,更在多项指标上实现反超。尤为突出的是,它兼顾卓越输出质量与极高的测试时计算效率:相比启用“思考模式”的 Qwen3-1.7B,本模型在达成更高综合性能的同时,所需生成的输出 token 数量更少。
在实际推理阶段,LFM2.5-1.2B-Thinking 不仅大幅领先于 Qwen3-1.7B,甚至在速度与内存占用方面也优于 Granite-4.0-H-1B 等混合架构模型。

此外,该模型在高自主性、强逻辑依赖型任务(如工具协同、复杂数学推演、代码生成)及长上下文推理场景中均展现出强劲实力与稳定表现。
以上就是《LFM2.5-1.2B-Thinking内存仅900MB》的详细内容,更多关于的资料请关注golang学习网公众号!
-
501 收藏
-
501 收藏
-
501 收藏
-
501 收藏
-
501 收藏
-
197 收藏
-
463 收藏
-
489 收藏
-
428 收藏
-
289 收藏
-
336 收藏
-
239 收藏
-
474 收藏
-
291 收藏
-
346 收藏
-
169 收藏
-
392 收藏
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 立即学习 543次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 立即学习 516次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 立即学习 500次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 立即学习 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 立即学习 485次学习