中文搜索引擎指南网

 找回密码
 禁止注册

QQ登录

只需一步,快速开始

搜索
查看: 260|回复: 0
打印 上一主题 下一主题

IBM 专家完整讲解大推理模型和大语言模型的区别

[复制链接]
跳转到指定楼层
1#
发表于 2025-11-9 16:19:57 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
@零重力瓦力
从 ChatGPT-o1 和 DeepSeek R1 开始,如今几乎所有大的模型都有推理(Reasoning)或者思考(Thinking)模式。那么具有推理模式的大模型(LRM)和大语言模型(LLM)具体有哪些区别?IBM 技术专家 Martin Keen 做了一个通俗、全面的解析。

大语言模型(LLM),能写文章、答题,其本质就是通过其内部的神经网络不断预测 “下一个词”,用庞大的数据和统计规律,生成看起来很像人写的内容。它们的反应很快,适合各种 “即兴” 任务。

大推理模型(LRM),它们做事的风格不一样。不是拿到问题就即刻解答,而是先停下来想一想,甚至列个计划、权衡各种思路,还会自查结果,再决定怎么回答。比如遇到复杂点的问题,例如厘清一家公司的现金流,调试一段难搞的代码,光靠直觉是不够的。LRM 会在 “脑子里” 演练、验证,碰上死胡同还能推倒重来,最后才给你一个靠谱的答案。

当然,这不是免费的午餐。LRM 花的时间更多,消耗的算力也更大。每多思考一步,延迟、成本都会往上走。对于简单需求,LLM 那种 “快嘴” 反而更合适。但如果你追求复杂推理、准确决策,LRM的 “慢工出细活” 就很值。

那么大推理模型是怎么训练的呢?开发人员会先用海量网页、书籍、代码等数据,把它们的常识和语言能力打牢,然后再专门 “补课” 推理能力。这里会用到逻辑题、多步数学题、一些困难的编程题,而且每个样本都配了详细的解题思路,让模型学会怎么一步步推理、展示过程。接下来,模型还会自己去尝试新题,通过奖励机制不断调整,比如人类给它的 “点赞” 或 “点踩”,或者用更小的模型来当裁判,专门判别推理过程的好坏。还有一种叫 “蒸馏”的方式,让更大的 “教师” 把解题思路传给新的 “学生” 模型。

用 LRM 的好处是解决复杂问题,答案更有条理、决策也更细致,也不用过于注重提示词工程。但缺点是算力花得多,成本高,速度慢。对于只要一条 “文艺小句” 的场景,用不到这么 “重量级” 的家伙,轻量模型就够了。但如果你要的是那种能解释能验证、能自查自证的“思考型” 模型,LRM 确实是目前最有潜力的方向。

可以说,现在最聪明、最能攻坚的模型,基本都是这种能 “停下来想一想” 的LRM。它们不再只是快嘴型的 “文字生成器”,而是真的在推敲、在思考,努力给你一个更靠谱的答案。



视频:具有推理模式的大模型(LRM)和大语言模型(LLM)具体有哪些区别?
https://weibo.com/tv/show/1034:5230677189394467?from=old_pc_videoshow&mark_id=999_reallog_mark_ad%3A999%7CWeiboADNatural
分享到:  QQ好友和群QQ好友和群 QQ空间QQ空间 腾讯微博腾讯微博 腾讯朋友腾讯朋友
收藏收藏

Archiver|手机版|小黑屋|教你搜 ( 鲁ICP备16006309号

GMT+8, 2025-11-27 23:48 , Processed in 0.156916 second(s), 24 queries .

Powered by Discuz! X3.2

© 2001-2013 Comsenz Inc.

快速回复 返回顶部 返回列表