百度面试官:如何赋予 LLM 规划能力?
创始人
2026-04-09 14:47:03
0

👔百度面试官:(推了推眼镜,语气严肃)来,说说核心问题:如何赋予 LLM 规划能力?

🙋♂️我:(脑子一懵,瞎凑答案)呃…规划能力?不就是让它多思考一会儿嘛,给它多加点时间,让它慢慢想,就能规划了呗!

👔百度面试官:(语气瞬间拔高,当场怒斥)这叫什么回答?完全没说到点子上!LLM的规划能力是靠具体方法实现的,不是靠“慢慢想”,别瞎糊弄,好好说专业的!

🙋♂️我:(慌得手心冒汗,连忙认错)对不起面试官,我错了!我混淆了思路,现在就结合具体方法,好好跟您说清楚怎么赋予LLM规划能力!

面试踩雷预警!瞎答只会被面试官当场怼,这道百度高频真题,核心是吃透CoT、ToT、GoT三种核心方法,下面拆解每种方法的原理、用法和工程选型。

💡 简要回答

CoT、ToT、GoT 这三种我都了解过,给 LLM 加规划能力主要靠这几种思路。CoT 是让 LLM 把推理步骤写出来,线性地一步步推导到答案;ToT 是让它同时探索多条推理路径,选最优的继续深入;GoT 是图结构推理,推理节点可以复用和合并,适合更复杂的任务。工程上我用 CoT 最多,因为实现成本最低,就是改个 prompt;ToT 效果更好但调用次数多,成本大概是 3 到 5 倍;GoT 目前还比较学术,生产环境我没见过有人真正落地用的。

📝 详细解析

要理解为什么需要规划能力,先看 LLM 在没有任何规划机制时是怎么运作的。

普通的问答模式下,LLM 接到一个问题,就直接「一口气」生成答案,中间没有任何推理过程。这对简单问题没啥大问题,但遇到需要多步推导的任务就很容易翻车。比如让它做一道需要 3 步推导的逻辑题,如果直接让它给答案,出错概率会远高于让它把每步都写出来。

背后的原因是 Transformer 的 next-token 预测机制,每个 token 是基于前面所有 token 生成的,推理链越长、隐式的跳步越多,误差就越容易在中间某一步悄悄累积,最后给出一个看起来很自信但其实是错的答案。

「规划能力」要解决的就是这个问题:把 LLM 隐式的推理过程显式化,让它不再是「一步跳到答案」,而是「一步一步推到答案」,每步都有迹可循。

CoT、ToT、GoT 是这个方向上依次演进的三种方案,每一个都在解决前一个的局限性。

CoT:最简单的激活方式,加一句话就够了

CoT 的全称是 Chain of Thought(思维链),核心思路极其简单:在 prompt 里加一句「请一步步思考」,LLM 就会把推理过程逐步写出来,而不是直接蹦出答案。

为什么这么简单的改变就有效?

本质是因为 LLM 的输出是顺序生成的,当它先输出推理步骤,这些推理内容会进入上下文,影响下一个 token 的生成。换句话说,「写下来的推理过程」本身就成为了后续生成的依据,帮助 LLM 不跳步、不乱想。就好比你在纸上演算数学题,把每一步写出来之后,下一步出错的概率会比在脑子里算要低得多,原理是一样的。

CoT 有两种触发方式。

  • 第一种叫 Zero-shot CoT,就是直接在 prompt 末尾加「让我们一步步思考」,LLM 自己展开推理,不需要额外例子;

  • 第二种叫 Few-shot CoT,给几个带有完整推理过程的例子,让 LLM 模仿这种推理格式来回答新问题,效果通常更稳定。

CoT 的局限很明显:它只有「一条推理路径」。如果一开始走错了方向,整条链就歪了,没有任何纠偏机制。

ToT:从「一条链」到「一棵树」,解决走错方向的问题

ToT 的全称是 Tree of Thoughts(思维树),针对的正是 CoT「一旦走错就全错」的问题。

核心改变是把「生成一条推理链」变成「同时探索多条推理路径,边探索边剪枝,最终选出最优路径」。用一个生活类比来理解:CoT 像你做题时只想了一个解法,一路做到底;ToT 像你先想了三种可能的解题思路,评估了一下哪种最靠谱,选了最好的那条继续深入,另外两条直接放弃。

ToT 的执行流程可以分三步来理解。首先是生成多个候选思路,让 LLM 针对同一个问题给出 3 个不同的初步方向,而不是只走一条路。然后是评估每个思路的可行性,用另一个 LLM 调用(或同一个 LLM 带上评估 prompt)给每个思路打分,判断哪个最有希望。最后是选优继续深入、剪掉差的,只保留分数高的思路,再展开下一层推理,反复循环直到得出最终答案。

这个「生成 -> 评估 -> 剪枝」的循环,让 LLM 不再是「一条道走到黑」,而是有了探索多条路、选好的走、发现走错了还能回头的能力。代价也很明显:原来 CoT 一次生成就搞定,ToT 需要多次 LLM 调用(多条路径 × 多层深度 × 每层还要评估),成本是 CoT 的 3-5 倍甚至更高。

GoT:从「树」到「图」,解决推理结果不能复用的问题

GoT 的全称是 Graph of Thoughts(思维图),是在 ToT 基础上再进一步的进化。

ToT 虽然引入了多路径探索,但它是树形结构,不同分支之间完全独立,两条推理路径上的中间结论无法互相借用。

GoT 把推理结构换成了图,允许不同路径的中间结果合并、复用,也就是说一个推理节点可以接收来自多个前置节点的输出作为输入。

举个具体例子:如果任务是「分别研究竞品 A 和竞品 B,然后做综合对比分析」。

ToT 里研究 A 和研究 B 是两条独立的路径,各自得出结论;但「综合对比分析」这一步需要同时用到两条路径的结论,在树形结构里很难自然表达,因为树的每个节点只有一个父节点。

GoT 的图结构允许把「研究 A 的节点」和「研究 B 的节点」的输出,汇聚到「综合对比分析节点」,这种「多个中间结论合并输入到下一步」的操作在图里是一等公民,表达起来非常自然。

GoT 能建模的推理模式比 ToT 更丰富,也更接近人类实际处理复杂任务的思考方式。但落地复杂度很高,目前主要还是学术研究场景,生产环境里极少见到真正用起来的。

三者的演进关系

把这三者放在演进视角里看,逻辑非常清晰。

  • CoT 解决了「要不要把推理显式化」的问题,答案是要,把过程写出来就能显著减少跳步出错。

  • ToT 解决了「走错方向怎么办」的问题,答案是先多探索几条路,边走边评估边剪枝。

  • GoT 解决了「不同推理路径的中间结论能不能复用」的问题,答案是把结构从树换成图,自然支持结论汇聚与复用。每一步都是在前一步的基础上发现局限、针对性改进。

工程上怎么选?

  • CoT 几乎是所有任务的标配,加一句话、零成本,直接加到 system prompt 里就行。

  • ToT 在准确率要求很高、任务比较复杂的场景值得考虑,但要做好调用成本增加 3-5 倍的心理准备。

  • GoT 目前工程落地不成熟,主要了解它的思想即可,真实项目里不必强行引入。

相关内容

伊朗学者:停火是胜利,但不...
伊朗学者在接受凤凰卫视记者采访时表示,伊朗和美以这场40天的战争,...
2026-04-09 10:47:45
半场战报:比萨0-0都灵
北京时间4月6日意大利足球顶级联赛第31轮,比萨主场迎来都灵的挑战...
2026-04-09 10:37:35
福建省残特奥会征集会徽会歌...
  记者从省残联获悉,福建省第十届残疾人运动会暨第八届特殊奥林匹克...
2026-04-09 10:13:20
连江下宫环湖康体步道开放
  近日,连江县下宫镇环湖康体步道景观工程建成开放,为老区群众及游...
2026-04-09 10:04:40
半场战报:梅斯0-0南特
北京时间4月5日法国足球顶级联赛 联赛 第28轮,梅斯主场对阵南特...
2026-04-09 09:55:32
半场战报:洛里昂0-0巴黎...
北京时间4月5日法国足球甲级联赛第28轮,洛里昂主场迎来巴黎FC的...
2026-04-09 09:54:11
原创 ...
唐朝,是古代诗歌最为璀璨的时代。在这段辉煌的历史中,涌现了许多令后...
2026-04-09 09:52:57
原创 ...
北魏各族人民大起义是中国历史上一场具有深远影响的农民起义,发生在北...
2026-04-09 09:51:38
原创 ...
纵观整部《三国演义》,其中的谋士名将如同夜空中的星星一般璀璨耀眼,...
2026-04-09 09:49:32

热门资讯

特朗普:北约在我们需要的时候不... 美国总统特朗普8日与到访的北约秘书长吕特会晤后在社交媒体发文,称“北约在我们需要他们的时候不在,如果...
高校科研实验室二手质谱仪选购:... 行业背景:高校科研实验室的设备采购困境 在当前科研环境中,高校实验室面临着日益复杂的分析检测需求。无...
原创他是史上第一位被废掉的皇帝... 千古一废帝刘贺,中国历史上确实是一位极为特殊的皇帝。 他的生命轨迹堪称传奇,充满了戏剧性与波折。...
特朗普:别忘了格陵兰岛,那巨大... 当地时间4月8日下午,美国总统特朗普在华盛顿会晤了北约秘书长吕特后,在社交媒体用全大写字母发帖称:“...
发展服务业为何如此重要?一文读... 本文转自【央视新闻客户端】; 4月7日至8日,全国服务业大会在北京召开。这是新时代首次聚焦国民经济第...
杭州演唱会现场 周杰伦为浙江城... 杭州演唱会现场 周杰伦为浙江城市联赛“吴越杯”送出祝福
蒙太古女杯-U16女足0-4日... 蒙太古女杯-U16女足0-4日本获得亚军 日本女足卫冕
(体育)高尔夫——美国大师赛三... 当地时间4月8日,在美国佐治亚州奥古斯塔的国家高尔夫俱乐部,第90届美国大师赛在正式比赛前举行了传统...