DeepSeek V3.2的Agentic能力大增,离不开这项关键机制:Interleaved Thinking(交错思维链)。Interleaved Thinking风靡开源社区背后,离不开另一家中国公司的推动。
大模型的「健忘症」,早该治治了!
当你试图用当今最先进的大模型帮你完成一个复杂的长假规划,比如「带全家老小去云南玩七天」时,往往很可能会遭遇一个令人崩溃的时刻:
起初,这位「导游」表现得极其靠谱,分析得头头是道。
它记得你说的每一句要求,帮你规划了昆明到大理的路线,甚至贴心地避开了游客太多的网红店。
但随着对话进行到第十轮,你们为了选酒店修改了五次方案,又为了某顿晚餐争论了半天后,它突然「失智」了。
它开始忘记你一开始强调了无数遍的死命令:「带着80岁的奶奶,绝对不能安排爬山和剧烈运动」。
在最新的行程表里,它竟然兴致勃勃地建议:「第四天清晨:全家早起徒步攀登玉龙雪山,欣赏日照金山,全程耗时4小时……」

图片由Nano Banana Pro生成
在AI工程界,这种现象有一个术语:状态漂移(State Drift)。
这并非模型「变笨」了,而是我们让它思考的方式错了。
为了治愈这种「健忘症」,Anthropic Claude、OpenAI GPT-OSS、MiniMax M2、Kimi K2 Thinking等国内外各大模型都不约而同地选择了同一项技术:一边思考,一边用工具(Thinking in Tool-Use)。

DeepSeek: Thinking in Tool-Use
MiniMax等部分厂商也将其称作Interleaved Thinking(交错思维链),从示意图即可看出,二者本质上是等价的。这是一个更贴近技术的称呼。

Minimax: Interleaved Thinking(交错思维链)
如图所示,交错思维链即模型在推理(thinking)和工具调用(action)之间来回交替,并持续保留和复用每一轮的推理状态,从而实现稳定、可累积的长程规划。
崩溃的ReAct
与「隐式推理」的诅咒
要理解交错思维链为什么是「神技」,我们得先看看它的前任——早期的ReAct(Reasoning+Acting)范式是如何遇到瓶颈的。

ReAct流程示意图
在很长一段时间里,我们构建AI Agent的逻辑非常线性:观察->思考->行动。
这看起来很符合直觉,但在实际的工程实现(如OpenAI的Function Calling(函数调用))中,这个过程往往被简化成了「模型直接输出工具调用指令」。
问题就出在这里。
模型在输出Action(比如「读取文件A」)的那一刻,它的「脑子」是清醒的。
但当工具执行完毕,返回了数千行的代码或网页内容后,模型进入下一轮生成时,它面临着巨大的环境扰动。
想象一下,你是一个程序员,每写一行代码,就有人把你打晕,清除你的短期记忆,然后把刚才的运行日志扔给你,让你继续写。
由于缺乏显式的、连续的思维记录,模型很容易被复杂的工具返回结果带偏。
它可能会被报错信息吸引注意力,从而忘记了原本的长期规划。
这就是「隐式推理」的诅咒。
模型的思考过程隐藏在权重里,一旦被打断(Turn-based interaction),这些思维火花就烟消云散了。
交错思维链:给Agent装上「海马体」
MiniMax的研发团队在开发M2模型时,敏锐地捕捉到了这个痛点。
Agent需要的不只是更长的上下文窗口,更是一种显式的、可累积的思考状态。
这就是交错思维链。