引言 在人工智能快速发展的今天,大型语言模型(LLMs)已经成为解决复杂问题的强大工具。然而,这些模型在生成长篇推理时往往面临内存和计算成本过高的问题。为了突破这一瓶颈,LightThinker应运而 …