近年来,大型语言模型(LLM)如ChatGPT的崛起让Transformer架构家喻户晓。然而,随着对话长度的增加,Transformer的“记忆负担”问题逐渐暴露——生成响应时延迟变高、计算成本飙升 …