本文(视频摘要)旨在解决 LLM 驱动的编码代理中管理上下文窗口的关键挑战,强调了诸如“上下文漂移”和 Token 浪费等问题。它对常见的上下文失效(中毒、破坏、混淆、冲突)进行了分类,并回顾了现有的策略,如 RAG、工具配置、上下文隔离、剪枝和卸载。引入的核心解决方案是“摘要中间件”,它可以智能地压缩旧的对话历史,以释放上下文空间,同时保留必要的信息。技术演示通过 Next.js 应用展示了中间件的配置方法,以便根据 Token 限制或消息计数自动触发摘要,从而有效地保持代理的效率并降低运营成本。该方案通过智能记忆管理,使代理保持敏锐、高效和经济。

