如果你想深入研究,论文中多次引用的关键基石包括:
· Yao et al. (2023) - ReAct: Synergizing Reasoning and Acting in Language Models: 奠定了 AI “思考+行动(写代码/调工具)”的框架。
· Khattab et al. (2024) - DSPy: Compiling Declarative Language Model Calls into Self-Improving Pipelines: 探讨了如何将复杂的 AI 任务流程化(本文作者之一的工作)。
· Hong et al. (2025) - Context Rot and the Limits of Long-Context Transformers: 详细论证了为什么单纯增加窗口长度无法解决长文本理解问题。
· Brown et al. (2024) - Scaling Inference-time Compute with Model Cascades: 关于增加推理成本换取模型性能的理论基础。
总结
可以把 RLM 理解为“给 AI 装了一个带有搜索功能的 Python 笔记本”。它不靠死记硬背长文本,而是靠学会如何“递归地检索和处理”文本来解决复杂问题。
———————————————————
附加说明
在附录 A (Appendix A: Negative Results) 中,作者非常坦诚地记录了在开发“递归语言模型”(RLM)过程中,那些直觉上可行但实际操作中完全失败的尝试。
这部分内容对理解 RLM 的设计边界至关重要。