摘要
深度研究正成为大语言模型(LLM)智能体的典型长周期任务。然而,其长轨迹常超出模型上下文限制,压缩了证据收集与报告撰写的token预算,阻碍了有效的测试时扩展。本文提出FS-Researcher——一种基于文件系统的双智能体框架,通过持久化工作区将深度研究扩展至上下文窗口之外。其中,Context Builder智能体作为“图书管理员”,负责浏览网络、撰写结构化笔记,并将原始资料归档至可远超上下文长度的分层知识库;Report Writer智能体则逐节撰写最终报告,以该知识库为事实来源。文件系统在此充当持久外部记忆与跨智能体、跨会话的共享协调媒介,支持上下文窗口外的迭代优化。在DeepResearch Bench和DeepConsult两个开放式基准上的实验表明,FS-Researcher在不同主干模型上均取得最先进的报告质量。进一步分析证实,最终报告质量与分配给Context Builder的计算资源呈正相关,验证了该文件系统范式下有效的测试时扩展能力。
AI 推荐理由
提出基于文件系统的持久化外部记忆机制,是Agent Memory的核心架构创新。
论文信息