知识提取 智能体框架
摘要

大语言模型(LLMs)可视为压缩的知识库,但其实际包含的知识范围尚不明确。现有基准多为静态,难以系统探测知识边界。本文提出一种交互式智能体框架,通过四种自适应探索策略在不同粒度上系统提取并量化LLM中的知识。为保障知识质量,设计了三阶段处理流程:基于向量的去重、基于LLM的语义消歧,以及领域相关性审核。实验表明,递归分类法是最有效的探索策略;模型规模与知识提取量呈明显扩展律;专用模型初始准确率高但衰减快,通用模型则表现更稳定;不同训练数据导致模型家族间存在可测量的知识分布差异。

AI 推荐理由

涉及知识提取与存储机制,但未聚焦记忆架构本身。

论文信息
作者 Yuheng Yang, Siqi Zhu, Tao Feng, Ge Liu, Jiaxuan You
发布日期 2026-02-01
arXiv ID 2602.00959
相关性评分 6/10 (相关)