摘要
大语言模型(LLMs)可视为压缩的知识库,但其实际包含的知识范围尚不明确。现有基准多为静态,难以系统探测知识边界。本文提出一种交互式智能体框架,通过四种自适应探索策略在不同粒度上系统提取并量化LLM中的知识。为保障知识质量,设计了三阶段处理流程:基于向量的去重、基于LLM的语义消歧,以及领域相关性审核。实验表明,递归分类法是最有效的探索策略;模型规模与知识提取量呈明显扩展律;专用模型初始准确率高但衰减快,通用模型则表现更稳定;不同训练数据导致模型家族间存在可测量的知识分布差异。
AI 推荐理由
涉及知识提取与存储机制,但未聚焦记忆架构本身。
论文信息