摘要
自我进化的大型语言模型(LLM)智能体通过积累和复用过往经验持续提升性能,但其是否真正依赖这些经验指导行为尚不明确。本文首次系统研究了自进化LLM智能体中“经验忠实度”——即智能体决策对其所获经验的因果依赖性。通过对原始与压缩形式经验进行受控因果干预,我们在10种LLM主干模型和9个环境中全面评估了四种代表性框架。研究发现显著不对称现象:智能体始终依赖原始经验,却常忽视或误读压缩经验,即使后者是唯一可用信息。该现象在单/多智能体设置及不同模型规模下均存在。根源在于压缩内容的语义局限、内部处理偏差抑制经验使用,以及预训练先验已足够应对的任务场景。结果挑战了当前自进化方法的假设,强调需更忠实可靠的经验整合机制。
AI 推荐理由
聚焦LLM Agent对经验(记忆)的依赖性与忠实度,属记忆使用机制研究。
论文信息