摘要
大型语言模型(LLMs)的黑箱特性要求超越表面性能指标的新评估框架。本研究采用布卢姆分类法作为分层视角,探讨LLM内部神经表示中的认知复杂性。通过分析不同LLM的高维激活向量,我们检验了从基本回忆(Remember)到抽象综合(Create)的不同认知层级是否在模型残差流中线性可分。结果表明,线性分类器在所有布卢姆层级上均达到约95%的平均准确率,证明认知层级编码在模型表示的线性可访问子空间中。这些发现表明,模型在前向传播早期就解决了提示的认知难度,且随着层数增加,表示逐渐变得可分离。
AI 推荐理由
论文通过Bloom分类法研究LLM的认知复杂性,直接涉及推理能力的层级分析。
论文信息