摘要
语义缓存已成为扩展大语言模型(LLM)应用的关键技术,被AWS和微软等主流服务商广泛采用。该机制利用语义嵌入向量作为缓存键,有效降低语义相似查询的延迟与冗余计算。本文将语义缓存键视为一种模糊哈希,指出为提升缓存命中率所需的局部性与密码学雪崩效应对抗碰撞的要求存在根本冲突。我们首次系统研究缓存碰撞引发的完整性风险,提出名为CacheAttack的黑盒自动化攻击框架,在安全关键任务与智能体工作流中实现86%的响应劫持命中率,并能诱导LLM智能体产生恶意行为,且在不同嵌入模型间具有良好迁移性。金融智能体案例进一步揭示了该漏洞的现实危害,并讨论了缓解策略。
AI 推荐理由
探讨语义缓存作为LLM Agent记忆机制的安全性问题,涉及记忆存储与检索的核心环节。
论文信息