摘要
基于图的检索增强生成(RAG)方法通常依赖于具有二元关系事实的知识图谱,在多跳开放域问答中表现出一定潜力。然而,其固定的检索方案和密集相似性搜索常引入无关上下文,增加计算开销并限制关系表达能力。相比之下,n元超图能够编码更高阶的关系事实,捕捉更丰富的实体间依赖关系,并实现更浅、更高效的推理路径。为此,本文提出HyperRAG,一种针对n元超图的RAG框架,包含两种互补的检索变体:HyperRetriever通过结构-语义推理构建查询条件下的关系链,支持准确的事实追踪、自适应高阶遍历和可解释的多跳推理;HyperMemory利用LLM的参数化记忆指导束搜索,动态评分n元事实和实体以实现查询感知的路径扩展。在WikiTopics(11个封闭域数据集)和三个开放域问答基准(HotpotQA、MuSiQue和2WikiMultiHopQA)上的广泛评估验证了HyperRAG的有效性。HyperRetriever在整体答案准确性上表现最佳,MRR平均提升2.95%,Hits@10平均提升1.23%。定性分析进一步表明,HyperRetriever通过自适应且可解释的n元链构建弥合了推理差距,对开放域和封闭域问答均有益。
AI 推荐理由
论文聚焦于基于超图的推理路径构建与增强生成,直接提升LLM的推理能力。
论文信息