airr Artificial Intelligence and Robotics Research 2326-3415 2326-3423 beplay体育官网网页版等您来挑战! 10.12677/airr.2025.142040 airr-110077 Articles 信息通讯, 工程技术 图检索增强生成研究综述
Review of Graph Retrieval-Augmented Generation Research
周俭航 肖诗斌 北京信息科技大学计算机学院,北京 05 03 2025 14 02 402 413 19 2 :2025 17 2 :2025 17 3 :2025 Copyright © 2024 beplay安卓登录 All rights reserved. 2024 This work is licensed under the Creative Commons Attribution International License (CC BY). http://creativecommons.org/licenses/by/4.0/ 近年来,通过整合外部知识库来提高大语言模型(LLM)的性能,检索增强生成(RAG)取得了显著的成功。通过引用外部知识库,RAG可以完善LLM输出,从而有效解决幻觉、缺乏领域特定知识和过时信息等问题。然而,数据库中不同实体之间复杂的关系结构带来了挑战。对此,GraphRAG利用实体之间的结构化信息来实现更精确和全面的检索,捕捉关系知识并促进与上下文相关的更准确的生成。本文概述了GraphRAG相关技术和技术原理,研究了GraphRAG的下游任务、应用领域和评估标准,最后探讨了GraphRAG的未来研究方向,对未来的技术发展趋势进行了展望。
In recent years, Retrieval-Augmented Generation (RAG) has achieved remarkable success in enhancing the performance of large language models (LLMs) by integrating external knowledge bases. By referencing external knowledge bases, RAG can refine the outputs of LLMs, effectively addressing issues such as hallucinations, lack of domain-specific knowledge, and outdated information. However, the complex relational structures among different entities in the databases pose challenges. In response, GraphRAG utilizes the structured information between entities to achieve more precise and comprehensive retrieval, capturing relational knowledge and facilitating more accurate context-related generation. This paper outlines the related technologies and technical principles of GraphRAG, examines its downstream tasks, application domains, and evaluation criteria, and finally explores future research directions for GraphRAG, offering insights into the future trends of technological development.
GraphRAG,大语言模型,检索增强生成
GraphRAG
Large Language Model Retrieval-Augmented Generation
1. 引言

大语言模型(LLM)如GPT-4 [1] 、Qwen2 [2] 和LlaMA [3] 的发展引发了人工智能领域的革命,从根本上改变了自然语言处理的格局。这些基于Transformer架构并在多样化和广泛的数据集上训练的模型,在理解、解释和生成人类语言方面展现了前所未有的能力 [4] 。这些进展影响深远,涉及包括医疗保健、金融、教育在内的各个领域,促进了人类和机器之间更加微妙和高效的互动。

尽管LLMs在语言理解和文本生成方面表现出色,但由于缺乏特定领域的知识、实时更新的信息和专有知识(这些都不在LLMs的预训练语料库中),它们可能会表现出局限性。这些差距可能导致一种被称为“幻觉”的现象,即模型生成不准确甚至虚构的信息 [5] 。因此,用外部知识补充LLMs以缓解这个问题变得至关重要。

检索增强生成(RAG)因此出现,旨在通过在生成过程中集成检索组件来增强生成内容的质量和相关性 [6] - [12] 。RAG的本质在于其能够动态查询大型文本语料库,将相关的事实知识整合到底层语言模型生成的响应中。这种整合不仅丰富了响应的上下文深度,还确保了更高程度的事实准确性和具体性。由于其卓越的性能和广泛的应用,RAG已经获得了广泛的关注,成为该领域的一个研究热点。

Figure 1. Comparison between Direct LLM, RAG, and GraphRAG--图1. LLM,RAG,GraphRAG对比--

尽管RAG已经取得了令人印象深刻的结果并在各种领域得到广泛应用,但它在现实场景中面临一些限制:(1) 忽视关系:在实践中,文本内容并非孤立存在,而是相互关联的。传统的RAG无法捕捉到仅通过语义相似性无法表示的重要结构化关系知识。例如,在论文通过引用关系相互链接的引用网络中,传统的RAG方法专注于基于查询找到相关论文,但忽视了论文之间重要的引用关系。(2) 冗余信息:RAG在以文本片段形式串联作为提示时经常重复内容。这使得上下文变得过长,导致“迷失在中间” [13] 。(3) 缺乏全局信息:RAG只能检索文档的子集,无法全面掌握全局信息,因此在处理如Query-Focused Summarization (QFS)等任务时存在困难。

图检索增强生成(GraphRAG) [14] - [16] 作为一种新方案出现以解决这些挑战。与传统的RAG不同,GraphRAG从预先构建的图数据库中检索包含与给定查询相关的关系知识的图元素,如 图1 所示。这些元素可能包括节点、三元组、路径或子图,用于生成响应。GraphRAG考虑了文本之间的互连关系,使得关系信息的检索更加准确和全面。此外,图数据(如知识图谱)提供了对文本数据的抽象和总结,从而显著缩短了输入文本的长度。通过检索子图,我们可以访问全面的信息,通过捕捉图结构内更广泛的上下文和互连,有效地解决QFS挑战。

2. GraphRAG相关技术概述 2.1. RAG

检索增强生成(Retrieval Augmented Generation, RAG)是一种连接外部数据源以增强大语言模型输出质量的技术。这种技术帮助LLM访问私有数据或特定领域的数据,并解决幻觉问题。经典的RAG包括三个步骤:(1) 索引:将文档语料库拆分为较短的块,并通过编码器构建向量索引。(2) 检索:根据相似度,在问题和组块之间,检索相关文档片段。(3) 生成:在已检索到的上下文的基础上生成问题的答案。

从广义上讲,GraphRAG可被视为RAG的一个分支。从图数据库中检索相关关系知识,而非文本语料库。与基于文本的RAG相比,GraphRAG考虑了文本之间的关系,并将结构信息作为文本的附加知识纳入,着重基于结构化图数据的索引、检索和利用,这与纯粹处理文本信息存在实质差异。

2.2. 基于图的大语言模型

凭借出色的文本理解、推理和生成能力,大语言模型正在革新自然语言处理领域。尽管大语言模型主要设计用于处理纯文本,难以处理包含复杂结构信息的非欧几里得数据 [17] [18] ,但众多研究仍在这些领域开展 [19] - [23] 。这些研究主要将LLM与GNN相结合,以增强对图数据的建模能力,从而改善诸如节点分类、边预测、图分类等下游任务的性能。与这些方法不同,GraphRAG着眼于使用查询从外部图结构数据库中检索相关知识。

2.3. KBQA

KBQA是自然语言处理中的一项重要任务,旨在根据外部知识库回答用户查询,从而实现事实验证和文本理解等目标 [24] - [26] 。现有的KBQA方法通常分为两大类:基于信息检索(IR)的方法和基于语义解析(SP)的方法。GraphRAG与KBQA关系密切,基于IR的KBQA方法可视为GraphRAG在下游应用中的一个子集。

3. GraphRAG基础知识

本节将介绍GraphRAG的一些背景知识,以便更好地理解本综述。首先,本节介绍了GraphRAG中使用的文本属性图(TAGs),然后对GraphRAG的检索和生成阶段可以使用的两种模型类型:图神经网络和语言模型进行了正式定义。

3.1. 文本属性图

GraphRAG中使用的图数据可以统一表示为文本属性图(TAG),其中节点和边都具有文本属性。典型的TAG类型之一是知识图(KG),其中节点是实体,边是实体之间的关系,而文本属性则是实体和关系的名称。

3.2. 图神经网络

图神经网络(GNN)是一种深度学习框架,用于对图数据建模。经典GNN如GCN [27] 、GAT [28] 、GraphSAGE [29] 采用消息传递机制获得节点表示。形式上,在第l层中,每个节点通过聚合来自相邻节点和边的信息进行更新。

h i ( l ) = U P D ( h i ( l 1 ) , A G G j N ( i ) M S G ( h i ( l 1 ) , h j ( l 1 ) , e i , j ( l 1 ) ) ) (1)

其中N(i)表示节点i的邻居,MSG表示计算基于节点、邻居节点和它们之间边的消息的函数,AGG指的是使用可交换函数(如均值、求和或最大值)组合接收的消息的聚合函数,UPD表示使用聚合消息更新每个节点属性的函数。

随后,可以应用一个readout函数来获得全局级别的表示

h G = R E A D O U T i ν G ( h i ( L ) ) (2)

在GraphRAG中,GNN可用于获取图数据在检索阶段的表示,以及对检索到的图结构进行建模。

3.3. 语言模型

语言模型(LM)擅长语言理解,主要分为两类:判别式和生成式。判别式模型如BERT [30] 、RoBERTa [31] 和SentenceBERT [32] 侧重于估计条件概率P(y|x),在文本分类和情感分析等任务中效果良好。相比之下,生成式模型如GPT-3 [33] 和GPT-4 [1] 旨在建模联合概率P(x, y),用于机器翻译和文本生成等任务。这些预训练生成模型通过利用大规模数据集和数十亿个参数,极大地推进了自然语言处理(NLP)领域,催生了具有出色性能的大型语言模型(LLMs)。

早期,RAG和GraphRAG侧重于改进判别式语言模型的预训练技术。最近,ChatGPT [34] 、LlaMA [3] 和Qwen2 [2] 等LLM展现出强大的语言理解能力,证明了出色的上下文学习能力。随后,RAG和GraphRAG的研究转向增强LLM的信息检索,以解决日益复杂的任务并幻觉问题,推动了该领域的快速发展。

4. GraphRAG原理

GraphRAG是一种框架,通过利用外部结构化知识图增强LLM的上下文理解能力,从而生成更明智的响应,如 图2 所示。

GraphRAG的目标是从数据库中检索最相关的知识,从而增强下游任务的回答质量。该过程可形式化定义为:

a * = a r g max a ϵ A p ( a | q , g ) (3)

其中 a * 是对TAG给定 g 时查询 q 的最优回答,A是潜在响应集合。之后,我们使用图检索器 p θ ( G | q , g ) 和回答生成器 p ϕ ( a | q , g ) (其中 θ ϕ 是可学习参数)联合建模目标分布 p ( a | q , g ) ,并利用全概率公式对 p ( a | q , g ) 进行分解,公式可形式化为:

p ( a | q , g ) = G g p ϕ ( a | q , g ) p θ ( G | q , g ) p ϕ ( a | q , G * ) p θ ( G * | q , g ) (4)

其中 G * 是最优子图。由于候选子图数量随图的大小呈指数级增长,因此需要启发式搜索算法来有效探索和检索相关子图。第一行的近似由第二行给出。具体而言,采用图检索器提取最优子图 G * ,然后生成器基于检索到的子图生成答复。

Figure 2. GraphRAG framework--图2. GraphRAG框架--

因此,在本文中,我们将GraphRAG的整个过程分解为三个主要阶段:基于图的索引、基于图的检索和基于图的生成。 图2 展示了GraphRAG的整体工作流程,每个阶段的详细介绍如下:

基于图的索引(G-Indexing)是GraphRAG的初始阶段,旨在识别或构建一个与下游任务相符的图数据库g,并在其上建立索引。图数据库可源自公开知识图 [35] - [40] 、图数据 [41] 或基于专有数据源(如文本 [14] [42] - [44] 或其他形式 [45] )构建而成。索引过程通常包括映射节点和边属性、在相连节点之间建立指针,并组织数据以支持快速遍历和检索操作。索引决定了后续检索阶段的粒度,对提高查询效率起到关键作用。

基于图的检索(G-Retrieval)紧随基于图的索引,着眼于根据用户查询或输入从图数据库中提取相关信息。具体而言,给定自然语言表达的用户查询q,检索阶段旨在从知识图中提取最相关的元素(如实体、三元组、路径、子图),可形式化为:

G * = G R e t r i e v e r ( q , g ) = a r g max G ϵ R ( g ) p θ ( G | q , g ) = a r g max G ϵ R ( g ) S i m ( q , G ) (4)

其中 G * 是最优检索的图元素,Sim()是一个测量用户查询与图数据之间语义相似性的函数。R()表示一个缩小子图搜索范围的函数,考虑到效率因素。

图增强生成(G-Generation)涉及基于检索到的图数据综合有意义的输出或响应,包括回答用户查询、生成报告等。在此阶段,生成器以查询、检索到的图元素和可选的提示作为输入来生成响应,可表示为:

a * = G G e n e r a t o r ( q , G * ) = a r g max a ϵ A p ϕ ( a | q , G * ) = a r g max a ϵ A p ϕ ( a | F ( q , G * ) ) (5)

其中F()是一个将图数据转换为生成器可处理的形式的函数。

5. GraphRAG行业应用与下游任务 5.1. 行业应用

GraphRAG在电子商务、生物医学、学术、文学、法律等领域得到了广泛应用,这归因于它能够将结构化知识图与自然语言处理优势相结合的卓越能力。

在电子商务领域,主要目标是通过个性化推荐和智能客户服务来提升客户购物体验和增加销售。在这一领域中,用户与产品之间的历史交互自然形成了一个图,隐含了用户行为模式和偏好信息。然而,由于电子商务平台数量不断增加,用户交互数据量也在不断增长,利用GraphRAG技术从中提取关键子图至关重要。Wang等人 [46] 集成了多个具有不同类型或参数的检索器,以提取相关子图,并对其进行编码以预测用户的时间行为。为提高客户服务问答系统的模型性能,Xu等人构建了一个过去问题图,包含内部问题和问题间关系。对于每个给定查询,系统都会检索类似过去问题的子图,以增强响应质量。

最近,GraphRAG技术越来越多地应用于生物医学问答系统,实现了先进的医疗决策性能。在这一领域,每种疾病都与特定症状相关,每种药物都包含某些活性成分来针对和治疗特定疾病。一些研究人员为特定任务场景构建了KG [43] [50] ,而另一些研究人员则利用开源知识图如CMeKG和CPubMed-KG作为检索源 [47] - [49] 。现有方法通常从非参数检索器进行初始搜索,然后设计方法对检索内容进行重新排序。此外,一些方法提出使用检索信息重写模型输入,以提高生成效果。

在学术研究领域,每篇论文都由一个或多个研究人员撰写,并且属于某一研究领域。作者隶属于机构,作者之间存在合作或共同机构隶属关系。这些要素可以构建成图格式。利用GraphRAG在此图上,可以促进学术探索,包括为某位作者预测潜在合作者、识别特定领域趋势等。

在法律环境中,案例和法律意见之间存在大量引用关联,因为法官在作出新裁决时经常会参考以前的意见。这自然形成了一个结构化图,其中节点表示意见、意见簇、诉讼和法院,边包括“意见引用”、“意见簇”、“簇–诉讼”和“诉讼–法院”等关系。GraphRAG在法律领域的应用可以帮助律师和法律研究人员进行案例分析和法律咨询等工作。

除上述应用外,GraphRAG还应用于其他现实场景,如情报报告生成和专利短语相似性检测。Ranade和Joshi [51] 首先构建事件情节图(EPG),并检索事件的关键方面,以辅助情报报告的生成。Peng和Yang [52] 创建了一个专利–短语图,并检索给定专利短语的自我网络,以协助判断短语相似性。

5.2. 下游任务

GraphRAG被广泛应用于各种下游任务(尤其是NLP任务),包括问答、信息提取等。详情如下。

问答任务具体包括基于知识库的问答(KBQA)和常识问答(CSQA)。

(1) KBQA:KBQA是GraphRAG的基础下游任务之一。在KBQA中,问题通常与特定知识图相关,答案往往涉及知识图中的实体、关系或实体集合之间的操作。该任务考查系统在结构化知识库上进行检索和推理的能力,这对于促进复杂查询响应至关重要。

(2) CSQA:不同于KBQA,CSQA主要采用多项选择问题的形式。常识推理通常提供一个常识问题及几个答案选项,每个选项可能代表实体名称或陈述。机器需要利用外部常识知识图(如ConceptNet)来查找与问题和选项相关的知识,并进行适当的推理从而得出正确答案。

信息检索任务包括实体链接(EL)和关系提取(RE)两大类。

(1) 实体链接:实体链接是自然语言处理领域的一项关键任务,旨在识别文本段落中提及的实体,并将其链接到知识图中对应的实体。通过利用GraphRAG系统从知识图中检索相关信息,可以有助于准确推断出与文本中的实体提及相匹配的特定实体 [53]

(2) 关系提取:关系提取旨在识别和分类文本中实体之间的语义关系。GraphRAG可以显著增强这一任务,通过利用基于图的结构来编码和利用实体之间的相互依赖关系,从而更精确、更合乎上下文地从不同文本源提取关系数据 [54] - [56]

除上述下游任务外,GraphRAG还可应用于自然语言处理领域的各种其他任务,如事实验证、链接预测、对话系统和推荐系统。

(1)事实验证:事实验证任务通常涉及使用知识图评估事实陈述的真实性。模型需要利用结构化知识存储库确定给定事实断言的有效性。GraphRAG技术可用于从实体之间提取证据连接,从而提高系统的效率和准确性 [54] - [57]

(2) 链接预测:链接预测是预测图中实体之间缺失关系或潜在连接的任务。GraphRAG被应用于这一任务 [58] [59] ,利用其从图中检索和分析结构化信息的能力,通过发现图中隐藏的关系和模式提高预测精度。

(3) 对话系统:对话系统旨在使用自然语言与人进行对话,处理回答问题、提供信息或促进用户交互等任务。通过以基于图的框架构造对话历史和上下文关系,GraphRAG系统 [60] 可以提高模型生成连贯性、与上下文相关的响应的能力。

(4) 推荐系统:在电子商务平台中,用户与产品之间的购买关系自然形成了一个网络图。这些平台上的推荐系统的主要目标是预测用户的未来购买意向,有效预测图中潜在的连接 [61]

6. 评估标准 6.1. 基准测试

评估GraphRAG系统性能的基准测试通常涵盖多个任务领域,以提供全面的测试结果。例如,STARK基准测试了在半结构化知识库上LLM检索的能力,涵盖了产品搜索、学术论文搜索和精准医学查询等三个领域,以评估当前GraphRAG系统的能力。He等人 [61] 提出了一个灵活的面向现实世界文本图的问答基准测试GraphQA,适用于多个应用,包括场景图理解、常识推理和知识图推理。Graph Reasoning Benchmark (GRBENCH) [62] 旨在促进利用图增强LLM的研究,包含1740个可通过10个领域图的知识回答的问题。CRAG [63] 提供了一个结构化查询数据集,并配有模拟API以访问底层模拟KG,实现公平对比。

6.2. 评估指标

GraphRAG的评估指标可广泍分为两大类:下游任务评估(生成质量)和检索质量评估。

下游任务评估(生成质量):在大多数研究中,下游任务评估指标是评估GraphRAG性能的主要方法。例如,在KBQA中,通常使用精确匹配(EM)和F1分数来衡量回答实体的准确性。此外,许多研究人员利用BERT4Score和GPT4Score来缓解LLM生成与地面真值同义但不完全匹配的情况。在CSQA中,准确率是最常用的评估指标。对于诸如QA系统等生成式任务,通常采用BLEU、ROUGE-L、METEOR等指标来评估模型生成文本的质量。

检索质量评估:尽管可以基于下游任务性能评估GraphRAG,但直接衡量检索内容的精度却具有一定挑战性。因此,许多研究采用特定指标来评估检索内容的准确性。例如,当地面真值实体可用时,检索系统需要在检索信息量和答案覆盖率之间保持平衡。因此,一些研究利用答案覆盖率与检索子图大小之比来评估检索系统的性能。另外,一些研究探索了查询相关性、多样性和忠实度评分等指标,分别评估检索内容与查询的相似性、检索内容的多样性以及检索信息的忠实度。

7. 未来展望

尽管GraphRAG技术已取得长足进步,但它仍面临着需要全面探索的挑战。本节将探讨该领域的普遍障碍,并概述GraphRAG未来研究的可能方向。

7.1. 动态自适应图

大多数GraphRAG方法都建立在静态数据库之上;然而,随着时间推移,新的实体和关系无疑会不断出现。快速更新这些变化是既有前景又具有挑战性的。纳入最新信息对于实现更好的结果并应对需要当前数据的新兴趋势至关重要。开发高效的动态更新和实时集成新数据的方法将极大提高GraphRAG系统的效率和相关性。

7.2. 多模态信息融合

大多数知识图主要包含文本信息,缺乏图像、音频和视频等其他模态的融入,而这些模态有潜力显著提升数据库的整体质量和丰富度。纳入这些多样化模态可以为存储的知识提供更全面、细致入微的理解。然而,整合此类多模态数据却是一项艰巨挑战。随着信息量的增加,图的复杂性和规模会呈指数级增长,使其变得越来越难以管理和维护。这种规模的膨胀需要开发先进的方法和复杂的工具,以高效处理和无缝集成不同类型的数据到现有图结构中,确保知识图的精确性和可及性。

7.3. 可扩展的高效检索机制

在工业环境中,知识图可能包含数百万甚至数十亿个实体,规模浩大且错综复杂。然而,大多数当前方法都是为小规模知识图(通常只包含数千个实体)量身定制的。在大规模知识图中高效有效地检索相关实体仍然是一个实际且重大的挑战。开发先进的检索算法和可扩展的基础设施对于解决这一问题至关重要,以确保系统能够处理庞大的数据量,同时在实体检索方面保持高性能和精度。

7.4. 与图基础模型相结合

最近,能够有效解决广泛图任务的图基础模型取得了显著成功。将这些模型部署到当前GraphRAG中以增强其性能,是一个重要方向。图基础模型的输入数据本质上具有图结构,使它们能够比LLM模型更有效地处理此类数据。将这些先进模型集成到GraphRAG框架中,可极大提升系统处理和利用结构化图信息的能力,从而增强其整体性能和能力。

7.5. 更广泛的应用

目前,GraphRAG的应用主要集中在客户服务系统、推荐系统和KBQA等常见任务。将GraphRAG扩展到更广泛的应用领域(如医疗保健、金融服务、法律合规、智能城市和物联网等)涉及整合更复杂的技术。例如,在医疗保健领域,GraphRAG可以通过整合医学文献、病历和实时健康数据,支持医疗诊断、病历分析和个性化治疗方案。在金融服务领域,GraphRAG可用于欺诈检测、风险评估和个性化财务建议,方法是分析交易数据、市场趋势和客户资料。在法律合规领域,通过整合法律文件、判例法和监管更新,GraphRAG可以支持全面的法律研究、合同分析和合规性监控。将GraphRAG扩展到这些多样且复杂的领域将提高其实用性和影响力,为各个行业提供更复杂、更精准的解决方案。

7.6. 结论与展望

本文综述了图检索增强生成(GraphRAG)技术的研究进展,探讨了其在增强大语言模型(LLMs)性能方面的应用。GraphRAG通过整合外部知识库中的结构化信息,解决了传统检索增强生成(RAG)在处理复杂关系、冗余信息和全局信息不足等问题上的局限性。GraphRAG的核心在于利用图数据库中的节点、边、路径或子图等结构化信息,增强LLM的上下文理解能力,从而生成更准确、更相关的响应。

尽管GraphRAG技术已经取得了显著进展,但仍面临一些挑战和未来研究方向:

(1) 动态自适应图:当前的GraphRAG方法大多基于静态图数据库,而现实世界中的知识是动态变化的。未来的研究需要开发高效的动态更新机制,实时集成新数据,以保持系统的时效性和相关性。

(2) 多模态信息融合:现有的知识图谱主要包含文本信息,缺乏图像、音频和视频等多模态数据的融合。未来的研究可以探索如何将多模态数据整合到图结构中,以提供更全面、细致的知识表示。

(3) 可扩展的高效检索机制:随着知识图谱规模的增大,如何在大规模图数据中高效检索相关信息成为一个重要挑战。未来的研究需要开发更先进的检索算法和可扩展的基础设施,以应对大规模图数据的处理需求。

(4) 与图基础模型相结合:图基础模型在处理图数据方面表现出色,未来的研究可以探索如何将这些模型与GraphRAG框架结合,进一步提升系统的性能和能力。

(5) 更广泛的应用:目前GraphRAG的应用主要集中在客户服务、推荐系统和KBQA等领域。未来的研究可以将其扩展到医疗保健、金融服务、法律合规、智能城市和物联网等更复杂的领域,提供更精准的解决方案。

总之,GraphRAG作为一种新兴的技术框架,具有广阔的应用前景和研究潜力。随着技术的不断进步,GraphRAG有望在更多领域发挥重要作用,推动人工智能技术的进一步发展。

References OpenAI (2024) GPT-4 Technical Report. >https://arxiv.org/abs/2303.08774 Yang, A., Yang, B.S., et al. (2024) Qwen2 Technical Report. >https://arxiv.org/abs/2407.10671 Dubey, A., Jauhri, A., et al. (2024) The Llama 3 Herd of Models. >https://arxiv.org/abs/2407.21783 Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A.N., et al. (2017) Attention Is All You Need. Advances in Neural Information Processing Systems 30: Annual Conference on Neural Information Processing Systems 2017, Long Beach, 4-9 December 2017, 5998-6008. Huang, L., Yu, W.J., Ma, W.T., Zhong, W.H., Feng, Z.Y., Wang, H.T., et al. (2023) A Survey on Hallucination in Large Language Models: Principles, Taxonomy, Challenges, and Open Questions. >https://arxiv.org/abs/2311.05232 Fan, W., Ding, Y., Ning, L., Wang, S., Li, H., Yin, D., et al. (2024) A Survey on RAG Meeting LLMs: Towards Retrieval-Augmented Large Language Models. Proceedings of the 30th ACM SIGKDD Conference on Knowledge Discovery and Data Mining, Barcelona, 25-29 August 2024, 6491-6501. >https://doi.org/10.1145/3637528.3671470 Gao, Y.F., Xiong, Y., Gao, X.Y., Jia, K.X., Pan, J.L., Bi, Y.X., et al. (2024) Retrieval-Augmented Generation for Large Language Models: A Survey. >https://arxiv.org/abs/2312.10997 Hu, Y.C. and Lu, Y.X. (2024) RAG and RAU: A Survey on Retrieval-Augmented Language Model in Natural Language Processing. >https://arxiv.org/abs/2404.19543 Huang, Y.Z. and Huang, J. (2024) A Survey on Retrieval-Augmented Text Generation for Large Language Models. >https://arxiv.org/abs/2404.10981 Wu, S.Y., Xiong, Y., Cui, Y.F., Wu, H.L., Chen, C., Yuan, Y., et al. (2024) Retrieval-Augmented Generation for Natural Language Processing: A Survey. >https://arxiv.org/abs/2407.13193 Yu, H., Gan, A.R., Zhang, K., Tong, S.W., Liu, Q. and Liu, Z.F. (2024) Evaluation of Retrieval-Augmented Generation: A Survey. >https://arxiv.org/abs/2405.07437 Zhao, P.H., Zhang, H.L., Yu, Q.H., Wang, Z.R., Geng, Y.T., Fu, F.C., et al. (2024) Retrieval-Augmented Generation for AI-Generated Content: A Survey. >https://arxiv.org/abs/2402.19473 Liu, N.F., Lin, K., Hewitt, J., Paranjape, A., Bevilacqua, M., Petroni, F., et al. (2024) Lost in the Middle: How Language Models Use Long Contexts. Transactions of the Association for Computational Linguistics, 12, 157-173. >https://doi.org/10.1162/tacl_a_00638 Edge, D., Trinh, H., Cheng, N., et al. (2024) From Local to Global: A Graph RAG Approach to Query-Focused Summarization. >https://arxiv.org/abs/2404.16130 Hu, Y.T., Lei, Z.H., Zhang, Z., Pan, B., Ling, C. and Zhao, L. (2024) GRAG: Graph Retrieval-Augmented Generation. >https://arxiv.org/abs/2405.16506 Mavromatis, C. and Karypis, G. (2024) GNN-RAG: Graph Neural Retrieval for Large Language Model Reasoning. >https://arxiv.org/abs/2405.20139 Guo, J.Y., Du, L., Liu, H.Y., Zhou, M.Y., He, X.Y. and Han, S. (2023) GPT4Graph: Can Large Language Models Understand Graph Structured Data? An Empirical Evaluation and Benchmarking. >https://arxiv.org/abs/2305.15066 Wang, H., Feng, S.B., He, T.X., Tan, Z.X., Han, X.C. and Tsvetkov, Y. (2023) Can Language Models Solve Graph Problems in Natural Language? Advances in Neural Information Processing Systems 36: Annual Conference on Neural Information Processing Systems 2023, NeurIPS 2023, New Orleans, 10-16 December 2023, 30840-30861. Chen, H.J. (2024) Large Knowledge Model: Perspectives and Challenges. >https://arxiv.org/abs/2312.02706 Fan, W.Q., Wang, S.J., Huang, J.N., Chen, Z.K., Song, Y., Tang, W.Z., et al. (2024) Graph Machine Learning in the Era of Large Language Models (LLMs). >https://arxiv.org/abs/2404.14928 Jin, B.W., Liu, G., Han, C., Jiang, M., Ji, H. and Han, J.W. (2024) Large Language Models on Graphs: A Comprehensive Survey. >https://arxiv.org/abs/2312.02783 Li, Y.H., Li, Z.X., Wang, P.S., Li, J., Sun, X.G., Cheng, H. and Yu, J.X. (2024) A Survey of Graph Meets Large Language Model: Progress and Future Directions. >https://arxiv.org/abs/2311.12399 Liu, J.W., Yang, C., Lu, Z.Y., Chen, J.Z., Li, Y.B., Zhang, M.M., et al. (2024) Towards Graph Foundation Models: A Survey and Beyond. >https://arxiv.org/abs/2310.11829 Fu, B., Qiu, Y.Q., Tang, C.G., Li, Y., Yu, H.Y. and Sun, J. (2020) A Survey on Complex Question Answering over Knowledge Base: Recent Advances and Challenges. >https://arxiv.org/abs/2007.13069 Lan, Y., He, G., Jiang, J., Jiang, J., Zhao, W.X. and Wen, J. (2021) A Survey on Complex Knowledge Base Question Answering: Methods, Challenges and Solutions. Proceedings of the 30th International Joint Conference on Artificial Intelligence, Montreal, 19-27 August 2021, 4483-4491. >https://doi.org/10.24963/ijcai.2021/611 Lan, Y., He, G., Jiang, J., Jiang, J., Zhao, W.X. and Wen, J. (2023) Complex Knowledge Base Question Answering: A Survey. IEEE Transactions on Knowledge and Data Engineering, 35, 11196-11215. >https://doi.org/10.1109/tkde.2022.3223858 Kipf, T.N. and Welling, M. (2017) Semi-Supervised Classification with Graph Convolutional Networks. 5th International Conference on Learning Representations, ICLR 2017, Toulon, 24-26 April 2017. >https://openreview.net/forum?id=SJU4ayYgl Veličković, P., Cucurull, G., Casanova, A., Romero, A., Liò, P. and Bengio, Y. (2018) Graph Attention Networks. >https://arxiv.org/abs/1710.10903 Hamilton, W.L., Ying, Z.T. and Leskovec, J. (2017) Inductive Representation Learning on Large Graphs. Advances in Neural Information Processing Systems 30: Annual Conference on Neural Information Processing Systems 2017, Long Beach, 4-9 December 2017, 1024-1034. Devlin, J., Chang, M.-W., Lee, K. and Toutanova, K. (2019) BERT: Pre-Training of Deep Bidirectional Transformers for Language Understanding. Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1, 4171-4186. Liu, Y.H., Ott, M., Goyal, N., et al. (2019) RoBERTa: A Robustly Optimized BERT Pretraining Approach. >https://arxiv.org/abs/1907.11692 Reimers, N. and Gurevych, I. (2019) Sentence-Bert: Sentence Embeddings Using Siamese BERT-Networks. Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), Hong Kong, 3-7 November 2019, 3980-3990. >https://doi.org/10.18653/v1/d19-1410 Brown, T., Mann, B., Ryder, N., Subbiah, M., Kaplan, J.D., Dhariwal, P., et al. (2020) Language Models Are Few-Shot Learners. 34th Conference on Neural Information Processing Systems (NeurIPS 2020), 6-12 December 2020, 1877-1901. Ouyang, L., Wu, J., Jiang, X., Almeida, D., Wainwright, C., Mishkin, P., et al. (2022) Training Language Models to Follow Instructions with Human Feedback. 36th Conference on Neural Information Processing Systems (NeurIPS 2022), New Orleans, 28 November-9 December 2022, 27730-27744. Auer, S., Bizer, C., Kobilarov, G., Lehmann, J., Cyganiak, R. and Ives, Z. (2007) DBpedia: A Nucleus for a Web of Open Data. 6th International Semantic Web Conference, 2nd Asian Semantic Web Conference, ISWC 2007 + ASWC 2007, Busan, 11-15 November 2007, 722-735. >https://doi.org/10.1007/978-3-540-76298-0_52 Bollacker, K., Evans, C., Paritosh, P., Sturge, T. and Taylor, J. (2008) Freebase: A Collaboratively Created Graph Database for Structuring Human Knowledge. Proceedings of the 2008 ACM SIGMOD International Conference on Management of Data, Vancouver, 9-12 June 2008, 1247-1250. >https://doi.org/10.1145/1376616.1376746 Liu, H. and Singh, P. (2004) ConceptNet—A Practical Commonsense Reasoning Tool-Kit. BT Technology Journal, 22, 211-226. >https://doi.org/10.1023/b:bttj.0000047600.45421.6d Sap, M., Le Bras, R., Allaway, E., Bhagavatula, C., Lourie, N., Rashkin, H., et al. (2019) ATOMIC: An Atlas of Machine Commonsense for If-Then Reasoning. Proceedings of the AAAI Conference on Artificial Intelligence, 33, 3027-3035. >https://doi.org/10.1609/aaai.v33i01.33013027 Suchanek, F.M., Kasneci, G. and Weikum, G. (2007) Yago: A Core of Semantic Knowledge. Proceedings of the 16th International Conference on World Wide Web, Banff, 8-12 May 2007, 697-706. >https://doi.org/10.1145/1242572.1242667 Vrandečić, D. and Krötzsch, M. (2014) Wikidata: A Free Collaborative Knowledgebase. Communications of the ACM, 57, 78-85. >https://doi.org/10.1145/2629489 Morris, C., Kriege, N.M., Bause, F., Kersting, K., Mutzel, P. and Neumann, M. (2020) TU Dataset: A Collection of Benchmark Datasets for Learning with Graphs. ICML 2020 Workshop on Graph Representation Learning and Beyond (GRL+ 2020), Seattle, July 2022, 1455-1468. Gutiérrez, B.J., Shu, Y.H., Gu, Y., Yasunaga, M. and Su, Y. (2024) HippoRAG: Neurobiologically Inspired Long-Term Memory for Large Language Models. >https://arxiv.org/abs/2405.14831 Li, D.W., Yang, S., Tan, Z., et al. (2024) DALK: Dynamic Co-Augmentation of LLMs and KG to Answer Alzheimer’s Disease Questions with Scientific Literature. >https://arxiv.org/abs/2405.04819 Wang, Y., Lipka, N., Rossi, R.A., Siu, A., Zhang, R. and Derr, T. (2024) Knowledge Graph Prompting for Multi-Document Question Answering. Proceedings of the AAAI Conference on Artificial Intelligence, 38, 19206-19214. >https://doi.org/10.1609/aaai.v38i17.29889 Xu, Z., Cruz, M.J., Guevara, M., Wang, T., Deshpande, M., Wang, X., et al. (2024) Retrieval-Augmented Generation with Knowledge Graphs for Customer Service Question Answering. Proceedings of the 47th International ACM SIGIR Conference on Research and Development in Information Retrieval, Washington DC, 14-18 July 2024, 2905-2909. >https://doi.org/10.1145/3626772.3661370 Wang, R., Li, Z., Zhang, D., Yin, Q., Zhao, T., Yin, B., et al. (2022) RETE: Retrieval-Enhanced Temporal Event Forecasting on Unified Query Product Evolutionary Graph. Proceedings of the ACM Web Conference 2022, Lyon, 25-29 April 2022, 462-472. >https://doi.org/10.1145/3485447.3511974 Jiang, X.K., Zhang, R.Z., Xu, Y.X., Qiu, R.H., Fang, Y., Wang, Z.Y., et al. (2024) HyKGE: A Hypothesis Knowledge Graph Enhanced Framework for Accurate and Reliable Medical LLMs Responses. >https://arxiv.org/abs/2312.15883 Wen, Y., Wang, Z. and Sun, J. (2024) Mindmap: Knowledge Graph Prompting Sparks Graph of Thoughts in Large Language Models. Proceedings of the 62nd Annual Meeting of the Association for Computational Linguistics, Volume 1, 10370-10388. >https://doi.org/10.18653/v1/2024.acl-long.558 Yang, R., Liu, H., Marrese-Taylor, E., Zeng, Q., Ke, Y., Li, W., et al. (2024) KG-Rank: Enhancing Large Language Models for Medical QA with Knowledge Graphs and Ranking Techniques. Proceedings of the 23rd Workshop on Biomedical Natural Language Processing, Bangkok, August 2024, 155-166. >https://doi.org/10.18653/v1/2024.bionlp-1.13 Delile, J., Mukherjee, S., Van Pamel, A. and Zhukov, L. (2024) Graph-Based Retriever Captures the Long Tail of Biomedical Knowledge. >https://arxiv.org/abs/2402.12352 Ranade, P. and Joshi, A. (2023) FABULA: Intelligence Report Generation Using Retrieval-Augmented Narrative Construction. Proceedings of the International Conference on Advances in Social Networks Analysis and Mining, Kusadasi, 6-9 November 2023, 603-610. >https://doi.org/10.1145/3625007.3627505 Peng, Z. and Yang, Y. (2024) Connecting the Dots: Inferring Patent Phrase Similarity with Retrieved Phrase Graphs. Findings of the Association for Computational Linguistics: NAACL 2024, Mexico City, June 2024, 1877-1890. >https://doi.org/10.18653/v1/2024.findings-naacl.121 Wu, T., Bai, X., Guo, W., Liu, W., Li, S. and Yang, Y. (2023) Modeling Fine-Grained Information via Knowledge-Aware Hierarchical Graph for Zero-Shot Entity Retrieval. Proceedings of the Sixteenth ACM International Conference on Web Search and Data Mining, Singapore, 27 February-3 March 2023, 1021-1029. >https://doi.org/10.1145/3539597.3570415 Li, Y.H., Zhang, R. and Liu, J.Y. (2024) An Enhanced Prompt-Based LLM Reasoning Scheme via Knowledge Graph-Integrated Collaboration. >https://arxiv.org/abs/2402.04978 Sun, J.S., Xu, C.J., Tang, L., et al. (2024) Think-on-Graph: Deep and Responsible Reasoning of Large Language Model on Knowledge Graph. >https://arxiv.org/abs/2307.07697 Sun, L., Tao, Z., Li, Y. and Arakawa, H. (2024) ODA: Observation-Driven Agent for Integrating LLMs and Knowledge Graphs. Findings of the Association for Computational Linguistics ACL 2024, Bangkok, August 2024, 7417-7431. >https://doi.org/10.18653/v1/2024.findings-acl.442 Qi, Z.X., Yu, Y.J., Tu, M.Q., et al. (2023) FoodGPT: A Large Language Model in Food Testing Domain with Incremental Pre-Training and Knowledge Graph Prompt. >https://arxiv.org/abs/2308.10173 Choudhary, N. and Reddy, C.K. (2024) Complex Logical Reasoning over Knowledge Graphs Using Large Language Models. >https://arxiv.org/abs/2305.01157 Pahuja, V., Wang, B., Latapie, H., Srinivasa, J. and Su, Y. (2023) A Retrieve-and-Read Framework for Knowledge Graph Link Prediction. Proceedings of the 32nd ACM International Conference on Information and Knowledge Management, Birmingham, 21-25 October 2023, 1992-2002. >https://doi.org/10.1145/3583780.3614769 Baek, J., Aji, A.F., Lehmann, J. and Hwang, S.J. (2023) Direct Fact Retrieval from Knowledge Graphs without Entity Linking. Proceedings of the 61st Annual Meeting of the Association for Computational Linguistics, Volume 1, 10038-10055. >https://doi.org/10.18653/v1/2023.acl-long.558 He, X.X., Tian, Y.J., Sun, Y.F., et al. (2024) G-Retriever: Retrieval-Augmented Generation for Textual Graph Understanding and Question Answering. >https://arxiv.org/abs/2402.07630 Jin, B., Xie, C., Zhang, J., Roy, K.K., Zhang, Y., Li, Z., et al. (2024) Graph Chain-of-Thought: Augmenting Large Language Models by Reasoning on Graphs. Findings of the Association for Computational Linguistics ACL 2024, Bangkok, August 2024, 163-184. >https://doi.org/10.18653/v1/2024.findings-acl.11 Yang, X., Sun, K., Xin, H., Sun, Y.S., Bhalla, N., Chen, X.S., et al. (2024) CRAG-Comprehensive RAG Benchmark. >https://arxiv.org/abs/2406.04744
Baidu
map