来自清华大学人工智能研究所、加州大学圣巴巴拉分校、北京理工大学和西门子科技数据与人工智能集团的研究人员推出“SEAKR”,即自感知知识检索(Self-aware Knowledge Retrieval),这是一种为大语言模型(LLMs)设计的自适应检索增强生成(Adaptive Retrieval-Augmented Generation, RAG)策略。它的核心目的是减少大型语言模型在生成文本时出现的幻觉问题(hallucination),即模型生成看似正确但实际上错误的答案。
- GitHub:https://github.com/THU-KEG/SeaKR
例如,一个大语言模型被问到“迈克尔·乔丹是在哪个城市出生的?”这个问题超出了模型的内部知识范围,SEAKR就会激活,通过检索外部知识库来找到正确答案“马里兰州的巴尔的摩”,并将这个信息提供给模型,以生成准确的回答。这个过程减少了模型生成错误信息的风险。
主要功能:
- 自适应检索:SEAKR能够根据LLMs的内部状态动态判断是否需要外部知识来辅助生成文本,并据此调用检索。
- 自感知不确定性提取:SEAKR通过分析模型的内部状态来评估其对生成内容的不确定性,从而确定何时需要检索外部知识。
- 知识片段重排:检索到的知识片段会根据减少LLMs不确定性的程度进行重排,以选择最有用的知识。
- 自适应推理:SEAKR支持使用不同的推理策略来解决复杂问题,并选择生成不确定性最低的策略。
主要特点:
- 自感知机制:SEAKR利用LLMs的自我感知能力来优化检索和知识整合过程。
- 动态检索:与传统的RAG方法不同,SEAKR只在模型表现出高不确定性时才进行检索,提高了效率。
- 知识有效整合:SEAKR不仅决定何时检索,还关注如何将检索到的知识有效整合到生成过程中。
工作原理:
- 自感知检索:SEAKR首先评估LLMs在生成文本时的不确定性,如果超过设定的阈值,则触发知识检索。
- 查询生成:根据LLMs的伪生成内容和不确定性,生成搜索查询,以便检索最相关的知识片段。
- 自感知重排:检索到的知识片段会根据它们减少LLMs不确定性的程度进行排序,选择最相关的片段。
- 自适应推理:SEAKR根据检索到的知识,采用不同的推理策略生成最终答案,并选择最不确定的策略。
具体应用场景:
- 复杂问题解答:SEAKR能够处理需要多步骤推理的复杂问题,如多跳推理(multi-hop reasoning)。
- 简单问题解答:即使是简单的问题,SEAKR也能通过检索增强生成来提高答案的准确性和可靠性。
- 任何需要结合外部知识生成文本的场景:如教育、新闻摘要、技术文档生成等。
0条评论