登录
首页 >  文章 >  python教程

LangchainChromaDB去重方法解析

时间:2025-08-27 09:27:43 155浏览 收藏

哈喽!今天心血来潮给大家带来了《Langchain ChromaDB去重技巧分享》,想必大家应该对文章都不陌生吧,那么阅读本文就都不会很困难,以下内容主要涉及到,若是你正在学习文章,千万别错过这篇文章~希望能帮助到你!

解决 Langchain/ChromaDB 返回重复文档的问题

本文旨在解决在使用 Langchain 和 ChromaDB 构建向量存储时,检索结果出现大量重复文档的问题。通过分析代码和问题原因,本文提供两种解决方案:一是避免重复插入文档到数据库,二是使用 EmbeddingsRedundantFilter 过滤掉冗余的文档,从而确保检索结果的多样性和准确性。

在使用 Langchain 和 ChromaDB 构建向量数据库时,可能会遇到一个常见的问题:检索结果返回大量重复的文档。这通常是由于每次运行代码时,都将相同的文档重复插入到 ChromaDB 数据库中造成的。为了解决这个问题,可以采取以下两种方法。

避免重复插入文档

最直接的解决方案是避免每次运行代码时都重新创建向量数据库。ChromaDB 会将文档存储在磁盘上,因此每次执行 Chroma.from_documents 都会创建一个新的数据库,并将相同的文档再次插入。

以下是一些避免重复插入文档的方法:

  1. 只在首次运行时创建数据库: 可以添加一个条件判断,例如检查数据库文件是否存在,如果不存在则创建数据库并插入文档,否则直接加载已存在的数据库。

    import os
    from langchain.vectorstores import Chroma
    from langchain.embeddings import OpenAIEmbeddings
    
    persist_directory = 'db' # 指定数据库存储目录
    
    if not os.path.exists(persist_directory):
        # 加载文档、分割文本等步骤...
        # ...
        vectorstore = Chroma.from_documents(documents=all_splits, embedding=OpenAIEmbeddings(), persist_directory=persist_directory)
        vectorstore.persist() # 持久化存储
    else:
        vectorstore = Chroma(persist_directory=persist_directory, embedding_function=OpenAIEmbeddings())

    上述代码首先检查 db 目录是否存在。如果不存在,则执行文档加载、分割和向量化,并将结果存储在 db 目录中。如果 db 目录已经存在,则直接从该目录加载已存在的向量数据库。

  2. 注释掉插入数据库的代码: 如果你确定只需要插入一次数据,可以将 Chroma.from_documents 这行代码注释掉,只在首次运行时执行。

    # vectorstore = Chroma.from_documents(documents=all_splits, embedding=OpenAIEmbeddings()) # 注释掉这行代码

    这种方法简单直接,但需要手动控制数据库的创建和更新。

使用 EmbeddingsRedundantFilter 过滤冗余文档

如果无法避免重复插入文档,或者需要处理数据库中已经存在的重复文档,可以使用 Langchain 提供的 EmbeddingsRedundantFilter 来过滤掉冗余的文档。

EmbeddingsRedundantFilter 通过比较文档的嵌入向量来判断文档是否冗余。它需要先计算所有文档的嵌入向量,然后根据相似度阈值来过滤掉相似度过高的文档。

以下是使用 EmbeddingsRedundantFilter 的示例代码:

from langchain.document_transformers import EmbeddingsRedundantFilter
from langchain.embeddings import OpenAIEmbeddings
from langchain.chains import RetrievalQA
from langchain.llms import OpenAI
from langchain.vectorstores import Chroma

# 加载向量数据库
persist_directory = 'db'
vectorstore = Chroma(persist_directory=persist_directory, embedding_function=OpenAIEmbeddings())

# 创建 EmbeddingsRedundantFilter
embeddings = OpenAIEmbeddings()
redundant_filter = EmbeddingsRedundantFilter(embeddings=embeddings)

# 创建检索器
retriever = vectorstore.as_retriever(search_type="similarity", search_kwargs={"k": 6})

# 使用 EmbeddingsRedundantFilter 过滤文档
docs = retriever.get_relevant_documents("What is X?")
filtered_docs = redundant_filter.transform_documents(docs)

# 使用过滤后的文档进行问答
qa_chain = RetrievalQA.from_chain_type(
    llm=OpenAI(),
    chain_type="stuff",
    retriever=vectorstore.as_retriever(),
    return_source_documents=True
)

result = qa_chain({"query": "What is X?"})

print(result["result"])
print(result["source_documents"])

注意事项:

  • EmbeddingsRedundantFilter 需要计算所有文档的嵌入向量,因此对于大型数据库来说,可能会比较耗时。
  • 可以调整相似度阈值来控制过滤的严格程度。
  • 确保 OPENAI_API_KEY 环境变量已正确设置。

总结:

通过避免重复插入文档或使用 EmbeddingsRedundantFilter 过滤冗余文档,可以有效解决 Langchain/ChromaDB 返回重复文档的问题,从而提高检索结果的质量和效率。选择哪种方法取决于具体的应用场景和需求。如果可以控制数据库的创建和更新,建议避免重复插入文档。如果无法避免重复插入,或者需要处理已经存在的重复文档,可以使用 EmbeddingsRedundantFilter。

以上就是本文的全部内容了,是否有顺利帮助你解决问题?若是能给你带来学习上的帮助,请大家多多支持golang学习网!更多关于文章的相关知识,也可关注golang学习网公众号。

相关阅读
更多>
最新阅读
更多>
课程推荐
更多>