登录
首页 >  文章 >  常见问题

LangChain入门:开发大模型应用全攻略

时间:2026-03-18 16:57:44 392浏览 收藏

LangChain 是一个专为大模型应用开发设计的模块化开源框架,它通过提示词管理、LCEL链式调用、RAG检索增强问答、对话记忆机制和Agent工具调用等标准化能力,帮助开发者高效解决提示词混乱、模型调用不统一、外部系统集成难等实际痛点;无论你是想快速搭建智能问答系统、构建多轮技术对话助手,还是让大模型实时调用时间、搜索或数据库等工具,LangChain 都能以声明式、可复用、易调试的方式为你提供坚实支撑——入门只需几行代码,进阶却覆盖企业级AI应用全链路。

LangChain是什么怎么用 LangChain开发大模型应用入门

如果您希望快速构建基于大语言模型的应用,但面临提示词管理混乱、模型调用不统一、外部工具集成困难等问题,则可能是由于缺乏标准化的开发框架支撑。以下是 LangChain 的核心定位与基础使用方式:

一、LangChain 是连接大模型与实际应用的模块化框架

LangChain 并非一个独立的大语言模型,而是为大模型应用开发提供结构化组件的开源框架。它通过解耦模型调用、提示词编排、数据接入、记忆管理与工具协同等环节,使开发者能以声明式方式组合能力,避免重复造轮子。

1、安装 LangChain 核心库:pip install langchain-core langchain-openai langchain-community

2、配置环境变量,设置 OpenAI API 密钥:export OPENAI_API_KEY="your_api_key_here"

3、验证基础组件可用性:导入 ChatOpenAI 类并实例化一个聊天模型对象。

二、使用 LCEL 语法构建首个链式调用

LCEL(LangChain Expression Language)是 LangChain 推荐的声明式编程范式,支持通过管道运算符(|)将提示词、模型、解析器等组件无缝串联,形成可复用、可测试、可追踪的执行单元。

1、定义提示词模板:from langchain_core.prompts import ChatPromptTemplate

2、创建模板实例:prompt = ChatPromptTemplate.from_template("请用中文解释 {concept} 的技术原理")

3、加载模型:model = ChatOpenAI(model="gpt-4o", temperature=0.3)

4、指定输出解析器:parser = StrOutputParser()

5、组合为链:chain = prompt | model | parser

6、执行调用:chain.invoke({"concept": "RAG"})

三、接入本地文档实现 RAG 基础问答

RAG(检索增强生成)是 LangChain 最典型的应用场景之一。该方法通过将用户问题与向量化后的文档片段匹配,再将匹配结果注入提示词,从而提升大模型回答的准确性与事实依据。

1、加载本地文本文件:from langchain_community.document_loaders import TextLoader

2、读取文档:loader = TextLoader("knowledge.txt")

3、执行文本切分:from langchain_text_splitters import RecursiveCharacterTextSplitter

4、初始化切分器:splitter = RecursiveCharacterTextSplitter(chunk_size=500, chunk_overlap=50)

5、生成文档块列表:docs = splitter.split_documents(loader.load())

6、构建向量数据库:from langchain_openai import OpenAIEmbeddings

7、嵌入并存储:from langchain_community.vectorstores import FAISS

8、创建向量库实例:vectorstore = FAISS.from_documents(docs, OpenAIEmbeddings())

9、配置检索器:retriever = vectorstore.as_retriever(search_kwargs={"k": 3})

10、构造 RAG 链:from langchain.chains import RetrievalQA

11、绑定模型与检索器:qa_chain = RetrievalQA.from_chain_type(llm=model, retriever=retriever, chain_type="stuff")

12、发起查询:qa_chain.invoke({"query": "LangChain 中 Memory 组件的作用是什么?"})

四、添加对话历史记忆实现多轮交互

默认情况下,大模型不具备上下文记忆能力。LangChain 提供了多种 Memory 组件,用于在链中自动维护和注入历史消息,从而支撑自然的多轮对话逻辑。

1、导入记忆模块:from langchain.memory import ConversationBufferMemory

2、初始化内存实例:memory = ConversationBufferMemory(memory_key="chat_history", return_messages=True)

3、将记忆注入提示词模板:prompt_with_memory = ChatPromptTemplate.from_messages([("system", "你是一个技术文档助手"), MessagesPlaceholder(variable_name="chat_history"), ("human", "{input}")])

4、组合带记忆的链:chain_with_memory = prompt_with_memory | model | parser

5、首次调用后,memory.save_context({"input": "什么是 LCEL?"}, {"output": "LCEL 是 LangChain 表达式语言..."})

6、后续调用时传入更新后的 chat_history:chain_with_memory.invoke({"input": "它和传统函数调用有什么区别?", "chat_history": memory.chat_memory.messages})

五、调用外部工具扩展模型能力

LangChain 的 Agent 模式允许模型根据用户请求动态选择并执行工具(如搜索、计算、数据库查询),突破纯文本生成的边界。工具需符合特定接口规范,并注册到 Agent 执行环境中。

1、定义一个简单工具函数:def get_current_time(): import datetime; return datetime.datetime.now().strftime("%Y-%m-%d %H:%M")

2、包装为 LangChain 工具:from langchain.tools import Tool

3、创建工具实例:time_tool = Tool(name="get_time", func=get_current_time, description="获取当前日期和时间")

4、导入 Agent 相关组件:from langchain.agents import initialize_agent, AgentType

5、初始化 Agent:agent = initialize_agent([time_tool], model, agent=AgentType.ZERO_SHOT_REACT_DESCRIPTION, verbose=True)

6、触发工具调用:agent.invoke({"input": "现在几点?"})

到这里,我们也就讲完了《LangChain入门:开发大模型应用全攻略》的内容了。个人认为,基础知识的学习和巩固,是为了更好的将其运用到项目中,欢迎关注golang学习网公众号,带你了解更多关于的知识点!

资料下载
相关阅读
更多>
最新阅读
更多>
课程推荐
更多>