Skip to main content
LangChain v1 是一个专注的、可用于生产环境的智能体构建基础框架。 我们围绕三大核心改进对框架进行了精简: 要升级,
pip install -U langchain
有关更改的完整列表,请参阅 迁移指南

create_agent

create_agent 是 LangChain 1.0 中构建智能体的标准方式。它提供了比 langgraph.prebuilt.create_react_agent 更简单的接口,同时通过使用 中间件 提供了更大的自定义潜力。
from langchain.agents import create_agent


agent = create_agent(
    model="anthropic:claude-sonnet-4-5",
    tools=[search_web, analyze_data, send_email],
    system_prompt="You are a helpful research assistant."
)

result = agent.invoke({
    "messages": [
        {"role": "user", "content": "Research AI safety trends"}
    ]
})
在底层,create_agent 构建于基础的智能体循环之上 —— 调用模型,让其选择要执行的工具,然后在它不再调用工具时结束:
Core agent loop diagram
更多信息,请参阅 智能体

中间件

中间件是 create_agent 的标志性特性。它提供了一个高度可定制的入口点,提升了您可以构建的功能上限。 优秀的智能体需要 上下文工程:在正确的时间将正确的信息传递给模型。中间件通过可组合的抽象,帮助您控制动态提示、对话摘要、选择性工具访问、状态管理和防护栏。

预构建中间件

LangChain 为常见模式提供了一些 预构建中间件,包括:
from langchain.agents import create_agent
from langchain.agents.middleware import (
    PIIMiddleware,
    SummarizationMiddleware,
    HumanInTheLoopMiddleware
)


agent = create_agent(
    model="anthropic:claude-sonnet-4-5",
    tools=[read_email, send_email],
    middleware=[
        PIIMiddleware(patterns=["email", "phone", "ssn"]),
        SummarizationMiddleware(
            model="anthropic:claude-sonnet-4-5",
            max_tokens_before_summary=500
        ),
        HumanInTheLoopMiddleware(
            interrupt_on={
                "send_email": {
                    "allowed_decisions": ["approve", "edit", "reject"]
                }
            }
        ),
    ]
)

自定义中间件

您也可以构建自定义中间件以满足您的需求。中间件在智能体执行的每个步骤都暴露了钩子函数:
Middleware flow diagram
通过在 AgentMiddleware 类的子类上实现以下任意钩子来构建自定义中间件:
钩子何时运行用例
before_agent在调用智能体之前加载记忆,验证输入
before_model在每次 LLM 调用之前更新提示,修剪消息
wrap_model_call围绕每次 LLM 调用拦截和修改请求/响应
wrap_tool_call围绕每次工具调用拦截和修改工具执行
after_model在每次 LLM 响应之后验证输出,应用防护栏
after_agent在智能体完成之后保存结果,清理
自定义中间件示例:
from dataclasses import dataclass
from typing import Callable

from langchain_openai import ChatOpenAI

from langchain.agents.middleware import (
    AgentMiddleware,
    ModelRequest
)
from langchain.agents.middleware.types import ModelResponse

@dataclass
class Context:
    user_expertise: str = "beginner"

class ExpertiseBasedToolMiddleware(AgentMiddleware):
    def wrap_model_call(
        self,
        request: ModelRequest,
        handler: Callable[[ModelRequest], ModelResponse]
    ) -> ModelResponse:
        user_level = request.runtime.context.user_expertise

        if user_level == "expert":
            # More powerful model
            model = ChatOpenAI(model="openai:gpt-5")
            tools = [advanced_search, data_analysis]
        else:
            # Less powerful model
            model = ChatOpenAI(model="openai:gpt-5-nano")
            tools = [simple_search, basic_calculator]

        request.model = model
        request.tools = tools
        return handler(request)

agent = create_agent(
    model="anthropic:claude-sonnet-4-5",
    tools=[
        simple_search,
        advanced_search,
        basic_calculator,
        data_analysis
    ],
    middleware=[ExpertiseBasedToolMiddleware()],
    context_schema=Context
)
更多信息,请参阅 完整的中间件指南

基于 LangGraph 构建

因为 create_agent 构建于 LangGraph 之上,您自动获得了对长期运行和可靠智能体的内置支持,通过:

持久化

通过内置检查点,对话自动跨会话持久化

流式传输

实时流式传输 token、工具调用和推理轨迹

人在回路

在敏感操作之前暂停智能体执行以等待人工批准

时间旅行

将会话回退到任意时间点,并探索替代路径和提示
您无需学习 LangGraph 即可使用这些功能——它们开箱即用。

结构化输出

create_agent 改进了结构化输出生成:
  • 主循环集成:结构化输出现在在主循环中生成,而不是需要额外的 LLM 调用
  • 结构化输出策略:模型可以在调用工具和使用提供商端结构化输出生成之间选择
  • 成本降低:消除了额外 LLM 调用带来的额外开销
from langchain.agents import create_agent
from langchain.agents.structured_output import ToolStrategy
from pydantic import BaseModel


class Weather(BaseModel):
    temperature: float
    condition: str

def weather_tool(city: str) -> str:
    """Get the weather for a city."""
    return f"it's sunny and 70 degrees in {city}"

agent = create_agent(
    "openai:gpt-4o-mini",
    tools=[weather_tool],
    response_format=ToolStrategy(Weather)
)

result = agent.invoke({
    "messages": [{"role": "user", "content": "What's the weather in SF?"}]
})

print(repr(result["structured_response"]))
# results in `Weather(temperature=70.0, condition='sunny')`
错误处理:通过 ToolStrategyhandle_errors 参数控制错误处理:
  • 解析错误:模型生成的数据与所需结构不匹配
  • 多个工具调用:模型为结构化输出模式生成了 2 个或更多工具调用

标准内容块

内容块支持目前仅适用于以下集成:对内容块的更广泛支持将逐步推广到更多提供商。
新的 content_blocks 属性引入了一种适用于不同提供商的消息内容标准表示:
from langchain_anthropic import ChatAnthropic

model = ChatAnthropic(model="claude-sonnet-4-5")
response = model.invoke("What's the capital of France?")

# Unified access to content blocks
for block in response.content_blocks:
    if block["type"] == "reasoning":
        print(f"Model reasoning: {block['reasoning']}")
    elif block["type"] == "text":
        print(f"Response: {block['text']}")
    elif block["type"] == "tool_call":
        print(f"Tool call: {block['name']}({block['args']})")

优势

  • 提供商无关:使用相同的 API 访问推理轨迹、引用、内置工具(网络搜索、代码解释器等)以及其他功能,无论提供商是谁
  • 类型安全:所有内容块类型都有完整的类型提示
  • 向后兼容:标准内容可以 延迟加载,因此没有相关的破坏性更改
更多信息,请参阅我们关于 内容块 的指南。

简化的包

LangChain v1 精简了 langchain 包的命名空间,专注于智能体的核心构建模块。精炼后的命名空间暴露了最有用和最相关的功能:

命名空间

模块可用的内容备注
langchain.agentscreate_agent, AgentState核心智能体创建功能
langchain.messages消息类型, 内容块, trim_messages从 @[langchain-core] 重新导出
langchain.tools@tool, BaseTool, 注入助手从 @[langchain-core] 重新导出
langchain.chat_modelsinit_chat_model, BaseChatModel统一的模型初始化
langchain.embeddingsEmbeddings, init_embeddings嵌入模型
其中大部分是从 langchain-core 重新导出的,为了方便起见,这为您提供了构建智能体的专注 API 界面。
# Agent building
from langchain.agents import create_agent

# Messages and content
from langchain.messages import AIMessage, HumanMessage

# Tools
from langchain.tools import tool

# Model initialization
from langchain.chat_models import init_chat_model
from langchain.embeddings import init_embeddings

langchain-classic

旧版功能已移至 langchain-classic,以保持核心包的轻量和专注。 langchain-classic 包含的内容:
  • 旧版链和链实现
  • 检索器 (例如 MultiQueryRetriever 或之前 langchain.retrievers 模块中的任何内容)
  • 索引 API
  • Hub 模块 (用于以编程方式管理提示)
  • langchain-community 导出
  • 其他已弃用的功能
如果您使用任何这些功能,请安装 langchain-classic
pip install langchain-classic
然后更新您的导入:
from langchain import ...
from langchain_classic import ...

from langchain.chains import ...
from langchain_classic.chains import ...

from langchain.retrievers import ...
from langchain_classic.retrievers import ...

from langchain import hub  
from langchain_classic import hub  

迁移指南

请参阅我们的 迁移指南 以获取帮助,将您的代码更新到 LangChain v1。

报告问题

请在 GitHub 上报告发现的任何 1.0 版本的问题,并使用 'v1' 标签

额外资源

另请参阅


Connect these docs programmatically to Claude, VSCode, and more via MCP for real-time answers.