Skip to main content
Human-in-the-Loop(HITL)中间件允许您对智能体工具调用添加人工监督。 当模型提出可能需要审查的操作时——例如写入文件或执行 SQL——该中间件可以暂停执行并等待决策。 它通过根据可配置的策略检查每个工具调用来实现此功能。如果需要干预,中间件会发出一个 interrupt,停止执行。图状态使用 LangGraph 的 持久层 保存,因此执行可以安全地暂停并在之后恢复。 然后,人工决策决定接下来会发生什么:操作可以按原样批准(approve),在运行前修改(edit),或带有反馈地拒绝(reject)。

中断决策类型

该中间件定义了三种内置的人工响应中断的方式:
决策类型描述示例用例
approve操作按原样批准并执行,不作更改。按原样发送邮件草稿
✏️ edit工具调用经过修改后执行。在发送邮件前更改收件人
reject工具调用被拒绝,并在对话中添加解释。拒绝邮件草稿并解释如何重写
每个工具的可用决策类型取决于您在 interrupt_on 中配置的策略。 当多个工具调用同时暂停时,每个操作都需要单独的决策。 决策必须按照中断请求中操作出现的顺序提供。
编辑 工具参数时,请保守地进行更改。对原始参数的重大修改可能导致模型重新评估其方法,并可能多次执行该工具或采取意外操作。

配置中断

要使用 HITL,请在创建智能体时将该中间件添加到智能体的 middleware 列表中。 您需要配置一个工具操作到每个操作允许的决策类型的映射。当工具调用与映射中的操作匹配时,中间件将中断执行。
import { createAgent, humanInTheLoopMiddleware } from "langchain"; 
import { MemorySaver } from "@langchain/langgraph"; 

const agent = createAgent({
    model: "openai:gpt-4o",
    tools: [writeFileTool, executeSQLTool, readDataTool],
    middleware: [
        humanInTheLoopMiddleware({
            interruptOn: {
                write_file: true, // 允许所有决策(approve, edit, reject)
                execute_sql: {
                    allowedDecisions: ["approve", "reject"],
                    // 不允许编辑
                    description: "🚨 SQL execution requires DBA approval",
                },
                // 安全操作,无需批准
                read_data: false,
            },
            // 中断消息的前缀 - 与工具名称和参数组合形成完整消息
            // 例如:"Tool execution pending approval: execute_sql with query='DELETE FROM...'"
            // 单个工具可以通过在其中断配置中指定 "description" 来覆盖此设置
            descriptionPrefix: "Tool execution pending approval",
        }),
    ],
    // Human-in-the-loop 需要检查点来处理中断。
    // 在生产环境中,使用持久化检查点保存器,如 AsyncPostgresSaver。
    checkpointer: new MemorySaver(), 
});
您必须配置一个检查点保存器,以便在中断之间持久化图状态。 在生产环境中,使用持久化检查点保存器,如 @[AsyncPostgresSaver]。对于测试或原型设计,使用 @[InMemorySaver]。在调用智能体时,传递一个包含 线程 IDconfig,以将执行与对话线程关联。 详情请参阅 LangGraph 中断文档

响应中断

当您调用智能体时,它会一直运行直到完成或引发中断。当工具调用与您在 interrupt_on 中配置的策略匹配时,会触发中断。在这种情况下,调用结果将包含一个 __interrupt__ 字段,其中包含需要审查的操作。然后,您可以将这些操作呈现给审查者,并在提供决策后恢复执行。
import { HumanMessage } from "@langchain/core/messages";
import { Command } from "@langchain/langgraph";

// 您必须提供一个线程 ID 以将执行与对话线程关联,
// 这样对话就可以暂停和恢复(这是人工审查所需要的)。
const config = { configurable: { thread_id: "some_id" } }; 

// 运行图直到遇到中断。
const result = await agent.invoke(
    {
        messages: [new HumanMessage("Delete old records from the database")],
    },
    config
);


// 中断包含完整的 HITL 请求,包括 action_requests 和 review_configs
console.log(result.__interrupt__);
// > [
// >    Interrupt(
// >       value: {
// >          action_requests: [
// >             {
// >                name: 'execute_sql',
// >                arguments: { query: 'DELETE FROM records WHERE created_at < NOW() - INTERVAL \'30 days\';' },
// >                description: 'Tool execution pending approval\n\nTool: execute_sql\nArgs: {...}'
// >             }
// >          ],
// >          review_configs: [
// >             {
// >                action_name: 'execute_sql',
// >                allowed_decisions: ['approve', 'reject']
// >             }
// >          ]
// >       }
// >    )
// > ]

// 使用批准决策恢复执行
await agent.invoke(
    new Command({ 
        resume: { decisions: [{ type: "approve" }] }, // 或 "edit", "reject"
    }), 
    config // 相同的线程 ID 以恢复暂停的对话
);

决策类型

使用 approve 按原样批准工具调用并执行,不作更改。
await agent.invoke(
    new Command({
        // 决策以列表形式提供,每个待审查操作一个。
        // 决策的顺序必须与 `__interrupt__` 请求中列出的操作顺序匹配。
        resume: {
            decisions: [
                {
                    type: "approve",
                }
            ]
        }
    }),
    config  // 相同的线程 ID 以恢复暂停的对话
);

执行生命周期

该中间件定义了一个 after_model 钩子,该钩子在模型生成响应之后、任何工具调用执行之前运行:
  1. 智能体调用模型生成响应。
  2. 中间件检查响应中的工具调用。
  3. 如果有任何调用需要人工输入,中间件会构建一个包含 action_requestsreview_configsHITLRequest 并调用 interrupt
  4. 智能体等待人工决策。
  5. 根据 HITLResponse 决策,中间件执行批准或编辑的调用,为被拒绝的调用合成 @[ToolMessage],并恢复执行。

自定义 HITL 逻辑

对于更专业的工作流,您可以直接使用 interrupt 原语和 中间件 抽象构建自定义 HITL 逻辑。 请查看上面的 执行生命周期 以了解如何将中断集成到智能体的操作中。
Connect these docs programmatically to Claude, VSCode, and more via MCP for real-time answers.