建立有效的代理
在最近的研究出版物《构建有效的代理》中,Anthropic 分享了有关构建有效的大型语言模型 (LLM) 代理的宝贵见解。这项研究特别有趣的是它强调简单性和可组合性,而不是复杂的框架。让我们探讨一下如何使用 Spring AI 将这些原则转化为实际实现。

虽然模式描述和图表来自 Anthropic 的原始出版物,但我们将重点介绍如何使用 Spring AI 的模型可移植性和结构化输出功能来实现这些模式。我们建议先阅读原始论文。
spring-ai-examples 存储库中的 agentic-patterns 目录包含以下示例的所有代码。
代理系统
该研究出版物在架构上对两种类型的代理系统进行了重要的区分:
-
工作流程:通过预定义的代码路径(例如,规范性系统)编排 LLM 和工具的系统
-
代理:LLM 动态指导自己的流程和工具使用的系统
关键的见解是,虽然完全自主的代理可能看起来很有吸引力,但工作流程通常为明确定义的任务提供更好的可预测性和一致性。这完全符合可靠性和可维护性至关重要的企业要求。
让我们来看看 Spring AI 如何通过五种基本模式实现这些概念,每种模式都服务于特定的用例:
1. 链式工作流程
链式工作流模式体现了将复杂任务分解为更简单、更易于管理的步骤的原则。

何时使用:- 具有明确顺序步骤的任务 - 当您想用延迟换取更高的准确性时 - 当每个步骤都建立在前一步的输出之上时
以下是 Spring AI 实现的实际示例:
public class ChainWorkflow {
private final ChatClient chatClient;
private final String[] systemPrompts;
public String chain(String userInput) {
String response = userInput;
for (String prompt : systemPrompts) {
String input = String.format("{%s}\n {%s}", prompt, response);
response = chatClient.prompt(input).call().content();
}
return response;
}
}
此实现演示了几个关键原则:
-
每一步都有重点责任
-
一个步骤的输出成为下一个步骤的输入
-
该链条易于扩展和维护
2. 并行化工作流程
LLM 可以同时处理任务,并以编程方式聚合其输出。

何时使用:- 处理大量相似但独立的项目 - 需要多个独立视角的任务 - 当处理时间至关重要且任务可并行化时
List<String> parallelResponse = new ParallelizationWorkflow(chatClient)
.parallel(
"Analyze how market changes will impact this stakeholder group.",
List.of(
"Customers: ...",
"Employees: ...",
"Investors: ...",
"Suppliers: ..."
),
4
);
3. 路由工作流程
路由模式实现了智能任务分配,可以对不同类型的输入进行专门处理。

何时使用:- 具有不同类别输入的复杂任务 - 当不同的输入需要专门处理时 - 当分类能够准确处理时
@Autowired
private ChatClient chatClient;
RoutingWorkflow workflow = new RoutingWorkflow(chatClient);
Map<String, String> routes = Map.of(
"billing", "You are a billing specialist. Help resolve billing issues...",
"technical", "You are a technical support engineer. Help solve technical problems...",
"general", "You are a customer service representative. Help with general inquiries..."
);
String input = "My account was charged twice last week";
String response = workflow.route(input, routes);
4. 编排器-工作程序

何时使用:- 无法预先预测子任务的复杂任务 - 需要不同方法或观点的任务 - 需要适应性解决问题的情况
public class OrchestratorWorkersWorkflow {
public WorkerResponse process(String taskDescription) {
// 1. Orchestrator analyzes task and determines subtasks
OrchestratorResponse orchestratorResponse = // ...
// 2. Workers process subtasks in parallel
List<String> workerResponses = // ...
// 3. Results are combined into final response
return new WorkerResponse(/*...*/);
}
}
使用示例:
ChatClient chatClient = // ... initialize chat client
OrchestratorWorkersWorkflow workflow = new OrchestratorWorkersWorkflow(chatClient);
WorkerResponse response = workflow.process(
"Generate both technical and user-friendly documentation for a REST API endpoint"
);
System.out.println("Analysis: " + response.analysis());
System.out.println("Worker Outputs: " + response.workerResponses());
5. 评估器-优化器

何时使用:- 存在明确的评估标准 - 迭代细化提供可衡量的价值 - 任务受益于多轮批评
public class EvaluatorOptimizerWorkflow {
public RefinedResponse loop(String task) {
Generation generation = generate(task, context);
EvaluationResponse evaluation = evaluate(generation.response(), task);
return new RefinedResponse(finalSolution, chainOfThought);
}
}
使用示例:
ChatClient chatClient = // ... initialize chat client
EvaluatorOptimizerWorkflow workflow = new EvaluatorOptimizerWorkflow(chatClient);
RefinedResponse response = workflow.loop(
"Create a Java class implementing a thread-safe counter"
);
System.out.println("Final Solution: " + response.solution());
System.out.println("Evolution: " + response.chainOfThought());
Spring AI 的实施优势
Spring AI 对这些模式的实现提供了与 Anthropic 建议一致的几个好处:
模型可移植性
<dependency>
<groupId>org.springframework.ai</groupId>
<artifactId>spring-ai-openai-spring-boot-starter</artifactId>
</dependency>
结构化输出
EvaluationResponse response = chatClient.prompt(prompt)
.call()
.entity(EvaluationResponse.class);
一致的 API
-
不同 LLM 提供商之间的统一接口
-
内置错误处理和重试
-
灵活的提示管理
最佳实践和建议
-
从简单开始
-
在增加复杂性之前从基本工作流程开始
-
使用满足您要求的最简单模式
-
仅在需要时添加复杂性
-
可靠性设计
-
实现清晰的错误处理
-
尽可能使用类型安全响应
-
在每个步骤中内置验证
-
考虑权衡
-
平衡延迟与准确性
-
评估何时使用并行处理
-
在固定工作流和动态代理之间进行选择
今后的工作
这些指南将进行更新,以探索如何构建更高级的代理,将这些基本模式与复杂的功能相结合:
图案组合 - 组合多个图案以创建更强大的工作流程 - 构建利用每种模式优势的混合系统 - 创建能够适应不断变化的需求的灵活架构
高级代理内存管理 - 跨对话实现持久内存 - 有效管理上下文窗口 - 制定长期知识保留策略
工具和模型上下文协议 (MCP) 集成 - 通过标准化接口利用外部工具 - 实施 MCP 以增强模型交互 - 构建可扩展的代理架构
结论
Anthropic 的研究见解与 Spring AI 的实际实施相结合,为构建有效的基于 LLM 的系统提供了一个强大的框架。
通过遵循这些模式和原则,开发人员可以创建强大、可维护且有效的人工智能应用程序,提供真正的价值,同时避免不必要的复杂性。
关键是要记住,有时最简单的解决方案是最有效的。从基本模式开始,彻底了解您的用例,只有当它明显提高了系统的性能或功能时才增加复杂性。