此版本仍在开发中,尚未被视为稳定版本。最新的快照版本请使用 Spring AI 1.0.0! |
评估测试
测试 AI 应用程序需要评估生成的内容,以确保 AI 模型没有产生幻觉响应。
评估响应的一种方法是使用 AI 模型本身进行评估。选择最佳 AI 模型进行评估,该模型可能与用于生成响应的模型不同。
用于评估响应的 Spring AI 接口是Evaluator
,定义为:
@FunctionalInterface
public interface Evaluator {
EvaluationResponse evaluate(EvaluationRequest evaluationRequest);
}
评估的输入是EvaluationRequest
定义为
public class EvaluationRequest {
private final String userText;
private final List<Content> dataList;
private final String responseContent;
public EvaluationRequest(String userText, List<Content> dataList, String responseContent) {
this.userText = userText;
this.dataList = dataList;
this.responseContent = responseContent;
}
...
}
-
userText
:用户的原始输入(作为String
-
dataList
:附加到原始输入的上下文数据,例如来自 Retrieval Augmented Generation 的数据。 -
responseContent
:AI 模型的响应内容为String
相关性评估器
这RelevancyEvaluator
是Evaluator
界面,旨在评估 AI 生成的响应与提供的上下文的相关性。此评估器通过确定 AI 模型的响应是否与用户对检索到的上下文的输入相关,帮助评估 RAG 流的质量。
评估基于用户输入、AI 模型的响应和上下文信息。它使用提示模板询问 AI 模型响应是否与用户输入和上下文相关。
这是RelevancyEvaluator
:
Your task is to evaluate if the response for the query
is in line with the context information provided.
You have two options to answer. Either YES or NO.
Answer YES, if the response for the query
is in line with context information otherwise NO.
Query:
{query}
Response:
{response}
Context:
{context}
Answer:
您可以通过提供自己的提示模板来自定义PromptTemplate 对象通过.promptTemplate() builder 方法。有关详细信息,请参阅自定义模板。 |
集成测试中的使用
以下是RelevancyEvaluator
在集成测试中,使用RetrievalAugmentationAdvisor
:
@Test
void evaluateRelevancy() {
String question = "Where does the adventure of Anacletus and Birba take place?";
RetrievalAugmentationAdvisor ragAdvisor = RetrievalAugmentationAdvisor.builder()
.documentRetriever(VectorStoreDocumentRetriever.builder()
.vectorStore(pgVectorStore)
.build())
.build();
ChatResponse chatResponse = ChatClient.builder(chatModel).build()
.prompt(question)
.advisors(ragAdvisor)
.call()
.chatResponse();
EvaluationRequest evaluationRequest = new EvaluationRequest(
// The original user question
question,
// The retrieved context from the RAG flow
chatResponse.getMetadata().get(RetrievalAugmentationAdvisor.DOCUMENT_CONTEXT),
// The AI model's response
chatResponse.getResult().getOutput().getText()
);
RelevancyEvaluator evaluator = new RelevancyEvaluator(ChatClient.builder(chatModel));
EvaluationResponse evaluationResponse = evaluator.evaluate(evaluationRequest);
assertThat(evaluationResponse.isPass()).isTrue();
}
您可以在 Spring AI 项目中找到几个使用RelevancyEvaluator
要测试QuestionAnswerAdvisor
(见测试)和RetrievalAugmentationAdvisor
(见测试)。
自定义模板
这RelevancyEvaluator
使用默认模板提示 AI 模型进行评估。您可以通过提供自己的PromptTemplate
对象通过.promptTemplate()
builder 方法。
自定义PromptTemplate
可以使用任何TemplateRenderer
实现(默认情况下,它使用StPromptTemplate
基于 StringTemplate 引擎)。重要的要求是模板必须包含以下占位符:
-
一个
query
placeholder 接收用户问题。 -
一个
response
placeholder 接收 AI 模型的响应。 -
一个
context
placeholder 接收上下文信息。
事实核查评估员
FactCheckingEvaluator 是 Evaluator 接口的另一种实现,旨在根据提供的上下文评估 AI 生成的响应的事实准确性。此评估器通过验证给定的陈述(声明)是否在逻辑上得到提供的上下文(文档)的支持,帮助检测和减少 AI 输出中的幻觉。
“claim”和“document”将提交给 AI 模型进行评估。可以使用专门用于此目的的更小、更高效的 AI 模型,例如 Bespoke 的 Minicheck,与 GPT-4 等旗舰模型相比,它有助于降低执行这些检查的成本。Minicheck 也可通过 Ollama 使用。
用法
FactCheckingEvaluator 构造函数将 ChatClient.Builder 作为参数:
public FactCheckingEvaluator(ChatClient.Builder chatClientBuilder) {
this.chatClientBuilder = chatClientBuilder;
}
评估员使用以下提示模板进行事实核查:
Document: {document}
Claim: {claim}
哪里{document}
是上下文信息,而{claim}
是要评估的 AI 模型的响应。
示例
以下是如何将 FactCheckingEvaluator 与基于 Ollama 的 ChatModel(特别是 Bespoke-Minicheck 模型)一起使用的示例:
@Test
void testFactChecking() {
// Set up the Ollama API
OllamaApi ollamaApi = new OllamaApi("http://localhost:11434");
ChatModel chatModel = new OllamaChatModel(ollamaApi,
OllamaOptions.builder().model(BESPOKE_MINICHECK).numPredict(2).temperature(0.0d).build())
// Create the FactCheckingEvaluator
var factCheckingEvaluator = new FactCheckingEvaluator(ChatClient.builder(chatModel));
// Example context and claim
String context = "The Earth is the third planet from the Sun and the only astronomical object known to harbor life.";
String claim = "The Earth is the fourth planet from the Sun.";
// Create an EvaluationRequest
EvaluationRequest evaluationRequest = new EvaluationRequest(context, Collections.emptyList(), claim);
// Perform the evaluation
EvaluationResponse evaluationResponse = factCheckingEvaluator.evaluate(evaluationRequest);
assertFalse(evaluationResponse.isPass(), "The claim should not be supported by the context");
}