如需最新的快照版本,请使用 Spring AI 1.1.3spring-doc.cadn.net.cn

OpenAI 文本转语音 (TTS)

< Introduction >

音频 API 提供了一个基于 OpenAI TTS(文本转语音)模型的语音端点,使用户能够:spring-doc.cadn.net.cn

前置条件

  1. 创建一个 OpenAI 账户并获取 API 密钥。您可以在 OpenAI 注册页面 进行注册,并在 API 密钥页面 生成 API 密钥。spring-doc.cadn.net.cn

  2. spring-ai-openai 依赖项添加到项目的构建文件中。更多信息,请参阅 依赖管理 部分。spring-doc.cadn.net.cn

Auto-configuration

Spring AI自动配置和starter模块的artifact名称有了重大变化。 请参阅升级说明获取更多信息。spring-doc.cadn.net.cn

Spring AI 为 OpenAI 文本转语音客户端提供 Spring Boot 自动配置。 要启用它,请将以下依赖项添加到项目的 Maven pom.xml 文件中:spring-doc.cadn.net.cn

<dependency>
    <groupId>org.springframework.ai</groupId>
    <artifactId>spring-ai-starter-model-openai</artifactId>
</dependency>

或添加到您的 Gradle build.gradle 构建文件中:spring-doc.cadn.net.cn

dependencies {
    implementation 'org.springframework.ai:spring-ai-starter-model-openai'
}
请参阅依赖管理部分,将Spring AI BOM添加到您的构建文件中。

语音属性

连接属性

使用前缀spring.ai.openai作为属性前缀,以便连接到OpenAI。spring-doc.cadn.net.cn

<property> </property>spring-doc.cadn.net.cn

<description> </description>spring-doc.cadn.net.cn

默认spring-doc.cadn.net.cn

spring.ai.openai.base-urlspring-doc.cadn.net.cn

连接的URLspring-doc.cadn.net.cn

api.openai.comspring-doc.cadn.net.cn

spring.ai.openai.api-keyspring-doc.cadn.net.cn

API密钥spring-doc.cadn.net.cn

-spring-doc.cadn.net.cn

spring.ai.openai.organization-idspring-doc.cadn.net.cn

您可以选择指定用于 API 请求的组织。spring-doc.cadn.net.cn

-spring-doc.cadn.net.cn

spring.ai.openai.project-idspring-doc.cadn.net.cn

(可选)您可以指定用于 API 请求的项目。spring-doc.cadn.net.cn

-spring-doc.cadn.net.cn

对于属于多个组织(或通过其旧版用户 API 密钥访问其项目)的用户,您可以选择指定用于 API 请求的组织和项目。 这些 API 请求的使用量将计入指定的组织和项目。

配置属性

启用和禁用音频语音自动配置现在通过前缀为 spring.ai.model.audio.speech 的顶层属性进行配置。spring-doc.cadn.net.cn

要启用,请设置 spring.ai.model.audio.speech=openai(默认已启用)spring-doc.cadn.net.cn

要禁用,请设置 spring.ai.model.audio.speech=none(或任何不与 openai 匹配的值)spring-doc.cadn.net.cn

此更改是为了允许配置多个模型。spring-doc.cadn.net.cn

前缀 spring.ai.openai.audio.speech 用作属性前缀,让您能够配置 OpenAI 文本转语音客户端。spring-doc.cadn.net.cn

<property> </property> <description> </description> 默认

spring.ai.model.audio.speechspring-doc.cadn.net.cn

启用音频语音模型spring-doc.cadn.net.cn

OpenAIspring-doc.cadn.net.cn

spring.ai.openai.audio.speech.base-urlspring-doc.cadn.net.cn

连接的URLspring-doc.cadn.net.cn

api.openai.comspring-doc.cadn.net.cn

spring.ai.openai.audio.speech.api-keyspring-doc.cadn.net.cn

API密钥spring-doc.cadn.net.cn

-spring-doc.cadn.net.cn

spring.ai.openai.audio.speech.organization-idspring-doc.cadn.net.cn

您可以选择指定用于 API 请求的组织。spring-doc.cadn.net.cn

-spring-doc.cadn.net.cn

spring.ai.openai.audio.speech.project-idspring-doc.cadn.net.cn

(可选)您可以指定用于 API 请求的项目。spring-doc.cadn.net.cn

-spring-doc.cadn.net.cn

spring.ai.openai.audio.speech.options.modelspring-doc.cadn.net.cn

用于生成音频的模型 ID。对于 OpenAI 的 TTS API,请使用以下可用模型之一:tts-1 或 tts-1-hd。spring-doc.cadn.net.cn

tts-1spring-doc.cadn.net.cn

spring.ai.openai.audio.speech.options.voicespring-doc.cadn.net.cn

用于合成的语音。对于 OpenAI 的 TTS API,这是所选模型可用的语音之一:alloy、echo、fable、onyx、nova 和 shimmer。spring-doc.cadn.net.cn

合金spring-doc.cadn.net.cn

spring.ai.openai.audio.speech.options.response-formatspring-doc.cadn.net.cn

音频输出的格式。支持的格式包括 mp3、opus、aac、flac、wav 和 pcm。spring-doc.cadn.net.cn

mp3spring-doc.cadn.net.cn

spring.ai.openai.audio.speech.options.speedspring-doc.cadn.net.cn

语音合成的速度。可接受范围是从 0.25(最慢)到 4.0(最快)。spring-doc.cadn.net.cn

1.0spring-doc.cadn.net.cn

您可以覆盖通用的 spring.ai.openai.base-urlspring.ai.openai.api-keyspring.ai.openai.organization-idspring.ai.openai.project-id 属性。 如果设置了 spring.ai.openai.audio.speech.base-urlspring.ai.openai.audio.speech.api-keyspring.ai.openai.audio.speech.organization-idspring.ai.openai.audio.speech.project-id 属性,它们的优先级将高于通用属性。 如果您希望为不同的模型和不同的模型端点使用不同的 OpenAI 账户,这将非常有用。
所有以 spring.ai.openai.image.options 为前缀的属性都可以在运行时被覆盖。

运行时选项

OpenAiAudioSpeechOptions 类提供了发出文本转语音请求时使用的选项。 启动时,会使用由 spring.ai.openai.audio.speech 指定的选项,但您可以在运行时覆盖这些选项。spring-doc.cadn.net.cn

OpenAiAudioSpeechOptions speechOptions = OpenAiAudioSpeechOptions.builder()
    .model("tts-1")
    .voice(OpenAiAudioApi.SpeechRequest.Voice.ALLOY)
    .responseFormat(OpenAiAudioApi.SpeechRequest.AudioResponseFormat.MP3)
    .speed(1.0f)
    .build();

SpeechPrompt speechPrompt = new SpeechPrompt("Hello, this is a text-to-speech example.", speechOptions);
SpeechResponse response = openAiAudioSpeechModel.call(speechPrompt);

手动配置

将如下的spring-ai-openai依赖添加到项目中Maven的pom.xml文件中:spring-doc.cadn.net.cn

<dependency>
    <groupId>org.springframework.ai</groupId>
    <artifactId>spring-ai-openai</artifactId>
</dependency>

或添加到您的 Gradle build.gradle 构建文件中:spring-doc.cadn.net.cn

dependencies {
    implementation 'org.springframework.ai:spring-ai-openai'
}
请参阅依赖管理部分,将Spring AI BOM添加到您的构建文件中。

接下来,创建一个 OpenAiAudioSpeechModelspring-doc.cadn.net.cn

var openAiAudioApi = new OpenAiAudioApi()
    .apiKey(System.getenv("OPENAI_API_KEY"))
    .build();

var openAiAudioSpeechModel = new OpenAiAudioSpeechModel(openAiAudioApi);

var speechOptions = OpenAiAudioSpeechOptions.builder()
    .responseFormat(OpenAiAudioApi.SpeechRequest.AudioResponseFormat.MP3)
    .speed(1.0f)
    .model(OpenAiAudioApi.TtsModel.TTS_1.value)
    .build();

var speechPrompt = new SpeechPrompt("Hello, this is a text-to-speech example.", speechOptions);
SpeechResponse response = openAiAudioSpeechModel.call(speechPrompt);

// Accessing metadata (rate limit info)
OpenAiAudioSpeechResponseMetadata metadata = response.getMetadata();

byte[] responseAsBytes = response.getResult().getOutput();

流式实时音频

Speech API 支持使用分块传输编码进行实时音频流传输。这意味着在完整文件生成并可访问之前,即可播放音频。spring-doc.cadn.net.cn

var openAiAudioApi = new OpenAiAudioApi()
    .apiKey(System.getenv("OPENAI_API_KEY"))
    .build();

var openAiAudioSpeechModel = new OpenAiAudioSpeechModel(openAiAudioApi);

OpenAiAudioSpeechOptions speechOptions = OpenAiAudioSpeechOptions.builder()
    .voice(OpenAiAudioApi.SpeechRequest.Voice.ALLOY)
    .speed(1.0f)
    .responseFormat(OpenAiAudioApi.SpeechRequest.AudioResponseFormat.MP3)
    .model(OpenAiAudioApi.TtsModel.TTS_1.value)
    .build();

SpeechPrompt speechPrompt = new SpeechPrompt("Today is a wonderful day to build something people love!", speechOptions);

Flux<SpeechResponse> responseStream = openAiAudioSpeechModel.stream(speechPrompt);

示例代码