@@ -6,19 +6,19 @@ search:
66
77## 前提条件
88
9- Agents SDK の基本的な [ クイックスタート手順] ( ../quickstart.md ) に従い、仮想環境を設定してください 。次に、SDK からオプションの音声関連の依存関係をインストールします 。
9+ Agents SDK の基本的な [ クイックスタート手順] ( ../quickstart.md ) に従い、仮想環境をセットアップしていることを確認してください 。次に、 SDK からオプションの音声依存関係をインストールします 。
1010
1111``` bash
1212pip install ' openai-agents[voice]'
1313```
1414
1515## 概念
1616
17- 主な概念は [ ` VoicePipeline ` ] [ agents.voice.pipeline.VoicePipeline ] で、これは 3 段階のプロセスです 。
17+ 主に理解しておくべき概念は [ ` VoicePipeline ` ] [ agents.voice.pipeline.VoicePipeline ] で、これは 3 ステップのプロセスです 。
1818
19- 1 . 音声認識 (speech-to-text) モデルを実行して音声をテキストに変換します 。
20- 2 . 通常はエージェント指向のワークフローとなるあなたのコードを実行し 、結果を生成します。
21- 3 . 音声合成 (text-to-speech) モデルを実行して 、結果のテキストを音声に戻します。
19+ 1 . 音声認識モデルを実行して、音声をテキストに変換します 。
20+ 2 . コード(通常はエージェントオーケストレーションのワークフロー)を実行して 、結果を生成します。
21+ 3 . 音声合成モデルを実行して 、結果のテキストを音声に戻します。
2222
2323``` mermaid
2424graph LR
@@ -48,7 +48,7 @@ graph LR
4848
4949## エージェント
5050
51- まず、いくつかのエージェントを設定します。これは、 この SDK でエージェントを作成したことがあれば馴染みがあるはずです。ここでは、複数のエージェント、 ハンドオフ、そしてツールを用意します 。
51+ まず、いくつかの Agents をセットアップしましょう。 この SDK でエージェントを構築したことがあれば、ここは馴染みのある内容です。複数の Agents と、 ハンドオフ、ツールを用意します 。
5252
5353``` python
5454import asyncio
@@ -76,30 +76,30 @@ spanish_agent = Agent(
7676 instructions = prompt_with_handoff_instructions(
7777 " You're speaking to a human, so be polite and concise. Speak in Spanish." ,
7878 ),
79- model = " gpt-5.2 " ,
79+ model = " gpt-5.4 " ,
8080)
8181
8282agent = Agent(
8383 name = " Assistant" ,
8484 instructions = prompt_with_handoff_instructions(
8585 " You're speaking to a human, so be polite and concise. If the user speaks in Spanish, handoff to the spanish agent." ,
8686 ),
87- model = " gpt-5.2 " ,
87+ model = " gpt-5.4 " ,
8888 handoffs = [spanish_agent],
8989 tools = [get_weather],
9090)
9191```
9292
9393## 音声パイプライン
9494
95- ワークフローとして [ ` SingleAgentVoiceWorkflow ` ] [ agents.voice.workflow.SingleAgentVoiceWorkflow ] を使用して、シンプルな音声パイプラインを設定します 。
95+ ワークフローとして [ ` SingleAgentVoiceWorkflow ` ] [ agents.voice.workflow.SingleAgentVoiceWorkflow ] を使い、シンプルな音声パイプラインをセットアップします 。
9696
9797``` python
9898from agents.voice import SingleAgentVoiceWorkflow, VoicePipeline
9999pipeline = VoicePipeline(workflow = SingleAgentVoiceWorkflow(agent))
100100```
101101
102- ## パイプラインの実行
102+ ## パイプライン実行
103103
104104``` python
105105import numpy as np
@@ -124,7 +124,7 @@ async for event in result.stream():
124124
125125```
126126
127- ## 統合
127+ ## 全体の統合
128128
129129``` python
130130import asyncio
@@ -160,15 +160,15 @@ spanish_agent = Agent(
160160 instructions = prompt_with_handoff_instructions(
161161 " You're speaking to a human, so be polite and concise. Speak in Spanish." ,
162162 ),
163- model = " gpt-5.2 " ,
163+ model = " gpt-5.4 " ,
164164)
165165
166166agent = Agent(
167167 name = " Assistant" ,
168168 instructions = prompt_with_handoff_instructions(
169169 " You're speaking to a human, so be polite and concise. If the user speaks in Spanish, handoff to the spanish agent." ,
170170 ),
171- model = " gpt-5.2 " ,
171+ model = " gpt-5.4 " ,
172172 handoffs = [spanish_agent],
173173 tools = [get_weather],
174174)
@@ -195,4 +195,4 @@ if __name__ == "__main__":
195195 asyncio.run(main())
196196```
197197
198- このサンプルを実行すると 、エージェントがあなたに話しかけます。自分でエージェントに話しかけられるデモは [ examples/voice/static] ( https://github.com/openai/openai-agents-python/tree/main/examples/voice/static ) をご覧ください 。
198+ この example を実行すると 、エージェントがあなたに話しかけます。[ examples/voice/static] ( https://github.com/openai/openai-agents-python/tree/main/examples/voice/static ) の example では、自分でエージェントに話しかけられるデモを確認できます 。
0 commit comments