
2026/04/25 3:23
OpenAI が、API を介して GPT-5.5 と GPT-5.5 Pro をリリースしました。
RSS: https://news.ycombinator.com/rss
要約▶
Japanese Translation:
2024 年末から 2026 年初頭にかけて、OpenAI はその AI エコシステムを急速に進化させ、基盤的なアップグレードから専門性の高いエージェント型ワークロードへと移行しました。この期間は、o シリーズの推論モデル(o1、o3、o4-mini)と GPT-4.5 の登場で始まりました。これらにより、向上した「EQ」とエージェント型プランニング能力が加わりました。その後、2025 年 12 月に「xhigh」推論レベルとネイティブなコンテキスト圧縮を備えた旗艦モデル GPT-5.2 が登場し、さらに 2026 年初頭には大規模なスケーラビリティに焦点がシフトしました。GPT-5.4 と GPT-5.5(およびそれらのバリエーション)は 100 万トークンのコンテキストウィンドウを採用し、一元化された Responses API を通じて構造化された出力をデフォルトとして採用し、結果として従来の Assistants API は 2026 年 3 月までに廃止されました。
この期間中、重要なアーキテクチャ上の転換が生じました。同社はオープンソースの安全モデル(GPT-oss)を導入し、エージェント型コーディングタスク向けの専門的な Codex ツールを提供し、高忠実度な生成とキャラクターリユースを特徴とする Sora のビデオ能力を拡張しました。開発者向けツールは、外部サービスとの接続性用の MCP ラッパー、WebSocket サポート、ローカル実行用ホストドシェル統合を通じて進化しました。セキュリティと効率性は、エンタープライズキー管理、IP アドレスの許可リスト設定、厳格な欧州データ所在地規制を採用することにより優先されました。ユーザーにとっては、複雑な推論タスクにおける高速応答時間、優れたビデオ生成品質、シームレスなリアルタイムオーディオインタラクションが実現しており、これらはより効率的で安全かつ普遍的に利用可能な AI インフラstruktur への移行を象徴しています。
本文
2026 年 4 月
機能:GPT-5.5 / GPT-5.5-pro(
v1/responses、v1/chat/completions、v1/batch)
Chat Completions API と Responses API に、複雑な専門業務のための新たな地平を開く GPT-5.5 をリリースしました。また、Responses API 上でより多くの計算資源を活用することで困難な課題に対応できる、GPT-5.5 pro も Responses API リクエストとしてリリースしました。
GPT-5.5 のサポート機能:
- トークンコンテキストウィンドウ:100 万トークン対応
- イメージ入力への対応
- システム化された出力形式の生成
- ファンクションコールリングのサポート
- プロンプトキャッシングの活用
- バッチ処理およびツール検索機能
- インタグレートなコンピューター利用(Built-in computer use)
- ホスト型シェル機能
- パッチ適用機能
- スキル(Skills)への対応
- MCP への対応
- ウェブ検索機能
主な更新点:
- 推論努力のデフォルト設定を「中」に変更しました。
の値が設定されていない場合または「auto」に設定されている場合、モデルは従来の動作を行います。image_detail- GPT-5.5 におけるキャッシングには拡張プロンプトキャッシングのみが適用可能で、メモリ内プロンプトキャッシングはサポートされていません。
機能:GPT Image 2(
v1/images/generations、v1/images/edits、v1/batch)
画像生成および編集向けの最先端モデルである GPT Image 2 をリリースしました。GPT Image 2 では、柔軟な画像サイズや高精細な画像入力、トークン単位の画像課金体系、バッチ API のサポート(50% オフ)が可能になっています。
Agents SDK に関する更新:
- 制御されたサンドボックス環境でのエージェント実行機能の追加
- オープンソース製ハーネスの検査とカスタマイズ機能の提供
- メモリの作成タイミングおよび保存場所の制御機能
2026 年 3 月
機能:GPT-5.4 mini / GPT-5.4 nano(
v1/responses、v1/chat/completions)
Chat Completions API と Responses API に GPT-5.4 mini および GPT-5.4 nano をリリースしました。
- GPT-5.4 mini: 高いボリュームのワークロード向けに、より高速かつ効率的なモデルとして GPT-5.4 クラスの能力を提供します。ツール検索、インタグレートなコンピューター利用、およびコンパクション機能をサポートしています。
- GPT-5.4 nano: 速度とコストが最も重要となる単純で大量のタスク向けに最適化されています。コンパクション機能はサポートしていますが、ツール検索やコンピューター利用はサポートしていません。
更新:gpt-5.3-chat-latest
gpt-5.3-chat-latest というスラグ(識別子)を更新し、現在 ChatGPT で使用されている最新モデルを指すように変更しました。
修正:GPT-5.4 イメージエンコーダー(
v1/responses、v1/chat/completions)
GPT-5.4 における input_image 入力のバグを修正するため、イメージエンコーダーを更新しました。一部の画像理解ユースケースにおいて品質が向上する可能性があります。追加の手動操作は不要です。
機能:Sora 2(
v1/videos、v1/videos/characters、v1/videos/extensions、v1/batch)
Sora API に再利用可能なキャラクター参照、最大 20 秒までの長時間生成、sora-2-pro 向けの 1080p 出力、ビデオ拡張機能、および POST /v1/videos 用のバッチ API サポートを追加しました。sora-2-pro による 1080p 生成については、1 秒あたり $0.70 で課金されます。
さらに詳しくはこちら
更新:Sora 2 の編集機能(
v1/videos/edits、v1/videos/{video_id}/remix)
既存のビデオを編集するための POST /v1/videos/edits を追加しました。これは現在、6 ヶ月後に非推奨となる POST /v1/videos/{video_id}/remix に代わります。
さらに詳しくはこちら
機能:GPT-5.4(
v1/responses、v1/chat/completions)
専門業務向けの最新 frontier モデルである GPT-5.4 を Chat Completions API と Responses API にリリースし、より多くの計算資源を活用した困難な課題への対応として GPT-5.4 pro を Responses API にもリリースしました。
同時にリリースされたもの:
- Responses API におけるツール検索機能の導入(モデルが実行時に大きなツールの表面を延期させることで、トークン使用量を削減し、キャッシュパフォーマンスを維持しながらレイテンシを改善します)。
- Screenshots を基づいた UI 操作に対応した、Responses API のコンピューターツールを通じた GPT-5.4 におけるインバウンドコンピューター利用機能のサポート。
- 100 万トークン対応のコンテキストウィンドウおよび、長時間実行されるエージェントワークフロー向けのネイティブなコンパクション(Compaction)機能のサポート。
機能:gpt-5.3-chat-latest(
v1/chat/completions、v1/responses)
現在 ChatGPT で使用されている GPT-5.3 Instant のスナップショットを指す gpt-5.3-chat-latest を Chat Completions API と Responses API にリリースしました。
2026 年 2 月
機能(
v1/responses、v1/chat/completions)
入力ファイルのサポート範囲を拡大し、より多くのドキュメント、プレゼンテーション、スプレッドシート、コード、およびテキストファイル形式を受け付けるようになりました。
さらに詳しくはこちら
Responses API にフェーズラベルリング機能をリリースしました。この機能により、アシスタントメッセージが「中間的なコメント(commentary)」か「最終回答(final_answer)」かをラベル付けできるようになりました。
機能:GPT-5.3-codex(
v1/responses)
gpt-5.3-codex を Responses API にリリースしました。
機能:Sora 2 WebSocket モード Responses API 向けに WebSocket モードをローンチしました。 さらに詳しくはこちら
機能:GPT-realtime-1.5 / GPT-audio-1.5(
v1/realtime、v1/chat/completions)
gpt-realtime-1.5 をリアルタイム API にリリースしました。
gpt-audio-1.5 を Chat Completions API にリリースしました。
機能:GPT Image モデルのバッチ API サポート(
v1/batch)
GPT Image モデル(gpt-image-1.5、chatgpt-image-latest、gpt-image-1、gpt-image-1-mini)に対応するバッチ API のサポートを開始しました。
更新:GPT-5.2-chat-latest 現在 ChatGPT で使用されている最新モデルを指すように、
gpt-5.2-chat-latest というスラグを更新しました。
機能:スキル(Skills) Responses API におけるスキル機能のサポートを開始しました。ローカル実行とホスト型コンテナベース実行の両方でスキルをサポートしています。
機能:ホスト型シェルおよびネットワーク機能 新しいホスト型シェルツールと、コンテナ内のネットワーク機能に対応しました。
更新:GPT-5.2 / GPT-5.2-codex API クライアント向けの推論スタックを最適化し、GPT-5.2 および GPT-5.2-Codex の実行速度が約 40% 向上しました。モデルそのものやモデル重量(重み)に変更はありません。
2026 年 1 月
発表:Open Responses 元 OpenAI Responses API に基づく、マルチプロバイダーで相互運用可能な LLM インターフェースを構築するためのオープンソース仕様「Open Responses」を発表しました。
機能:GPT-5.2-codex(
v1/responses)
gpt-5.2-codex を Responses API にリリースしました。GPT-5.2-Codex は、Codex や類似の環境におけるエージェントコーディングタスク向けに最適化された GPT-5.2 のバージョンです。
更新:リアルタイム API SIP IP アドレス範囲 リアルタイム API 向けに専用 SIP IP アドレス範囲を追加しました。
sip.api.openai.com はgeoIP ルーティングを行っており、SIP トラフィックを最も近いリージョンへ directs(導く)ようになります。
更新:モデルスラグの更新(スナップショット)
およびgpt-realtime-mini
のスラグを更新し、2025-12-15 のスナップショットを指すように変更しました。以前のモデルスナップショットが必要な場合は、それぞれgpt-audio-mini
とgpt-realtime-mini-2025-10-06
をご使用ください。gpt-audio-mini-2025-10-06
のスラグを更新し、sora-2
を指すように変更しました。以前のモデルスナップショットが必要な場合は、sora-2-2025-12-08
をご使用ください。sora-2-2025-10-06
およびgpt-4o-mini-tts
のスラグを更新し、2025-12-15 のスナップショットを指すように変更しました。以前のモデルスナップショットが必要な場合は、それぞれgpt-4o-mini-transcribe
とgpt-4o-mini-tts-2025-03-20
をご使用ください。gpt-4o-mini-transcribe-2025-03-20- 推奨事項: 現在、
をgpt-4o-mini-transcribe
よりも優れた結果を得るために使用することを推奨しています。gpt-4o-transcribe
- 推奨事項: 現在、
修正:GPT Image 1.5 / ChatGPT Image Latest の画像忠実度 /v1/images/edits 経由で画像編集を行う際、 fidélité(忠実度)が明示的に「low(低)」(デフォルト)に設定されていても gpt-image-1.5 および chatgpt-image-latest が誤って高精度モードを使用していた問題を修正しました。
2025 年 12 月
機能:GPT Image 1.5 / ChatGPT Image Latest の Responses API 統合(
v1/responses、v1/chat/completions)
Responses API の画像生成ツールに gpt-image-1.5 および chatgpt-image-latest を追加しました。
機能:リアルタイムおよびオーディオ「Mini」向け新しいスナップショット(
v1/realtime、v1/chat/completions)
リアルタイム性と音声駆動型アプリケーションの信頼性、品質、そして音声忠実度を向上させる 4 つの日付付き新しいオーディオスナップショットをリリースしました:
gpt-realtime-mini-2025-12-15gpt-audio-mini-2025-12-15gpt-4o-mini-transcribe-2025-12-15gpt-4o-mini-tts-2025-12-15
このリリースには、対応する顧客向けのカスタムボイス機能のサポートも含まれます。
機能:GPT-5.2(
v1/responses、v1/chat/completions)
GPT-5 モデルファミリーの最新のフラグシップモデルである GPT-5.2 をリリースしました。前世代の GPT-5.1 に対して以下の点で改良が見られます:
- 一般的な知能
- 指示への従順性
- 精度とトークン効率
- マルチモーダル性—特にビジョン(視覚)分野
- コード生成—特にフロントエンド UI の作成
- API におけるツールコールおよびコンテキスト管理
- スプレッドシートの理解と作成
GPT-5.2 の新機能:
- 新しい「xhigh」推論努力レベルの導入
- 簡潔な推論サマリーの提供
- コンパクション(Compaction)を活用した新しいコンテキスト管理機能
機能:クライアントサイドコンパクション(
v1/responses/compact)
クライアントサイドコンパクション機能をリリースしました。Responses API での長期的な会話において、/responses/compact エンドポイントをを使用して、各ターンで送信するコンテキストを縮小できるようになりました。
機能:GPT-5.1-codex-max(
v1/responses)
gpt-5.1-codex-max を Responses API にリリースしました。GPT-5.1-Codex は、Codex や類似の環境における長期的なエージェントコーディングタスク向けに最適化された当社の最も知能の高いコーディングモデルです。
2025 年 11 月
機能:リアルタイム API DTMF サポート リアルタイム API において DTMF キー押下のサポートを追加しました。リアルタイムサイドバンドル接続を使用中に DTMF イベントを受信できるようになりました。詳細についてはドキュメントをご覧ください。
機能:GPT-5.1 シリーズ(
v1/responses、v1/chat/completions)
GPT-5 モデルファミリーの最新のフラグシップモデルである GPT-5.1 をリリースしました。GPT-5.1 は特に以下の分野で優れた能力を発揮するように訓練されています:
- 推論を必要としない場合に高速なレスポンスを実現するためのステアビリティ(導きやすさ)
- コード生成およびコーディングユースケース
- エージェントワークフロー
注記: GPT-5 では中程度のデフォルト設定であったのに対し、GPT-5.1 は推論を必要としない場合に高速なレスポンスを実現するための新しい「none(無)」という推論設定がデフォルトになっています。
機能:GPT-5.1-Codex シリーズ(
v1/responses)
gpt-5.1-codex および gpt-5.1-codex-mini を Responses API にリリースしました。GPT-5.1-Codex は、Codex や類似の環境におけるエージェントコーディングタスク向けに最適化された GPT-5.1 のバージョンです。
機能:拡張プロンプトキャッシュ保持期間 拡張プロンプトキャッシュ保持機能をリリースしました。この機能により、キャッシュされたプレフィックスが有効な期間を最大 24 時間まで延長できます。拡張プロンプトキャッシングは、メモリがいっぱいになった際、key/value テンソルを GPU ローカルストレージにオフロードすることで、キャッシュのために利用可能なストレージ容量を大幅に増加させる仕組みです。
2025 年 10 月
機能:オープンソース化セキュリティモデル(
v1/responses)
gpt-oss の基盤に基づいて構築された安全性推論モデル gpt-oss-safeguard-120b および gpt-oss-safeguard-20b をリリースしました。
機能:エンタープライズキー管理(EKM) エンタープライズキー管理(EKM)機能をリリースしました。EKM を利用することで、OpenAI においてお客様が独自の外部キー管理システム(KMS)で管理するキーを使用して顧客コンテンツを暗号化できるようになります。
機能:IP アドミットリスト IP アドミットリスト機能をリリースしました。この機能により、指定した IP アドレスまたは範囲のみに対して API アクセスを制限できるようになります。
2025 年 9 月
機能:GPT-5-Codex(
v1/responses)
Codex CLI の使用に最適化され構築された専用モデル gpt-5-codex をローンチしました。
2025 年 8 月
機能:コネクタ(
v1/conversations、v1/responses、v1/assistants)
Responses API にコネクタのサポートを追加しました。コネクタとは、Google Apps や Dropbox などのお好みのサービスのデータへのモデル読取アクセス権を与えるために使用できる、OpenAI が維持する人気サービスの MCP ラッパーです。
機能:コンversations API(
v1/conversations、v1/responses、v1/assistants)
Responses API による長期的な会話を作成および管理することを可能にする Conversations API をリリースしました。移行ガイドを使用して、Assistants API 統合からの Responses および Conversations への移行方法や並べ替え比較をご覧ください。
機能:GPT-5 ファミリーリリース(
v1/chat/completions、v1/responses)
gpt-5、gpt-5-mini、および gpt-5-nano を含む GPT-5 ファミリーを API にリリースしました。
- 推論モデルをサポートする GPT-5 モデルで高速なレスポンスを実現するための最小限の推論努力値(minimal reasoning effort value)を導入しました。
- ツールコール時の自由な入出力を可能にする、カスタムツールコールタイプを導入しました。
2025 年 6 月
機能:優先処理(Priority processing) 優先処理機能に対応しました。優先処理は、従来型の標準処理と比較して著しく低く安定したレイテンシを実現しながら、従量課金の柔軟性を維持します。
機能:再利用可能なプロンプト ダッシュボードおよび Responses API において、新しい再利用可能なプロンプトが利用可能になりました。API 経由では、ダッシュボードで作成されたテンプレート(prompt パラメータで prompt id、オプションのバージョン付き)を参照し、文字列、画像、またはファイル入力を含まれる動的な変数を供給できるようになりました。Chat Completions には再利用可能なプロンプトは利用できません。 さらに詳しく
機能:o3-pro(
v1/responses、v1/batch)
より多くの計算資源を使用することで、困難な問題に対して優れた推論と一貫性で回答する o3 推論モデルのバージョンである o3-pro をリリースしました。また、バッチ処理およびフレックス処理を含むすべての API リクエスト向けの o3 モデルの価格も引き下げられました。
機能:ファインチューニングサポート gpt-4.1-2025-04-14、gpt-4.1-mini-2025-04-14、および gpt-4.1-nano-2025-04-14 のモデルに対する直接 preference 最適化(Direct Preference Optimization)を含むファインチューニングサポートを追加しました。
機能:ストリクトモードおよびスキーマ機能(
v1/chat/completions、v1/responses)
- 微調整を行っていないモデルに対して並列ツールコールを使用する際、ツールスキーマにストリクトモードを使用するためのサポートを追加しました。
- スキーマに関する新機能(電子メールなど他のパターンに対する文字列の検証、数値および配列の範囲指定など)を追加しました。
機能:Codex-mini-latest(
v1/responses、v1/chat/completions)
Codex CLI の使用に最適化された codex-mini-latest を API にローンチしました。
2025 年 4 月
機能:GPT Image 1(
v1/images/generations、v1/images/edits)
新しい画像生成モデル gpt-image-1 を追加しました。このモデルは品質と指示への従順性の両面で向上しており、画像生成における新しい基準を樹立します。さらに、gpt-image-1 モデルに固有の新しいパラメータをサポートする、画像生成および編集エンドポイントを更新しました。
機能:o3 シリーズおよび Codex CLI(
v1/chat/completions、v1/responses)
- 数学、科学、コーディング、視覚的推論タスク、および技術的なライティングにおいて新しい基準を樹立する、2 つの新しい o シリーズ推論モデルである o3 および o4-mini を追加しました。
- コード生成 CLI ツールである Codex をローンチしました。
機能:GPT-4.1 シリーズ(
v1/responses、v1/chat/completions、v1/fine_tuning)
gpt-4.1、gpt-4.1-mini、および gpt-4.1-nano モデルを API に追加しました。これらの新モデルは、改善された指示への従順性、コーディング能力、およびより広いコンテキストウィンドウ(最大 100 万トークン)を備えています。gpt-4.1 および gpt-4.1-mini は教師ありファインチューニングで利用可能です。
また、gpt-4.5-preview の非推奨化を発表しました。
2025 年 3 月
機能:オーディオ API 向け新モデル(
v1/chat/completions、v1/responses)
gpt-4o-mini-tts、gpt-4o-transcribe、gpt-4o-mini-transcribe、および whisper-1 モデルをオーディオ API に追加しました。
機能:o1-pro(
v1/responses、v1/batch)
より多くの計算資源を使用することで、困難な問題に対して優れた推論と一貫性で回答する o1 推論モデルのバージョンである o1-pro をリリースしました。
機能:エージェントワークフロー(
v1/chat/completions、v1/assistants、v1/responses)
複数の新モデルおよびツール、ならびにエージェントワークフロー用の新しい API をリリースしました:
- エージェントおよびツールの作成と使用のための新しい API である Responses API をリリースしました。
- Responses API 用的一组のインバウンドツール(ウェブ検索、ファイル検索、コンピューター利用)をリリースしました。
- デザイン、構築、およびデプロイのためのオーケストレーションフレームワークである Agents SDK をリリースしました。
- gpt-4o-search-preview、gpt-4o-mini-search-preview、computer-use-preview という新モデルを発表しました。
- すべての Assistants API 機能を使いやすい Responses API に統合する計画を発表し、完全な機能同等性を達成した後、Assistants の終了予定日を 2026 年と見込んでいます。
機能:ファインチューニングメタデータ(
v1/fine_tuning/jobs)
ファインチューニングジョブにメタデータフィールドのサポートを追加しました。
2025 年 2 月
機能:GPT-4.5(
v1/chat/completions、v1/assistants、v1/batch)
当社の最大かつ最も能力を持つチャットモデルである GPT-4.5 のリサーチプレビューをリリースしました。GPT-4.5 は高い「EQ」とユーザー意図の理解により、クリエイティブタスクおよびエージェントプランニングにおいて優れています。
更新:API 使用量ダッシュボードおよびデータレジデンス
- API 使用量ダッシュボードアップデートをローンチしました。このアップデートは、プロジェクト選択、日付ピッカー、微細なインターバルなどの追加データフィルターに関する要望に対応しています。また、異なる製品およびサービスティアの跨る使用量の表示へのサポートも向上しています。
- ヨーロッパでのデータレジデンスの導入です。
2025 年 1 月
機能:o3-mini(
v1/chat/completions)
科学、数学、およびコーディングタスク向けに最適化された新しい小規模推論モデル o3-mini をローンチしました。
更新:o1 モデルへのアクセス範囲拡大 オプショナルラーニングでトレーニングされている複雑な推論を行うために設計された o1 シリーズのモデルです。
2024 年 12 月
更新:管理および使用量 API
- Admin API キーローテーション機能をローンチし、顧客がプログラム的に admin api キーをローテートできるようになりました。
- Admin API Invites を更新し、顧客が組織への招待と同時にプロジェクトへのユーザーをプログラム的に招待できるようになりました。
- Usage API をローンチし、顧客が OpenAI API 全体の活動および支出をプログラム的に照会できるようになりました。
機能:GPT-4o (2024-11-20)(
v1/chat/completions)
gpt-4o シリーズの最新のモデルである gpt-4o-2024-11-20 をリリースしました。
機能:予測出力(Predicted Outputs)(
v1/chat/completions)
応答の大部分が事前に既知であるモデル応答におけるレイテンシを大幅に削減する Predicted Outputs 機能をリリースしました。これは、ドキュメントやコードファイルの内容を僅かな変更だけで再生成する場合などで最も一般的です。
2024 年 10 月
DevDay 機能(サンフランシスコ)(
v1/realtime、v1/chat/completions、v1/fine_tuning)
いくつかの新しい機能をリリースしました:
- リアルタイム API: WebSockets インターフェースを使用して、アプリケーションにスピーチ対スピーチ体験を構築できるようになりました。
- モデル蒸留: 大規模 frontier モデルからの出力を利用して、コスト効率の良いモデルをファインチューニングするためのプラットフォームです。
- 画像ファインチューニング: GPT-4o を画像とテキストでファインチューニングし、ビジョン能力を向上させることができます。
- Evals: 特定のタスクにおけるモデルパフォーマンスを測定するためのカスタム評価を作成および実行できます。
- プロンプトキャッシング: 最近入力トークンを処理する際の割引およびより高速な処理時間に対応しました。
- プレイグラウンドでの生成: Generate ボタンを使用して、プレイグラウンドで容易にプロンプト、関数定義、および構造化出力スキーマを生成できます。
機能:Omni-moderation-latest(
v1/moderations)
画像とテキスト(一部のカテゴリ向け)をサポートする新しい omni-moderation-latest モデレーションモデルをリリースしました。このモデルは 2 つの新しいテキスト専用ハームカテゴリをサポートし、より正確なスコアリングを実現します。
2024 年 9 月 - 8 月
- 8 月: オーガニゼーションを管理および監査ログを使用して変更を監視できるようにする Admin および Audit Log API をローンチしました。(監査ログ記録は設定内で有効にする必要があります)。
- 7 月: カスタムおよび無制限課金のエンタープライズ顧客に、好みの IDP に対する認証を設定できるようにするセルフサーブ SSO 構成をローンチしました。高速で軽量なタスク向けの経済的で知能的な小規模モデルである GPT-4o mini をリリースしました。大規模ファイルを複数パートに分割してアップロードする Uploads 機能をリリースしました。
- 6 月/5 月: API へ GPT-4o をリリースしました。GPT-4o は当社の最も高速かつ最も手頃なフラグシップモデルです。Assistants API のスレッドからメッセージを削除するための新しいエンドポイントを追加しました。
- 4 月: プロジェクトベースの階層を導入し、API キーの作成およびレート制限とコスト制限のコスト管理(エンタープライズ顧客向けのみ利用可能)を含むプロジェクト単位での作業整理が可能になりました。
- 3 月: Assistants API におけるストリーミング機能に対応しました。
- 1 月/2023 年 12 月/2023 年 11 月/2023 年 10 月: エンベディニング V3 モデル、dimensions パラメータ、および初期 API リリースなど、多岐にわたる更新が行われました。