
2026/03/16 6:29
**Hacker News(HN)投稿:ChatGPT アカウントで無料OpenAI APIアクセスが利用可能**
RSS: https://news.ycombinator.com/rss
要約▶
Japanese Translation:
要約
プロジェクトは、ChatGPT OAuth トークンで認証するローカルプロキシ(openai‑oauth
http://127.0.0.1:10531/v1)を提供し、開発者が API キーなしで OpenAI 対応 API を呼び出せるようにします。
コアコンポーネント
- CLI (
) – プロキシを起動し、openai-oauth
、/v1/chat/completions
、および/v1/responses
を公開します。/v1/models - プロバイダー (
) – Vercel AI SDK のプロバイダーで、コードがopenai-oauth-provider
(例:createOpenAIOAuth()
)を使用できるようにします。generateText({ model: openai("gpt‑5.4"), … })
設定
共通オプションは次のとおりです:
/--host
(デフォルト:127.0.0.1 / 10531)--port
allowlist--models- Codex API バージョン、上流ベース URL、OAuth クライアント ID/トークン URL、認証ファイルパス(
)、および新しいトークンを強制的に取得するフラグ。auth.json
モデル
プロキシは現在 Codex 対応モデルのみ をサポートしています:
gpt‑5.4、gpt‑5.3‑codex、およびユーザーの ChatGPT アカウントから検出されたその他の Codex モデル。
機能
- ストリーミング応答、ツール呼び出し、および推論トレースがサポートされています。
- CLI の
エンドポイントは まだステートフル再生 をサポートしていません。/v1/responses
制限事項と今後の作業
- 組み込みログインフローはありません;ユーザーはまず
を実行する必要があります。npx @openai/codex login - 予定されている改善点には、組み込みログイン、
のステートフル再生、および Codex を超えたモデルリストの拡張が含まれます。/v1/responses
法的および使用上の注意
- これは 非公式でコミュニティ主導 のツールであり、OpenAI と提携していません;認証情報はローカルの
ファイルに依存します。auth.json - 信頼できるマシン上で個人用・ローカル実験専用です。公開ホスティングや共有はレート制限やアカウント停止を招く可能性があります。
この改訂要約はすべての主要ポイントを反映し、不要な推測を排除し、曖昧さのない明確な情報提供を行います。
本文
NPM | 法的事項
ChatGPT アカウントで OpenAI API への無料アクセスを実現します。
npx openai-oauth を実行するだけです。
使用方法
openai‑oauth は以下の2通りに利用できます:
1. openai-oauth
CLI
openai-oauthローカルプロキシ(
chatgpt.com/backend-api/codex/responses)を作成し、OAuth トークンで事前認証済みです。
npx openai-oauth
- OpenAI 互換エンドポイントが:
http://127.0.0.1:10531/v1 - API キーは不要
- 利用可能モデル:
,gpt-5.4
等gpt-5.3-codex
2. openai-oauth-provider
(Vercel AI SDK Provider)
openai-oauth-providerimport { generateText } from "ai"; import { createOpenAIOAuth } from "openai-oauth-provider"; const openai = createOpenAIOAuth(); const result = await generateText({ model: openai("gpt-5.4"), prompt: "write an essay about dogs", }); console.log(result.text);
設定
CLI とプロバイダーは同じ OAuth トランスポート設定を共有します。
| 設定 | CLI フラグ | プロバイダー値 | デフォルト | 説明 |
|---|---|---|---|---|
| ホストバインディング | | N/A | | ローカルプロキシがバインドするインターフェース |
| ポート | | N/A | | バインドするポート |
| モデルホワイトリスト | | N/A | ChatGPT から検出したアカウント固有 Codex モデル | に公開されるモデル ID のカンマ区切りリスト。省略時は自動検出 |
| Codex API バージョン | | | ローカル 、次に npm からの最新 、最後に | モデル検出時に使用する Codex API クライアントバージョンを上書き |
| アップストリームベース URL | | | | アップストリーム Codex ベース URL を上書き |
| OAuth クライアント ID | | | | リフレッシュ時に使用する OAuth クライアント ID を上書き |
| OAuth トークン URL | | | | リフレッシュ時に使用する OAuth トークン URL を上書き |
| 認証ファイルパス | | | , , , | ローカル OAuth 認証ファイルの検索場所を上書き |
| トークン更新保証 | N/A | | | アクセストークンが自動でリフレッシュされるかどうか |
| プロバイダー名 | N/A | | | Vercel AI SDK 内部に公開されるプロバイダー名を上書き |
機能
- 動作エンドポイント:
,/v1/responses
,/v1/chat/completions
(デフォルトでアカウント対応、または/v1/models
でオーバーライド)--models - ストリーミング応答
- ツールコール
- 推論トレース
制限事項
- Codex がサポートする LLM のみ利用可能。プランによりリストが変わります。
- ログインフローは組み込まれていません。
で auth ファイルを作成してください。npx @openai/codex login - CLI
エンドポイントはステートレスで、呼び出し側が完全な会話履歴を送信する必要があります。/v1/responses
動作原理
OpenAI の Codex CLI は
chatgpt.com/backend-api/codex/responses にある特別エンドポイントを利用し、ChatGPT アカウントに紐づくレートリミットを活用します。同じ OAuth トークンを使うことで、API クレジットを購入せずに OpenAI API を OAuth 経由で使用できます。
モノレポ構成
- packages/openai-oauth-core – 共有トランスポート、認証リフレッシュ、SSE ヘルパー、再生状態管理(プライベート)
- packages/openai-oauth-provider – Codex に直接ローカル認証ファイルで接続する Vercel AI SDK 用公開プロバイダー
- packages/openai-oauth –
向け CLI とローカルプロキシ(公開)npx openai-oauth
法的事項
本プロジェクトは非公式・コミュニティ主導であり、OpenAI, Inc. とは提携・認可・スポンサー関係にありません。
ローカルの Codex/ChatGPT 認証キャッシュ (
auth.json、例:~/.codex/auth.json) を使用し、パスワードと同等の機密情報として扱う必要があります。
- 信頼できるマシンで個人実験のみを目的に利用してください。
- ホステッドサービスとして運用せず、アクセスを共有・再配布・トークンプールは行わないでください。
- OpenAI の利用規約やポリシー、および適用される契約に従う責任は全てユーザーにあります。誤用によってレート制限、停止、アカウント終了が生じる可能性があります。
- 本ソフトウェアは「現状のまま」提供され、保証は一切ありません。データ漏洩、コスト発生、アカウント操作に関するリスクは全てユーザー自身で負担してください。