**Hacker News(HN)投稿:ChatGPT アカウントで無料OpenAI APIアクセスが利用可能**

2026/03/16 6:29

**Hacker News(HN)投稿:ChatGPT アカウントで無料OpenAI APIアクセスが利用可能**

RSS: https://news.ycombinator.com/rss

要約

Japanese Translation:


要約

openai‑oauth
プロジェクトは、ChatGPT OAuth トークンで認証するローカルプロキシ(
http://127.0.0.1:10531/v1
)を提供し、開発者が API キーなしで OpenAI 対応 API を呼び出せるようにします。

コアコンポーネント

  • CLI (
    openai-oauth
    )
    – プロキシを起動し、
    /v1/chat/completions
    /v1/responses
    、および
    /v1/models
    を公開します。
  • プロバイダー (
    openai-oauth-provider
    )
    – Vercel AI SDK のプロバイダーで、コードが
    createOpenAIOAuth()
    (例:
    generateText({ model: openai("gpt‑5.4"), … })
    )を使用できるようにします。

設定

共通オプションは次のとおりです:

  • --host
    /
    --port
    (デフォルト:127.0.0.1 / 10531)
  • --models
    allowlist
  • Codex API バージョン、上流ベース URL、OAuth クライアント ID/トークン URL、認証ファイルパス(
    auth.json
    )、および新しいトークンを強制的に取得するフラグ。

モデル

プロキシは現在 Codex 対応モデルのみ をサポートしています:

gpt‑5.4
gpt‑5.3‑codex
、およびユーザーの ChatGPT アカウントから検出されたその他の Codex モデル。

機能

  • ストリーミング応答、ツール呼び出し、および推論トレースがサポートされています。
  • CLI の
    /v1/responses
    エンドポイントは まだステートフル再生 をサポートしていません。

制限事項と今後の作業

  • 組み込みログインフローはありません;ユーザーはまず
    npx @openai/codex login
    を実行する必要があります。
  • 予定されている改善点には、組み込みログイン、
    /v1/responses
    のステートフル再生、および Codex を超えたモデルリストの拡張が含まれます。

法的および使用上の注意

  • これは 非公式でコミュニティ主導 のツールであり、OpenAI と提携していません;認証情報はローカルの
    auth.json
    ファイルに依存します。
  • 信頼できるマシン上で個人用・ローカル実験専用です。公開ホスティングや共有はレート制限やアカウント停止を招く可能性があります。

この改訂要約はすべての主要ポイントを反映し、不要な推測を排除し、曖昧さのない明確な情報提供を行います。

本文

NPM | 法的事項

ChatGPT アカウントで OpenAI API への無料アクセスを実現します。

npx openai-oauth
を実行するだけです。


使用方法

openai‑oauth は以下の2通りに利用できます:

1.
openai-oauth
CLI

ローカルプロキシ(

chatgpt.com/backend-api/codex/responses
)を作成し、OAuth トークンで事前認証済みです。

npx openai-oauth
  • OpenAI 互換エンドポイントが:
    http://127.0.0.1:10531/v1
  • API キーは不要
  • 利用可能モデル:
    gpt-5.4
    ,
    gpt-5.3-codex

2.
openai-oauth-provider
(Vercel AI SDK Provider)

import { generateText } from "ai";
import { createOpenAIOAuth } from "openai-oauth-provider";

const openai = createOpenAIOAuth();

const result = await generateText({
  model: openai("gpt-5.4"),
  prompt: "write an essay about dogs",
});

console.log(result.text);

設定

CLI とプロバイダーは同じ OAuth トランスポート設定を共有します。

設定CLI フラグプロバイダー値デフォルト説明
ホストバインディング
--host
N/A
127.0.0.1
ローカルプロキシがバインドするインターフェース
ポート
--port
N/A
10531
バインドするポート
モデルホワイトリスト
--models
N/AChatGPT から検出したアカウント固有 Codex モデル
/v1/models
に公開されるモデル ID のカンマ区切りリスト。省略時は自動検出
Codex API バージョン
--codex-version
codexVersion
ローカル
codex --version
、次に npm からの最新
@openai/codex
、最後に
0.111.0
モデル検出時に使用する Codex API クライアントバージョンを上書き
アップストリームベース URL
--base-url
baseURL
https://chatgpt.com/backend-api/codex
アップストリーム Codex ベース URL を上書き
OAuth クライアント ID
--oauth-client-id
clientId
app_EMoamEEZ73f0CkXaXp7hrann
リフレッシュ時に使用する OAuth クライアント ID を上書き
OAuth トークン URL
--oauth-token-url
tokenUrl
https://auth.openai.com/oauth/token
リフレッシュ時に使用する OAuth トークン URL を上書き
認証ファイルパス
--oauth-file
authFilePath
$CHATGPT_LOCAL_HOME/auth.json
,
$CODEX_HOME/auth.json
,
~/.chatgpt-local/auth.json
,
~/.codex/auth.json
ローカル OAuth 認証ファイルの検索場所を上書き
トークン更新保証N/A
ensureFresh
true
アクセストークンが自動でリフレッシュされるかどうか
プロバイダー名N/A
name
openai
Vercel AI SDK 内部に公開されるプロバイダー名を上書き

機能

  • 動作エンドポイント:
    /v1/responses
    ,
    /v1/chat/completions
    ,
    /v1/models
    (デフォルトでアカウント対応、または
    --models
    でオーバーライド)
  • ストリーミング応答
  • ツールコール
  • 推論トレース

制限事項

  • Codex がサポートする LLM のみ利用可能。プランによりリストが変わります。
  • ログインフローは組み込まれていません。
    npx @openai/codex login
    で auth ファイルを作成してください。
  • CLI
    /v1/responses
    エンドポイントはステートレスで、呼び出し側が完全な会話履歴を送信する必要があります。

動作原理

OpenAI の Codex CLI は

chatgpt.com/backend-api/codex/responses
にある特別エンドポイントを利用し、ChatGPT アカウントに紐づくレートリミットを活用します。同じ OAuth トークンを使うことで、API クレジットを購入せずに OpenAI API を OAuth 経由で使用できます。


モノレポ構成

  • packages/openai-oauth-core – 共有トランスポート、認証リフレッシュ、SSE ヘルパー、再生状態管理(プライベート)
  • packages/openai-oauth-provider – Codex に直接ローカル認証ファイルで接続する Vercel AI SDK 用公開プロバイダー
  • packages/openai-oauth
    npx openai-oauth
    向け CLI とローカルプロキシ(公開)

法的事項

本プロジェクトは非公式・コミュニティ主導であり、OpenAI, Inc. とは提携・認可・スポンサー関係にありません。
ローカルの Codex/ChatGPT 認証キャッシュ (

auth.json
、例:
~/.codex/auth.json
) を使用し、パスワードと同等の機密情報として扱う必要があります。

  • 信頼できるマシンで個人実験のみを目的に利用してください。
  • ホステッドサービスとして運用せず、アクセスを共有・再配布・トークンプールは行わないでください。
  • OpenAI の利用規約やポリシー、および適用される契約に従う責任は全てユーザーにあります。誤用によってレート制限、停止、アカウント終了が生じる可能性があります。
  • 本ソフトウェアは「現状のまま」提供され、保証は一切ありません。データ漏洩、コスト発生、アカウント操作に関するリスクは全てユーザー自身で負担してください。

同じ日のほかのニュース

一覧に戻る →

2026/03/16 4:12

「Chrome DevTools MCP」 (原文と同じく略語をそのまま使用します)

## Japanese Translation: **改訂要約** Chrome の MCP(Machine‑Code Processor)サーバーは、現在実行中の Chrome セッションに直接コーディングエージェントを接続できるようになり、新しいインスタンスを毎回起動する必要がなくなりました。 この機能を利用するには、`chrome://inspect#remote-debugging` でリモートデバッグを有効化し、MCP サーバーを `--autoConnect` フラグ付きで起動します(例:`gemini-cli --autoConnect --channel=beta`)。 エージェントがセッションを要求すると、Chrome は許可ダイアログを表示し、「Chrome is being controlled by automated test software」というバナーを表示します。エージェントはそのアクティブなセッションに対して Network や Elements などの DevTools パネルへアクセスできます。 MCP サーバーは依然として元々の起動方法をサポートしています:ユーザープロファイルの指定、リモートデバッグポート経由での接続、または隔離された一時プロファイルの実行。 サンプルワークフローは次のとおりです。リモートデバッグを有効化した後、エージェントプロンプトに「Check the performance of https://developers.chrome.com」と入力すると、MCP サーバーが接続し、ページを開き、パフォーマンストレースを取得します。 Chrome M144(Beta)で利用可能なこの機能は、デベロッパーが新しいセッションを開くことなく手動の DevTools 使用と AI 支援デバッグをシームレスに切り替えられるようにし、将来的に MCP を通じてコーディングエージェントへより多くの DevTools パネルデータを段階的に公開する基盤を整備します。

2026/03/16 6:22

カナダの法案 C‑22 は、カナダ国民への大量メタデータ監視を義務付けています。

## Japanese Translation: > Bill C‑22(Lawful Access Act)は、通信事業者および電子サービスプロバイダー(ESP)への法執行アクセスを拡大すると同時に、一部のプライバシー制限を強化します。従来のBill C‑2で広範な無証拠要求が認められていた点を置き換え、通信事業者に対しては「サービス確認」権限のみを限定的に付与します。他の加入者情報については、合理的根拠基準に基づく裁判所承認命令が必要となります。 > > 本法ではまた、Supporting Authorized Access to Information Act(SAAIA)も導入されます。この条項はBill C‑2の多くの要件を反映しつつ、GoogleやMetaなどのESPにも適用します。ESPはデバイス・機能テストへの協力、要求の秘密保持、および「コアプロバイダー」として指定される可能性があります。コアプロバイダーは、データ抽出ツールの開発・テスト・維持管理、監視装置の設置、当局への機能通知、そして特定メタデータ(例:送信ログ)を最大1年間保持する義務があります。ただし、**送信内容、ウェブ閲覧履歴、またはソーシャルメディア活動の保持を強制されることはありません**—この例外はシステム的脆弱性への対処に限定されています。 > > 監督はインテリジェンス・コミッショナーが承認した省令によって行われますが、多くの詳細は機密扱いとなっています。本法は、ブダペスト条約第二追加議定書や米国のCLOUD Actなどとの国際情報共有協力を改善することを目的としていますが、重大な市民権利懸念を提起し、通信事業者およびESPに大きなコンプライアンス負担を課す可能性があります。結果として、ユーザーの監視リスクが高まる恐れがあります。

2026/03/16 4:25

49 MB のウェブページ

## Japanese Translation: 記事は、現代のニュースサイトがデータ量の多いリクエストや侵入的な広告、トラッキングスクリプトで読者を過剰に負荷させていると主張し、滑らかな閲覧体験よりも収益を優先していることを指摘しています。 - **具体的証拠:** ニューヨーク・タイムズの記事1件が422のネットワークリクエスト、49 MBのデータを生成し、安定するまでに2分かかったと報告されています。2006年には同じページは1.5 Mbpsの接続で数分間停止していた(10曲分のMP3音源に相当)。 - **広告インフラ:** クライアント側のプログレマティックオークションがRubicon ProjectやAmazon Ad Systemsなどのエクスチェンジへ何十もの同時入札リクエストを送信し、膨大なJavaScript解析を要求します。 - **トラッキングペイロード:** 約5 MBのトラッキングスクリプトがPOSTビーコンをファーストパーティー端点(例: a.et.nytimes.com/track)やクロスサイトトラッカー(doubleclick.net、casalemedia)へ送信し、バックグラウンドでユーザー識別情報を構築します。IABの「purr」同意エンドポイントはページロード直後にこれらのスクリプトを即座に起動させるため、クッキーバナーはプライバシー保護ではなく法的シールドであることが示されています。 - **UX戦術:** パブリッシャーはCPMやビューアビリティ指標を読者体験よりも重視し、モーダルポップアップ、低コントラストの閉じアイコン、強制スクロール、自動再生のスティッキービデオ(CPU熱、バッテリー消費、Fitts法違反)や「Read More」ボタンで記事を切り捨て、追加広告をロードします。これらは広告iframeが遷移後に読み込まれる際にレイアウトシフト(CLS)を引き起こし、Google Core Web Vitalsの指標による離脱率を高めます。 - **モバイル問題:** モバイルニュースサイトはコンテンツに約11 %しかビューポートを割り当てず、狭いスリット状の表示領域がインタラクションコストを増大させます。 - **緩和策:** 非必須オーバーレイはスクロール深度≥50 %または60 秒滞在後に遅延し、モーダルキューを順序付け、アクセシブルで低侵襲のモーダルを使用し、非同期コンテンツ用スペースを確保してCLSを回避します。 - **代替案:** text.npr.org、lite.cnn.com、およびRSSフィードといった軽量フォーマットは、読者が余計な要素のないプライバシーフレンドリーなニュース消費を好むことを示し、広告中心のUIパラダイムに挑戦します。 **結果:** このまとめはすべての主要ポイントを完全に反映し、説明のない推測を避け、記事の主張を明確で読者フレンドリーな概要として提示しています。

**Hacker News(HN)投稿:ChatGPT アカウントで無料OpenAI APIアクセスが利用可能** | そっか~ニュース