Anthropicは第三者クライアントの切断にミスを犯しました。

2026/01/12 19:57

Anthropicは第三者クライアントの切断にミスを犯しました。

RSS: https://news.ycombinator.com/rss

要約

日本語訳:

概要:
Anthropic の初期 AI コーディングツール「Claude Code」は、Pro/Max プランの低トークン価格によりユーザーと収益を急速に獲得し、売上が 10 億ドルに達しました。しかし、サードパーティエージェント(例:OpenCode)が Claude の API を利用できる抜け道があったため、Anthropic は 2026 年 1 月 9 日にトラフィック増加を理由にそれらのリクエストを停止しました。この措置は、そのエージェントに依存していた顧客からの反発を招き、OpenAI の Codex や Google の Gemini といったオープンソース競合他社からの脅威が増大したことを示しています。同社の評価額は 10 億ドルの資金調達ラウンド後に 3,500 億ドルへと急上昇しましたが、今回の取り締まりで Claude チャットボット利用率の約 1.07% が失われる可能性があり、オープンソース統合を継続的にサポートする競合他社へユーザーが流れる恐れがあります。開発者が安定した API アクセスに依存している業界では、Anthropic のより厳格な管理はサービスの分断とコスト増加を招き、AI モデルプロバイダーがサードパーティ使用をどのように管理するかについて広範な議論を呼び起こす可能性があります。

概要スケルトン

本文の主旨(メインメッセージ)
Anthropic の初期 AI コーディング製品と価格設定は急速な成長をもたらしましたが、その後、モデルを活用したサードパーティエージェントへのアクセスを厳しく制限し、顧客からの反発を招き、オープンソース代替品との競争を浮き彫りにしました。

証拠 / 推論(理由)

  • Claude Code は Pro/Max プランで低トークンコストを導入し、売上が 10 億ドルに到達しました。
  • OpenCode は急速に成長し、Anthropic アカウントとのログイン統合を提供しました。
  • 抜け道によりサードパーティエージェントは Claude の API を利用できましたが、Anthropic は 2026 年 1 月 9 日にトラフィック問題を理由にリクエストをブロックしました。

関連ケース / 背景(文脈・過去の出来事)

  • 2025 年 2 月:Karpathy が「vibe coding」を提唱し、Anthropic は Claude Code をプレビュー。
  • 2025 年 4–6 月:OpenAI と Google が Codex / Gemini CLI をリリース;他のエージェント(OpenCode、Roo、Amp)が登場。
  • Anthropic の評価額が 10 億ドルの調達で 3,500 億ドルに跳ね上がったことは、市場から高い期待を示しています。

今後起こり得ること(将来展開 / 推測)
Anthropic は取り締まりによって顧客離れと市場シェアの喪失(Claude チャットボット利用率約 1.07%)に直面し、OpenAI のオープンソース統合サポートが競争格差を拡大させ、「囚人のジレンマ」的状況を生む可能性があります。

影響(ユーザー / 企業 / 業界)
ユーザーは代替コーディングエージェントへ移行するかもしれません。Anthropic の API に依存している開発者や企業は障害リスクに直面します。AI コーディングの生態系全体では、サービスの分断と一部のコスト増加、モデルプロバイダーによる API アクセス制御への注目が高まるでしょう。

本文

Anthropicは2026年の最大のビジネスミスに至った可能性があり、私たちはまだ2週間も経っていません。なぜそうなるかを理解するために、まず2025年――エージェント型AIが主流になった年――へ簡単に巻き戻ってみましょう。

2025年2月3日、Andrej Karpathyは新たなパラダイムを説明するために「vibe coding(バイブコーディング)」という用語を作りました。3週間も経たないうちにAnthropicはClaude Codeの最初のリサーチプレビューを発表し、大規模言語モデル(LLM)を開発者が日常的に使用するターミナルへ直接持ち込みました。その後、OpenAIは4月にCodex CLI、Googleは6月にGemini CLIをリリースしました。

これらのターミナルベースのコーディングエージェントは同じ原理に従っています:

  • プロンプトを入力する
  • エージェントがそれをLLMへ送信する
  • LLMが応答し、ファイル編集やコマンド実行などのアクションを指示できる
  • エージェントはそのアクションを実行し、結果をプロンプトに付加する

この一連の手順がループで繰り返されますが、ひとつの違いがあります。エージェントはLLMがユーザー入力を必要とすると判断するまで、このループを継続できます。この原理はシンプルすぎて、OpenCode、Roo、Amp Codeなど数多くの代替コーディングエージェントが生まれました。各社は独自の哲学とアプローチを持ちつつも、最終的には知能源としてLLMに依存しています。彼らの役割はユーザー入力を集め、ツール呼び出しを実行し、それらを繰り返しモデルへ渡すことだけです。

したがって、これらのエージェントは一般的に事前定義されたモデルセットから選択できるインターフェースと、AnthropicやOpenAIなどのプロバイダーと認証する手段(通常はAPIキー)を提供します。Claude Codeが実際に6月にリリースされると、Anthropicモデルの利用はProおよびMaxプランに含まれ、固定料金(月額または年額サブスクリプション)で提供されました。このプランはユーザーがトークンあたりのコストがAnthropic API価格よりもはるかに低いことを知った瞬間から急速に人気を集め、わずか6か月で年間10億ドルの収益を達成しました。

同時にOpenCodeは急速に人気を獲得し、短期間で5万以上のGitHubスターと65万人以上の月間アクティブユーザーを記録しました。その主な販売ポイントの一つは「AnthropicでログインしてClaude ProまたはMaxアカウントを利用できる」という機能でした。これにより、開発者は魅力的なClaudeサブスクリプション価格を享受できます。一方、Ampなど他のコーディングエージェントは、もっと高価なペイパートークンAPI経由でClaudeモデルへの接続のみを提供していました。

実際、Anthropic OAuthトークンで第三者のコーディングエージェントにログインすることは、一種の抜け道でした。これはクライアントが送るシステムプロンプトに「Claude Code」と特定のフレーズを含める必要があるため、機能します。しかし、多く(おそらく無自覚に)Anthropicのお客様がOpenCodeをこの方法で利用していました。彼らの視点では、自分たちが既に支払っているサービスを好きなコーディングハーネス内で使うだけだったのです。

対照的にAnthropicはこの見方を受け入れませんでした。2026年1月9日、Anthropicは差し置きなく抜け道を閉じ、APIを変更して第三者クライアントからのリクエストを検出・拒否しました。この件について有名なvibe coder Peter SteinbergerはTwitter(現X)に投稿し、苛立ったAnthropicユーザーはGitHub Issueで不満を表明。Claudeサブスクリプションをキャンセルするよう要求し、多くが解約を脅かしました。

注目すべきは、Anthropicがこの変更を正式にToS(利用規約)として発表していない点です。変更前後の公式アナウンスはなく、唯一の「仮通知」は従業員が個人アカウントで投稿したスレッドでした。これは顧客からの苦情への対応と思われます。変更の動機としては、「第三者ハーネスがClaudeサブスクリプションを利用することでユーザーに問題が生じ、異常なトラフィックパターンが発生し…レートリミットやアカウント停止に関する質問時にデバッグが難しくなる」との主張でした。

読者自身でこの説明が信頼できるかどうか判断してください。実際にはAnthropicはToSに好きなことを書き込む自由があり、顧客はそれを守らないと解約になるだけです。多くの人々は後者を選んだようです。ただし重要なのは、Anthropicが先週示した行動から明らかになった事実です:

  1. Anthropicは支払ユーザーと小さなToS違反で戦う意思があります
  2. 彼らは単なる「モデルプロバイダー」になるのではなく、価値チェーン全体を掌握したいという強い願望があります
  3. このビジネス決定の二次的影響を完全に無視しています

最初のポイントはすでに十分議論されていますので、2番目と3番目に焦点を当てます。数日前にはAnthropicが$10 bnを調達し、評価額350 bnドルという膨大な取引を行ったとの報道があります。インセンティブは明らかです。OpenCodeのようなモデル非依存ハーネスはAnthropicにとって実際の脅威です。Claudeチャットボット自体は市場シェアが1.07%しかないと言われています。したがって、彼らがコア市場で商品化されることを避けようとしているのは驚くべきことではありません。

最後に言える点:AnthropicはOpenAIと典型的な囚人のジレンマに陥り、OpenAIは裏切りました。公式にはOpenCodeユーザーがCodexサブスクリプションを利用できるようにするだけでなく、OpenHands、RooCode、Piなど他のオープンソースコーディングハーネスへの同様のサポートも拡張しています。さらに、ChatGPT Pro/PlusサブスクリプションとOpenCodeを接続できる機能は既にリリースされています。

この一連の出来事から何を学べるか? 私個人としてはAnthropicのお客様になることは決してありません。顧客を軽視する企業とは取引したくないからです。しかし、私の個人的な選択を超えて、Anthropic側が先週の行動を後悔する日が来ると予測します。健全な競争を抑制しようとして自社顧客を弾圧した結果、多くの信頼を失い、主要ライバルに機会を与えてしまったのです。今は資金力がありますが、将来的にはLLMプロバイダー市場で生き残るためには顧客を尊重する必要があります。

ここで述べた見解は私自身のものです。公開情報に基づく分析ですが、事実訂正があれば遠慮なくご連絡ください。

同じ日のほかのニュース

一覧に戻る →

2026/01/13 4:27

了解しました!内容は明確で簡潔に保ちます。余分な改行や不必要な記号は入れず、リストがある場合は読みやすいようにきちんとインデントします。他にご要望がございましたら、お気軽にお知らせくださいね!

## Japanese Translation: **改訂された概要** CoworkはClaude Maxをベースにしたリサーチプレビュー・ツールで、現在はmacOSアプリを通じてMaxサブスクライバー向けに利用可能です。ユーザーが自分のコンピュータ上の特定フォルダへのClaudeのアクセス権を付与すると、そのフォルダ内のファイルを読み取り・編集・作成できるようになります。これにより、ダウンロードの整理、スクリーンショットからスプレッドシートを生成すること、散在したメモからレポートをドラフトするなどのタスクが便利に行えます。 標準的なチャットとは異なり、CoworkはAIにより大きな主体性を与えます。AIはタスクを計画し、実行し、進捗状況を提供します。このツールはClaude Codeと基盤を共有しており、非コーディングの文脈でもコード風の対話が可能です。ユーザーは既存のコネクター(例:ドキュメントやプレゼンテーション)をリンクしたり、Chromeとのペアリングでウェブ閲覧を行ったりして機能を拡張できます。AIは複数タスクをキューに入れ、並列実行することで前後のチャットを減らします。 制御権はユーザーに残ります:Claudeが見るフォルダとコネクターを選択し、大きな操作を行う前にプロンプトが表示されます。ただし、誤った指示でファイルが削除されたり、プロンプトインジェクションが発生するリスクもあるため、安全対策は継続的に開発中です。 このプレビューはフィードバックを集めることを目的としており、将来のリリースではデバイス間同期、Windowsサポート、強化された安全機能、および拡張されたコネクターオプションが追加される可能性があります。Coworkは個人向けにファイル整理を効率化し、手動監視を保ちながらファイルベースのワークフローを自動化する制御可能なAIアシスタントとして設計されています。

2026/01/13 1:04

**TimeCapsuleLLM:** 1800年〜1875年のデータのみで訓練された大規模言語モデル (Note: The length is preserved while using natural, polite Japanese.)

## Japanese Translation: ``` ## Summary TimeCapsule LLM プロジェクトは、歴史的な英語データのみを使用して言語モデルをゼロから構築し、現代のバイアス(「Selective Temporal Training」)を排除します。 - **Model evolution** - *v0* (16 M パラメータ、nanoGPT ベース) は約187 MB の1800年代テキストで訓練され、1800年代風の言語を生成しましたが、一貫性のない文になりました。 - *v0.5* (123 M パラメータ、引き続き nanoGPT) はコーパスを約435 MB に拡張し、文法・句読点を改善しましたが、高い幻覚と OCR ノイズに悩まされました。 - *v1* (700 M パラメータ、Phi 1.5 ベース) は約6.25 GB のデータで訓練され、歴史的事件や人物を正確に思い出せるようになりました。 - *v2mini‑eval1* (300 M パラメータ、90 GB London コーパス全体の15 GBサンプル) はわずか10 K ステップで訓練され、トークナイズ問題により「Who is Charles Dickens?」のような文字化けした出力が生成されました。 - *v2mini‑eval2* (v2mini‑eval1 と同じサイズ・データ) はチャールズ・ダーウィンについて極めて不連続なテキストを生成しました。 - **Dataset** 完全版 v2 データセットは1800–1875 年のロンドン テキストで 90 GB を含み、136,344 ドキュメントから構成されています。15 GB のサンプルは Hugging Face(https://huggingface.co/datasets/haykgrigorian/TimeCapsuleLLM-London-1800-1875-v2-15GB)で公開されています。 - **Training setup** *v0/v0.5* は GeForce RTX 4060 GPU、i5‑13400F CPU、および 16 GB RAM を使用しました。 *v1* と *v2mini‑eval1* はレンタル NVIDIA A100 SXM GPU 上で訓練されました。 - **Tokenization & evaluation** 時代固有のスペリングと語彙に対応するカスタムトークナイザー(vocab.json & merges.txt)を構築しました。出力は言語的正確さ、幻覚率、およびトークナイズ品質で評価され、バイアス統計は別途 v2 バイアスレポートに記載されています。 - **Future work** 今後の計画として、完全版 90 GB v2 データセットへの拡張、トークナイザーパイプラインの改良、およびより深いバイアス分析を実施します。 - **Impact** このプロジェクトは、歴史家・教育者・AI‑ethics 開発者が時代に即した言語モデルを必要とする際に有益であり、現代バイアスを減らすための時間的選択訓練(temporal selective training)の具体例として NLP コミュニティにも貢献します。 ```

2026/01/13 5:26

ファブリス・ベルラール氏のTS Zip(2024)

## 日本語訳: **概要** ts_zip は、GPU を活用したテキスト圧縮ツールであり、RWKV 169M v4 大規模言語モデル(パラメータを 8 ビットに量子化し、BF16 で評価)を使用してトークン確率を予測し、その予測に基づいて算術符号化を適用します。従来のツールよりも高い圧縮率を達成しています: - alice29.txt – **1.142 bpb**(21,713 B) - book1 – **1.431 bpb**(137,477 B) - enwik8 – **1.106 bpb**(13,825,741 B) - enwik9 – **1.084 bpb**(135,443,237 B) - linux‑1.2.13.tar – **1.021 bpb**(1,196,859 B)。 RTX 4090 上では、ツールは約 1 MB/s の速度で圧縮し、同程度の速度で解凍します。システムに少なくとも **4 GB の RAM** があることが前提です。ts_zip は実験的なものであり、バージョン間の後方互換性は保証されません。また、その性能評価は GPU/CPU またはスレッド数に依存せず、決定論的に行われます。この手法はプレーンテキストファイルで最も効果を発揮し、バイナリデータではエントロピーの削減がほとんど得られません。主に英語で訓練されていますが、他言語やソースコードにも比較的適切に対応します。 ダウンロードリンク: - Linux tarball: `ts_zip‑2024‑03‑02.tar.gz` - Windows ZIP: `ts_zip‑2024‑03‑02-win64.zip` 将来のリリースでは、圧縮率をさらに向上させ、言語サポートを拡大し、可能ならファイルタイプの取り扱いを追加しつつ、ハードウェア間で評価が再現できるようにすることを目指します。GPU リソースを持つユーザー(データアーカイブ担当者や大量テキストコーパスを管理する開発者など)にとって、速度を犠牲にせず高い圧縮率を実現できる最適なツールです

Anthropicは第三者クライアントの切断にミスを犯しました。 | そっか~ニュース