Blueskyにはご注意ください。

2026/02/21 8:35

Blueskyにはご注意ください。

RSS: https://news.ycombinator.com/rss

要約

Japanese Translation:

Blueskyのオープンプロトコルが約束するユーザー所有データと簡単な移行は、主要コンポーネントへの中央制御によって弱体化しています。

ATProto プロトコルはすべてのアプリデータを Personal Data Server(PDS)に保存します。ほとんどのユーザーにとって PDS は Bluesky が運用しており、自己ホスティングは可能ですがほとんど利用されません。自己ホスト型 PDS への移行ツールは月額約 $5 程度で、Bluesky がデータエクスポートを停止する前にしか機能しません。新しい ATProto アプリが追加されるたびに Bluesky のサーバーにさらにデータが蓄積され、切替コストが上昇します。

Bluesky はまた Relay(データフロー)、AppView(タイムライン構築)、DID Directory(アイデンティティ解決)のレイヤーを制御しており、それぞれの支配的なバージョンを運用しています。理論上はサードパーティのリレーや AppView が存在しますが、採用されていないため、制御は集中したままです。

Paul Frazee は Bluesky が「悪くなる」場合、ユーザーが Freesky という競合サービスに移行するかもしれないと警告しましたが、実際の障壁が高いためそのような移行は起こりにくいです。買収によって購入者が PDS、Relay、AppView、および DID Directory を完全に支配できるようになれば、データエクスポートの停止、アプリの削除、フェデレーションのシャットダウン、広告の導入、あるいはシェドバンなどを実行し、プロトコルが「離れることができる」という約束を破壊します。投資家からの収益化・統合への圧力は分散化の目標をさらに侵食し、あいまいな PBC の義務も大きな資本投入後にユーザーを保護する保証にはならない可能性があります。

この改訂版要約は主要なポイントをすべて含み、不当な推測を避け、読者に対して明確で簡潔な物語を提示しています。

本文

2023 年、Bluesky の CTO である Paul Frazee に「もし Bluesky がユーザーに対して敵対的になったらどうなるか」と尋ねられた際の彼の答えは次のようなものでした。

「こういうことになるでしょう。Bluesky は悪化する。人々が急いで移行し始める新しい代替手段、Freesky が登場します。私は Freesky に切り替えるつもりです。」

これは Twitter について人々がかけた議論と同じ言い回しです。
「もし悪化したらただ離れればいい」という主張――それが実際にどうなるかは既に分かっています。


約束

Bluesky は ATProto と呼ばれるオープンプロトコルを基盤としています。販売戦略はシンプルです:

  • データはあなたのもの
  • アイデンティティはあなたのもの
  • Bluesky が好きではないなら、すべて取り出して離脱できる

Tangled(git ホスティング)、Grain(写真)、Leaflet(出版)といったアプリは全て同じプロトコルに接続します。1 つのアカウントで多くのアプリを使える、ロックインがないというメリットがあります。

一見素晴らしいように思えます。しかし、もう少し詳しく見てみましょう。


実際にデータが存在する場所

ATProto アプリを利用すると、すべてのデータはあなた自身の Personal Data Server(PDS)へ書き込まれます:

  • Bluesky の投稿
  • Tangled のイシュー
  • Leaflet の出版物
  • Grain の写真

これらはすべて同じ場所に集約されることがほとんどで、通常は Bluesky が運営するサーバーです。

自分で PDS をホストすることも可能ですが、実際にはほぼ誰も行いません。なぜでしょうか?
Bluesky の PDS は「設定不要・メンテナンス不要」で全アプリと連携します。自前のサーバーを立て、稼働させ、何のリターンも得られないままです。

移行ツールは存在します。$5/月程度でアカウントを自己ホスト PDS に移すことが可能です。Bluesky は時間とともにこのプロセスを簡素化し、戻るサポートもしています。しかしこれは「出口を閉じる前」に行う必要があります。買収者がエクスポート機能を停止するとツールは無効になり、歴史上ほぼ全てのプラットフォーム移行において、人々はデータ保護のために積極的な対策を取らないことが分かっています。


フライホイール

私を心配させるのはこの部分です:

  • 新しい ATProto アプリが増えるほど、問題は悪化します。
    各アプリは「Bluesky アカウントでサインイン」と言いながら、本質的には「Bluesky のサーバーへデータを書き込む」ことを意味しています。
  • アプリ数が増えれば増えるほど、ユーザーは Bluesky のインフラに依存し、離脱する理由が薄れます。
  • プロトコルは価値をネットワーク全体に分散させず、集中化します。開発者は Bluesky のインフラ上で無料で機能を構築でき、各アプリのリリースごとにその不可欠性が増します。
  • Bluesky は「オープン! 分散型! いつでも離れられる!」という道徳的優位を主張しつつ、切り替えコストは日に日に上昇しています。

チョークポイント

問題は PDS のみではありません。Bluesky はほぼすべての重要レイヤーを掌握しています:

レイヤー役割実行主体
Relayすべてのデータが通過する中継点Bluesky(支配的)
AppViewタイムライン・スレッド・通知を組み立てるBluesky(主導)
DID DirectoryATProto 上でアイデンティティを解決中央集権化されたディレクトリ、Bluesky が運営(2023 年以降「placeholder」だが分散化は約束されているが時期未定)

各レイヤーにおいて「誰でも自前で運用できる」という答えがあります。しかし実際にはほとんど行われていません。


Gmail の問題

メールはオープンかつフェデレーション型プロトコルです。誰もがメールサーバーを立てられますが、実務上自前で運用するのは骨折りで、結局ほとんど人は Gmail を利用します。「オープン」であることだけでは中央集権化を防げないという事例です。

ATProto はさらに悪いかもしれません。メールの場合は各アプリが あなた自身 のサーバーに接続します。一方 ATProto では新しいアプリが増えるほど、同じ中央 PDS にデータが蓄積されます。オープンプロトコルであっても集中化のフライホイールになる可能性があります。


買収時に何が起こるか

Bluesky を買い取ったと仮定すると、以下を掌握します:

  • ほぼすべてのユーザーの PDS
  • メイン Relay
  • メイン AppView
  • 全アイデンティティを解決する DID ディレクトリ

これらから「データエクスポート機能を停止」「サードパーティアプリを遮断」「フェデレーションを停止」「広告挿入」「シェドウバン」「コンテンツの優先順位変更」などが可能です。影響は Bluesky のソーシャルネットワークだけでなく、Tangled での git イシューや Leaflet の投稿、Grain の写真といったエコシステム全体に及びます。

プロトコルは「離れられる」と主張しますが、数十億ドルを支払った企業にはそのインセンティブはありません。


結論

私は Bluesky が好きです。実際に使っています。チームは本当にユーザーのことを考えているように感じます。しかし、すべての反論は同じ土台に立っています:技術的にはユーザーが離脱できる;自己ホストが可能である;自前 Relay を運用できるという能力は存在する。ただし、人々はこれらを実際に行いません。電子メール、RSS、XMPP などどんなプロトコルでも同じです。デフォルトの選択肢が勝ります。

そして金銭面も問題です。$1.2 億ドルを $7 億ドルで調達して公衆ユーティリティを運営することはできません。その投資家たちはリターンを求めます:ユーザーの収益化、買収、または上場。これらは統制力を集中させる圧力を生み、分散化ではなく集中化へと導きます。本当に分散型で自由に離れられるネットワークは、買収者にとって価値が低くなります。

PBC 構造は保護策として設計されていますが、その義務は曖昧で裁判所でテストされたこともありません。$1.2 億ドルの VC 資金が片側にある場合、どちらに傾くか想像してください。

プロトコルだけではインセンティブからあなたを守ることはできません。

同じ日のほかのニュース

一覧に戻る →

2026/02/22 9:29

**Claude コードの使い方:計画と実行の分離**

## 日本語訳: 記事は約9か月の経験に基づくClaude Codeを使用するための規律あるワークフローを提示しています。研究、計画、および実行を分離し、各フェーズが進む前に承認済みのマークダウンアーティファクトを生成することを強調しています。 1. **リサーチ (research.md)** – Claude は対象フォルダーを徹底的にスキャンし、ユーザーが検証しなければならない詳細レポートを作成します。表面的な読み込みは推奨されません。 2. **計画 (plan.md)** – コードスニペット、ファイルパス、トレードオフ、および説明を含む別のマークダウン計画が用意されます。組み込みのプランモードは拒否され、この編集可能なドキュメントが採用されます。 3. **注釈サイクル** – ユーザーはエディタで計画をレビューし、インラインメモや制約を追加して「まだ実装しない」ガード付きで再送します。このサイクルは計画が完全に受理されるまで繰り返されます。 4. **実行** – 実装前に詳細なTODOリストが計画に追加されます。その後、著者は固定プロンプト「implement it all…」を発行し、Claude にすべてを実行させ、計画内の完了状況を更新させ、不必要なコメントや未知のタイプを避け、型チェックを継続的に実行させます。 5. **修正** – 実行中にユーザーは簡潔な修正(多くの場合単一文)を提供します。フロントエンドでの修正にはスクリーンショットや既存パターンへの参照が含まれる場合があります。 6. **制御と永続性** – 著者はアーキテクチャ的なコントロールを決して手放しません。Claude の提案を評価し、必要に応じて変更またはスキップします。3つのフェーズすべてが単一の長時間セッションで行われ、計画ファイルは自動圧縮を通じて保持され、主要な参照として機能します。 マークダウンファイルを共有可変状態として維持することで、このアプローチはノイズの多いチャットインタラクションを減らし、追跡性を向上させ、大規模プロジェクト全体で一貫したインターフェースを保ちます。

2026/02/22 9:21

**回答** 実際には、ほとんどの最新コンパイラは「決定的(deterministic)」です。 同じソースコードと同一のコンパイルオプション(使用するコンパイラのバージョンや基盤となるプラットフォームを含む)を与えれば、何度実行しても同一のオブジェクトファイルまたはバイナリが生成されます。 ただし、いくつか注意すべき点があります。 | 要因 | 決定性への影響 | |------|----------------| | **コンパイラ実装** | よく設計されたコンパイラは決定的ですが、不具合のあるものではそうでない場合もあります。 | | **ビルド環境** | OS、CPU アーキテクチャ、またはライブラリのバージョンが異なると、ソースコード自体に変更がなくても出力が変わることがあります。 | | **非決定的なパス** | 例としてランダム化されたレジスタ割り当てなど、一部の最適化は性能調査のために意図的にばらつきを導入します。 | | **タイムスタンプ/ビルドメタデータ** | バイナリにはしばしばタイムスタンプやビルド識別子が埋め込まれます。 これを削除(例:GCC/Clang の `-Wl,--build-id=none`)すると、バイト単位で完全に同一の出力が得られます。 | したがって、環境を統制し安定したコンパイラリリースを使用すれば決定的な結果が期待できます。 セキュリティや監査目的で確実な再現性が必要な場合は、**Reproducible Builds** のようなツールを使い、非決定的データを除去する手順を踏むと良いでしょう。

## Japanese Translation: 記事は、ソフトウェアビルドにおける真の決定論が実現しづらい理由を説明しています。入力状態のすべての部分―ソースコード、コンパイラフラグ、ツールチェーンバイナリ、環境変数、ファイルシステムレイアウト、ロケール、クロック、カーネル動作、さらにはハードウェア並列性までも―を完全に指定しなければ、「ノイズ」が出力の漂移を引き起こします。 再現可能ビルドの実践は、ツールチェーンを凍結し、タイムスタンプを正規化(`SOURCE_DATE_EPOCH`)、揮発性メタデータを除去し、`-ffile-prefix-map` でパスを標準化し、ヘルミティックコンテナ内でビルドし、アーカイブを決定的に作成(`ar -D`)することでこれらの問題を緩和します。そうしても、GCC 18574 のようなバグが示すように、内部ポインタハッシュの不安定性は同一ソースから生成されるコードを変化させる可能性があります。 コンパイラ契約はビット単位での同一性ではなく、セマンティクス(観測可能な I/O、揮発性アクセス、アトミック保証)の保持に焦点を当てています。不定動作がこの保証を弱めるため、再現可能ビルドはより厳格な要件となります。`__DATE__/__TIME__` のようなエントロピー源、デバッグ情報内の絶対パス、ロケール依存のソート(`LC_ALL`)、並列ビルドの競合順序、ランダムシード、ネットワークフェッチはすべて再現性を破る要因となり得ます。ASLR がコンパイラパスに間接的に影響することも同様です。 歴史的には、2013 年以降の Debian の再現可能ビルド取り組みが、同一ソースから同一アーティファクトを作ることを主流化し、コンパイラ・リンカ・パッケージング・ビルドシステム全体で意図的な設計が必要であることを示しています。 将来に向けて、記事は LLM で支援される開発チームが決定論的検証ゲート―制約付き入力、テスト可能な出力、再現性のある CI パイプライン―を導入して信頼できるデプロイを確保する必要があると主張しています。完全な決定論は必須ではありませんが、予測可能な振舞いと検証可能性は本番システムに不可欠です。 主要な結論は、多くのエコシステムが多くの境界ケースで意図的な取り組みを通じて再現可能ビルドをサポートしているということですが、Ken Thompson の「Reflections on Trusting Trust」からの根本的な警告は残ります―コンパイラは信頼できるように見えても妥協され得るのです。

2026/02/22 5:57

**HN掲示:NVMe→GPU バイパスでCPUを経由せず、単一のRTX 3090上でLlama 3.1 70B を動作させる**

## Japanese Translation: **NTransformer** は、依存関係のない軽量 C++/CUDA エンジンであり、ユーザーが PCIe 上でモデル層をストリーミングし、オプションで高速直接 I/O 用に NVMe を使用することで、70 B 変種を含むフルサイズ Llama モデルをコンシューマ GPU 上で直接実行できるようにします。 - **Resident mode(レジデントモード)**:Llama 3.1‑8 B Q8_0 は 10 GB の VRAM だけで 48.9 トークン/秒を達成し、tiered‑auto モードは 10.3 GB を使用して 48.8 トークン/秒を提供します。 - **70 B model(70 B モデル)**:ストリーミング(mmap)のみでは非常に遅く (0.006 トークン/秒、7.3 GB)、tiered auto はスループットを 0.2 トークン/秒まで向上させ、23.1 GB を消費します。Q4_K_M のレイヤー・スキップを使用すると速度が 0.5 トークン/秒に上昇し、わずか 22.9 GB で済みます。これは単一 RTX 3090 + 48 GB RAM システムでのプレーン mmap に対して 83 倍速です。 - **Bandwidth bottleneck(帯域幅ボトルネック)**:PCIe Gen3 x8 (~6.5 GB/s) がデータ転送を制限します。Q4_K_M は VRAM に 10 層多く収容でき (36 層対 26 層)、tier‑B 転送が削減され、スループットが向上します。 - **Layer‑skip(レイヤー・スキップ)**:コサイン類似度キャリブレーションを使用して、1 トークンあたり 20–80 層を最小限の品質低下でスキップし、大規模モデルの推論速度を向上させます。 - **Architecture(アーキテクチャ)**:3 タイヤの適応型キャッシュが VRAM‑resident、ピン留め RAM、および NVMe/mmap タイヤを自動的にサイズ決定します。エンジンはすべての GGUF 量子化 (Q4_0, Q8_0, Q4_K_M, Q5_K, Q6_K, F16, F32) をサポートし、レジデント、tiered‑auto、layer‑skip、および self‑speculative decoding の 4 種類の自動選択データパスを提供します。 - **System requirements(システム要件)**:Linux (Ubuntu kernel 6.17+)、CUDA 13.1、gcc‑14/g++‑14、CMake 3.24+、NVIDIA GPU CC 8.0+ (RTX 3090 テスト済み)。直接 I/O 用に別の PCIe スロットに NVMe SSD が必要です。セットアップスクリプトはカーネルモジュールをパッチし、AMD IOMMU を無効化し、NVMe を VFIO にバインドします(DMA 分離について注意)。 - **NVMe‑direct pipeline(NVMe 直接パイプライン)**:各層 (~670 MB for 70 B Q6_K) は約 202 ms の NVMe コマンドで CUDA‑ピン留めステージングメモリに読み込まれ、非同期 DMA により GPU バッファへ転送され、デュアルバッファ間で計算と重ね合わせて実行されます。 - **Roadmap(ロードマップ)**:完成済みフェーズ—基盤、SLEP ストリーミング、最適化、NVMe direct。今後の作業には speculative decoding の仕上げと公開 C API の追加が含まれます。 NTransformer は、大規模モデルをコストの高いサーバーインフラなしでコンシューマ GPU 上にローカル実行できるようにすることで、推論コストを低減し、オンプレミス AI サービスのレイテンシを削減し、研究・産業界全体での採用拡大を促進します。