**死んだインターネット説**

2026/01/19 5:19

**死んだインターネット説**

RSS: https://news.ycombinator.com/rss

要約

日本語訳:

改訂要約:
この記事は2026年1月18日付で、HackerNews上の第一人称コメントとして書かれており、オンラインコンテンツ―コード、画像、およびソーシャルメディア投稿―がますますAIボットによって生成されていることを警告し、デジタル真偽への信頼が低下していると述べています。記事は、オープンソースプロジェクトのコミット履歴とコメントスタイルが機械生成に見えるというHackerNewsの議論を中心に展開されます。著者は「AIを使わずに100 %で書いた」と主張していますが、批評家は疑わしいタイムラインやLLM風パターン(エムダッシュ、「あなたは完全に正しい」「もし…したいなら教えてください」または「探してみてください…」などの繰り返し)を指摘します。記事はさらに、歪んだテキストと手書きアーティファクトが見られる“オフィス雰囲気”を描いたLinkedIn投稿を指摘し、従業員が存在しない可能性を示唆しています。同様のAI生成デマはFacebook、X(旧Twitter)、TikTok、およびその他のプラットフォームで報告されており、架空の歴史的人物から政治的誤情報まで多岐にわたります。
著者は「Dead Internet Theory」を引用し、2016年頃以降ほとんどのオンライン交流がSEOや広告のためにボット主導であると主張します。彼らは自身が2000年代初頭にIRCやphpBBフォーラムで実際の人々が交流していた経験と対比させています。記事は、AIの広範なアクセス可能性により、人間の努力なしに低品質な「AI‑slop」を大量生産できる現在を嘆き、将来ボットが知識を浅いセルフヘルプやマーケティングコンテンツへ再利用する時代になることを恐れています。結局、全体的なテーマは、普遍的に生成されたテキスト、コード、および画像によってオンライン空間での真偽への不信が増大しているという点です。

本文

2026年1月18日 発行時間:6分
#テクノロジー #インターネット

先日、唯一のソーシャルネットワーク――HackerNews(実際にはほとんどソーシャルネットワークではない)を閲覧していたところです。オンラインで議論する人たちとのやり取りにうんざりしています。このインターネットの暗い隅は、匿名のテック愛好家・科学者・起業家・インターネットトロールが潜む場所です。

HackerNews が好きなのは、最新のテクノロジー情報(例:Cloudflare が Astro を買収した件)を随時知ることができる点です。Astro チームにとっては喜ばしいニュースですが、私自身も Astro に大変惚れ込んでいるため、ビッグテックが物事を台無しにする恐れがあると同時に悲しくて心配になります。また、政治的な話題はほぼ避けられ、純粋に情報共有の場として機能しています。

その精神で、誰かがオープンソースプロジェクトを共有している投稿を見つけました。人々がプロジェクトに取り組み、それを世界に公開する姿を見るのは素晴らしいことです。実際に何かをリリースし、世間に公開する恐怖を過小評価していると感じます。コメント欄をざっと見たところ、匿名の参加者が「AI 生成度はどれくらいか」といった点でオープンソースプロジェクトの妥当性を疑問視していました。私はポップコーンを手に取り、このスレッドを追い始めました。

さらに指摘が増え、コミット履歴が不自然だとか、コード内に AI 生成コメントがあるなどという声が上がりました。同時に作者はすべてのコメントに返信し、「AI を一切使わずに 100% 自分で書いた」と主張しました。

私自身もコードを書きながら AI の使用を試みましたが、結局は諦めるしかありませんでした。人々が AI を使ってコードを書くこと自体は問題ではないと考えています。しかしオープンソースソフトウェアにおいては、AI の利用を明示するのが公平だと思います。インターネット上の多くは匿名であり、主張や専門性を検証できるケースも少ないです。コード量が増えるほど、誰もが「必要な機能」を AI で生成している状況下では、すべてのコードを検証することは不可能になります。したがって、プロジェクトがどれだけ AI に依存しているかを知る権利は正当です。

結局、LLM は単なる確率的次トークン生成器に過ぎません。シンプルなタスクでは非常に優秀ですが、より難しい問題やエッジケースで大混乱を招く可能性があります。特にドメイン知識を持つ経験豊富なエンジニアがレビューしない限りです。

スレッドを追ううちに、作者のコメントにも AI が生成したようなパターンが見られました:

  • エムダッシュ(—)の使用。ほとんどのキーボードでは特殊キー組み合わせでしか入力できず、多くの人は知りません。Markdown では二重ハイフン
    --
    がエムダッシュに変換されますが、HackerNews ではそうならないためです。
  • 「you are absolutely right」という表現。生きている人間が使うことはほぼなく、私の知る限り一度も出たことがありません。
  • 文末で「let me know if you want to [do that] or [explore this other]」と繰り返す構文。

ページをリフレッシュすると、作者が自ら AI を使用していないと主張しつつ、コードとコメントの両方に AI の痕跡があることを告げられました。正直、自分がおかしくなっているのではないかと思いました。実際にエムダッシュを使う人もいるでしょうし、英語が母国語でなくても「you are absolutely right」というフレーズが自然に聞こえる場合もあります。彼らは本当に生身の人物なのでしょうか?コメントを書いているのはリアルな人間なのですか?

そして私は思い出しました――デッドインターネットという概念です。2016 年頃から、ほとんどの交流がボット同士で行われ、コンテンツは主にマシン生成されて広告や SEO のために使われているという説です。

若かりし頃、私は十数年をインターネット上で過ごし、リアルな人々とチャットしたり学んだりしてきました。2000 年代初頭はボットがほとんど存在せず、一般の非テック層も phpBB フォーラムや匿名ユーザーを知ることはありませんでした。IRC チャンネルでネットワークプログラミング、OS 開発、ゲーム開発、ウェブ開発など数えきれない時間を費やし、それがほぼ二十年にわたる職業となりました。

私はインターネット大学の卒業生です。あの頃は誰と話しているか疑う余地もありませんでした。ホットな女の子だと思っていた相手が実は太った男性だったとしても、少なくとも彼らはリアルでした。今では何が本物なのか分からないままです。LinkedIn にある「オフィスの雰囲気」と「幸せな社員」を投稿した写真を見たとき、その画像が AI 生成であることに気づきました――意味不明なテキストや奇妙な手のアーティファクトが混ざったものです。会社員によって投稿され、他の従業員を示しているはずなのに、AI によって別の現実を描き直されたのでしょう。彼らが存在しない可能性もあります。

これはほんの一例です。私はソーシャルネットワーク(そして HackerNews はそうではありません)を使いませんが、Facebook、X、TikTok で AI が生成したコンテンツに関する恐ろしい話を聞いています――例えばピラミッドを建設した巨大人や、EU を否定してポーランドの良し悪しを語る美少女の短編動画などです。あの日私は悲しく、無力感を覚えました。

AI は一般に容易に利用でき、多くの AI 生成物(AI スロップ)を生み出すことができます。人々はコメントやコードを書く必要がなくなり、AI エージェントに任せれば「you are absolutely right」の名作を次々と生成してもらえます。私は技術とソフトウェアエンジニアリング、および知識共有・コミュニティ形成ができるインターネットの概念を好きです。

当時、悪意ある行為者は存在しました。しかし今日見えるものは、テクノロジーが有用であり続ける未来か、それともボット同士が会話し、人間知識が「あなたの日常問題を解決する10ステップ」へと再利用され、より多くの商品を売り込むための道具に過ぎない未来かを疑問視させます。

同じ日のほかのニュース

一覧に戻る →

2026/01/19 2:40

ガウス・スプラッティング ― A$AP ロッキー「ヘリコプター」ミュージックビデオ

## Japanese Translation: ## Summary: A$AP Rocky の新しい「Helicopter」ビデオは、ライブアクション撮影におけるブレークスルーを示しています。動的ガウシアン・スプラッティング(dynamic Gaussian splatting)という手法により、カメラ映像が即座にレンダリング可能な体積データへ変換されます。56 台の RGB‑D カメラからなる大規模アレイを使用してチームは 10 TB 超の原始映像と約 30 分間の事前レンダリング済みスプラッティングコンテンツを生成しました。Houdini(シーケンス作業)、OctaneRender(ライティング調整)、Blender(レイアウト・プロキシキャッシュ)を組み合わせることで、セット上で数秒以内にショットのプレビューが可能となり、重いポストプロダクション作業に入る前に迅速なクリエイティブ判断を行うことができました。 これは A$AP Rocky の 2023 年に「Shittin’ Me」で実施した NeRF ベースの放射場(radiance fields)実験を踏襲しています。現在のワークフローは、各テイク後すぐにライブ空間フィードバックとメッシュプレビューを提供することで、動的ガウシアン・スプラッティングの最も高度な実世界利用例の一つです。この手法は、体積キャプチャがリアルなモーションを保持しながら、監督に広範なポストプロダクションの柔軟性を提供できることを示しています。 広く採用されれば、この技術はミュージックビデオ、映画、広告などを変革し、セット上のリソース削減、ワークフロー高速化、アーティストやスタジオにとっての創造的可能性拡大につながるでしょう。

2026/01/19 3:01

Flux 2 Klein 純粋 C 推論

## Japanese Translation: ドキュメントは、テキストから画像および画像から画像へのタスクの両方をサポートする純粋なC実装であるFLUX.2‑klein‑4B画像生成モデルについて説明しています。外部依存関係はC標準ライブラリのみで、HuggingFace から小さな Python スクリプト (`pip install huggingface_hub`) を介して VAE、Transformer、Qwen3‑4B エンコーダ、トークナイザを含む約16 GBの事前学習済み重みをロードします。Apple の Silicon 上では Metal Performance Shaders、Linux/Intel macOS では BLAS(OpenBLAS)によるオプションの高速化が可能で、最大約30倍の速度向上と Apple マシン上で自動的に GPU を使用します。 ライブラリは単純な C API (`flux_load_dir`、`flux_generate`、`flux_img2img` など) を公開しており、ユーザーのプロジェクトへリンクできます。サンプルコードではプログラムから画像を生成または変換する方法が示されています。またコマンドライン利用も可能で、例として `./flux -d flux-klein-model -p "prompt" -o out.png`(テキスト→画像)や `-i input.png` と `-t strength` を付けて画像→画像を実行します。オプションには幅/高さ(64–1024 px、16ピクセル単位)、ステップ数(デフォルト 4)、シード、quiet/verbose フラグが含まれます。 プロンプトのエンコード後、Qwen3‑4B エンコーダは自動的に解放され(約8 GB が解放)拡散中のピークメモリを約16 GB に抑えます。複数のプロンプトが同じエンコーダを再利用でき、再ロードは不要です。サポートされる最大解像度は 1024×1024 ピクセル、最小は 64×64 で、VAE のダウンサンプリングにより 16 の倍数に制限されています。 MIT ライセンスの下で配布されるこのパッケージは、軽量かつ依存関係がないため組み込みシステム、高性能サーバー、クロスプラットフォームアプリケーションに適しています。オープンソースおよび商用プロジェクトの両方で広く採用されることを奨励します。

2026/01/18 17:18

ソーシャル・ファイルシステム