
2026/04/16 19:48
AI セキュリティーが、PoW(プルーフ・オブ・ワーク)によって証明されるものではない。
RSS: https://news.ycombinator.com/rss
要約▶
Japanese 翻訳:
著者は、サイバーセキュリティへの「Proof of Work(コンセンサス・アルゴリズム:作業の証明)」を比喩として用いることは根本的に誤りであると論じます。ハッシングが単なるリソース消費に依存するのに対し、ソフトウェアのバグを見つけるには、言語モデルの知能が複雑なコード状態を飽和させることが必要であり、単にトークンを生成し続けるだけでは不十分です。LLM の実行が多岐にわたる分岐を探求し、コードの状態と意味のあるサンプリング経路が飽和するまで進める過程において、多数回のサンプリングを行っても効果はモデルの知能レベル(I)によって制限され、サンプル数の多寡には依存しません。OpenBSD の SACK バグはその好例を示しています:劣っているモデルは無限にトークンを生成しても、初期ウィンドウの検証欠落と整数オーバーフローがバグの原因となることを認識できない可能性があります。弱いモデルはコードの外観に基づいて表面的な誤りパターンを幻覚しやすい一方、強力なモデルでも特定の洞察がない場合には真の課題を見逃し、理解不足という極端と過度な幻覚という両方の極端で失敗することがあります。したがって、セキュリティの未来は GPU の性能向上やモデル規模の拡大ではなく、複雑なコード経路を正確にナビゲートできる高知能モデルへのアクセスによって支えられることになります。この転換に背いてトークン数の最大化だけを重視する企業は、根本的なバグを見逃す可能性があり、次世代のセキュリティ課題を効果的に解決するためには、優れたモデル能力が不可欠であることが証明されます。
本文
antirez 13 時間前、48,895 の閲覧数。
ポワロンの定理に基づく「ワークプーフ」の類推は誤りです。ハッシュ衝突を発見する作業は N に比例して指数関数的に困難になりますが、十分な計算資源を投入すれば、必ずある入力 S を見つけ出して H(S) が条件 N を満たすことを保証できます。したがって、利用可能なリソースに非対称性がある場合、いずれもより多くの「作業能力」を有する側が勝利します。
一方、バグの発見は全く異なります:
- 異なる大規模言語モデル(LLM)の実行ではコードの異なる分岐が行われますが、最終的にはコードの状態空間における可能な分岐すべてが飽和してしまいます。
- もし与えられたコード M に対して、特定のバグを検出するためモデルを N 回サンプリングすると仮定した場合、N が十分大きければ、限界は単に「M」ではなくなります(コードの状態飽和と、LLM サンプラーが探る意味のある経路の両方によるため)。むしろ限界は「I」、つまりモデルの知性レベルに依存します。
OpenBSD の SACK バグはこれを明確に示しています。劣質なモデルを無限に多くのトークンで実行しても、初期ウィンドウのバリデーション欠如(開始位置 < 終了位置という理論上無害な制約)と整数オーバーフロー問題、そして「ノードが NULL になるべきではない分岐が無条件に入力される」という事実が組み合わさってバグを発生させることを理解することは決して起こりません。
したがって、将来のサイバーセキュリティは「GPU が持つ計算資源が多い方が勝つ」というワークプーフ的な意味ではなく、「より高品質なモデルとそのアクセス速度」によって決定されます。
(※ 弱いモデルでも OpenBSD の SACK バグを発見できるという主張には信用できません。私は実際に試しました。何が起きているかを以下に説明します。弱いモデルは実際問題と因果関係が正しいかどうかに関わらず、初期ウィンドウのバリデーション欠如(理論上無害)や整数オーバーフローといった問題があると幻覚的に結論づけてしまいますが、これらが組み合わさるとなぜ問題になるのかを理解していないのです。単に「バグのクラスに似ているコード」というパターンのみで、実際の問題の本質を理解せず、エクスプロイトを作成する能力も欠いています。ご自身でもお試しください。GPT-120B OSS は廉価で入手可能です。)
補足:このバグにおいては、モデルをより強力なものを選ぶほど(ただし真のバグを発見できるレベルまでは)、そのコードに問題があると主張しなくなる傾向が強まります。強力なモデルは幻覚が少ないため、両極端な状況を捉えられません:一方では小型モデルが見せる「幻覚による誤認識」、他方で Mythos の持つ「本物の理解」という側面です。
Disqus を使用したブログコメント機能