シグナルのリーダーは、エージェント型 AI が不安定かつ信頼できない監視リスクを生むと警告しています。

2026/01/14 3:35

シグナルのリーダーは、エージェント型 AI が不安定かつ信頼できない監視リスクを生むと警告しています。

RSS: https://news.ycombinator.com/rss

要約

Japanese Translation:

Signal のリーダーは、オペレーティングシステムレベルでエージェント型人工知能(AI)を埋め込むことが深刻なプライバシーおよびセキュリティ脅威をもたらすと警告しています。彼らは、Microsoft の Windows 11 「Recall」機能に代表される現在の防御策では、ユーザーを悪意ある利用から保護できないと主張します。エージェント型 AI はシステムデータへの深いアクセスが必要であり、脆弱性を生み出します;Recall のフォレンジックデータベースはマルウェアによってアクセス可能で、エンドツーエンド暗号化を迂回できます。高精度のエージェントでも複雑なタスクに対しては約 70 % の失敗率があることが研究で示されています。この警告は、「AI エージェント、AI スパイ」というテーマで開催された第39回カオス・コミュニケーション会議(ハンブルク)で提示されました。Signal は、エージェント型 AI の無謀な展開を停止し、マルウェアによるプレインテキストデータベースアクセスを禁止し、オプトアウトをデフォルトに設定し、必須のデベロッパー・オプトインを課すこと、および根本的な透明性と細分化された監査可能性を要求しています。これらの対策を無視すると、消費者信頼が損なわれ、ユーザーはプライバシー侵害にさらされ、規制当局からの監査対象となり、企業の評判が低下し、最終的には広範な AI 受容が遅れる可能性があります。

Summary Skeleton

What the text is mainly trying to say (main message)
Signal のリーダーは、OS レベルでのエージェント型 AI が深刻なプライバシーとセキュリティリスクをもたらすと警告しています。彼らは、Microsoft の Windows 11 「Recall」のような現在のシステムがユーザーを悪意ある利用から保護するには不十分だと主張します。

Evidence / reasoning (why this is said)

  • エージェント型 AI は自律的に行動するために深いデータアクセスが必要であり、脆弱性を生み出す。
  • Recall のフォレンジックデータベースはマルウェアによってアクセス可能で、エンドツーエンド暗号化を迂回できる。
  • 確率計算では、高精度のエージェントでも複雑なタスクに対して失敗率が約 70 % に達することが示されている。

Related cases / background (context, past events, surrounding info)

  • Signal のリーダーは、ハンブルクで開催された第39回カオス・コミュニケーション会議で「AI エージェント、AI スパイ」というタイトルの下で発表した。
  • Microsoft の Recall 機能はスクリーンショットを取得し、OCR を行い、詳細な活動ログをローカルに保存する。
  • 画面録画フラグなど既存の緩急的対策は、一時的な不十分な修正とみなされている。

What may happen next (future developments / projections written in the text)
Signal は、無謀なエージェント型 AI の展開を停止し、マルウェアによるプレインテキストデータベースアクセスを禁止し、オプトアウトをデフォルトに設定し、必須のデベロッパー・オプトインを課すこと、および根本的な透明性と細分化された監査可能性を要求している。これらの対策を採用しない場合、消費者信頼が損なわれる。

What impacts this could have (users / companies / industry)
警告を無視すると、ユーザーはプライバシー侵害と制御喪失のリスクにさらされる。企業は規制当局からの監査や評判の損傷に直面し、広範な AI 業界は公衆信頼の低下により採用が遅れる可能性がある。

本文

Signal は、OS レベルでのエージェント型 AI が深刻なプライバシーリスクをもたらすと警告

OS レベルに組み込まれたエージェント型 AI により、データベースはユーザーのデジタル生活全体を保存し、マルウェアがそれへアクセスできるようになります。各ステップでパフォーマンスが低下するためタスクが不安定になり、ユーザーは多くの場合同意なしにオプトインされます。Signal のリーダーシップは業界に対し、脅威が軽減されるまで撤退を促す警鐘を鳴らしています。


第39回カオス・コミュニケーション会議(39C3)– ドイツ・ハンブルク

Signal 社長 Meredith Whittaker と戦略&グローバルアフェアズ担当副社長 Udbhav Tiwari「AI エージェント、AI スパイ」 を発表しました。彼らは次の点を強調しました。

  • 現行エージェント型 AI 実装における脆弱性
  • 企業への実際的な脅威
  • 大災害を回避するための業界変革提案

“AI エージェント、AI スパイ” は Meredith Whittaker と Udbhav Tiwari が 39C3 で発表 – CC BY 4.0


AI エージェントに関する主なポイント

  • AI エージェントは、あなたについて十分な情報を知り、購入・スケジューリング・メッセージングなどの機密データへアクセスできる必要があります。
  • 現在の実装は不安定で信頼性が低く、監視に対しても脆弱です。

AI エージェントが脅威に対してどのように脆弱か

Microsoft の Windows 11 Recall 機能:

  • 数秒ごとに画面をスクリーンショット
  • OCR でテキストを抽出し、文脈やアクションの意味解析
  • ローカルデータベースに法医学的ファイルを構築:
    • アクションの正確なタイムライン
    • OCR による全文(原文)
    • 各アプリ/アクションへの注視時間
    • 活動に割り当てられたトピック

Tiwari はこの手法が 次を軽減しない と指摘します:

  1. オンライン攻撃によるマルウェア
  2. 隠されたプロンプト・インジェクション攻撃

どちらもデータベースにアクセスし、エンドツーエンド暗号化(E2EE)を回避できる可能性があります。Signal は画面録画防止フラグを追加しましたが、Tiwari は長期的・信頼できる解決策ではないと述べています。


複雑なエージェント型タスクが信頼できない理由

Whittaker はエージェント型 AI が:

  • 確率的であり、決定論的ではない
  • 各ステップで精度が低下し、最終アクションまで影響が拡大

と強調します。

例:

ステップごとの精度10 ステップタスク成功率30 ステップタスク成功率
95 %約 59.9 %約 21.4 %
90 %約 48.7 %約 4.2 %

最高クラスのモデルでも 70 % の失敗率があります。


AI エージェントをプライベートかつ安全にする方法

Whittaker は、現在のところプライバシー・セキュリティ・コントロールを保証できるソリューションはなく、トリアージしか存在しないと述べています。企業が直ちに取れる対策:

  1. テキストデータベースへの露出 を伴う無謀なエージェント型 AI の展開を停止
  2. デフォルトでオプトアウトを設定し、開発者は必ずオプトイン
  3. すべての仕組みについて極端に透明性を確保し、詳細レベルで監査可能にする

結論

業界が Whittaker と Tiwari の警告を無視すると、エージェント型 AI 時代は危機に瀕します。既に過大評価・過投資されている技術への消費者の信頼は急速に失われる可能性があります。


Jon Henshaw
Coywolf 創業者;SEO、デジタルマーケティング、ウェブテクノロジーで約30年の経験を持つ業界ベテラン。 @jon@henshaw.social をフォローしてください

同じ日のほかのニュース

一覧に戻る →

2026/01/14 5:45

**ゲームズ・ワークショップ、スタッフのAI使用を全面禁止 経営陣はテクノロジーに興味津々でない** - 同社は従業員が業務上人工知能ツールを利用することを一律で禁じる方針を採用しました。 - 経営層は知的財産の安全性や創造的コントロールへの影響を懸念していると述べています。 - 業界内では注目が集まっても、上級経営者はAIがデザイン・生産フローに与えるメリットに対し慎重な姿勢を保ち続けています。

## Japanese Translation: **改善された概要** Games Workshop は、コンテンツ制作と設計プロセスにおける生成型 AI ツールの使用を正式に禁止しました。この方針では、厳格な監視下で数名の上級マネージャーのみが AI を実験できるようになっていますが、その可能性についてはまだ誰も興奮していません。外部コンペティションへの参加を含む不正使用は禁止されており、企業はデータ準拠・セキュリティ・ガバナンスを監視し、AI/ML エンジンがデバイスに自動インストールされるのを防止する必要があります。 GW の禁止措置は知的財産権を保護し、人間クリエイターを尊重するとともに、上級スタッフによる限定的な調査を許可しています。この決定は、より広い文脈の中で行われました。GW は *Warhammer 40,000* や *Age of Sigmar* などのフラッグシップテーブルトップタイトルを所有し、高品質のコデックス本・ミニチュア・アニメーションを販売しており、最近は新規採用で Warhammer Studio を拡大しました。Displate の作品に関する最近の紛争―Displate がそのアートワークが AI によって生成されたと否定し、「赤旗」を人為的なミスに帰せたケース―は、ファンが生成型 AI アートに対して反発していることを示しています。特に Warhammer の美学に大きな影響力を持つアーティスト John Blanche の存在がその背景にあります。 今後も GW はデータ準拠とセキュリティの監視を継続します。上級マネージャーは AI の可能性を探るかもしれませんが、内部方針の変更や外部圧力が変わらない限り、広範な採用は見込めません。この禁止措置により GW は Genvid、EA、Square Enix など AI を積極的に導入している競合他社に比べて遅れを取ることになり、ゲーム開発の競争ダイナミクスが変わる可能性があります。これは生成型 AI の統合に対する業界全体の慎重な姿勢を反映しています。

2026/01/14 2:10

**チューリップ・クリエイティブ・コンピュータ** - 芸術と技術のユニークな融合 - 革新的なビジュアル体験を設計 - 鮮やかなカラーパレットと最先端ハードウェアを組み合わせる

## 日本語訳: **Tulip CC** は低電力で手頃な価格のセルフコンテインドポータブルコンピュータで、オープンソースの音楽ワークステーションとしても機能します。ESP32‑S3マイクロコントローラを中心に構築され、MicroPython を実行し、AMY ステレオ 120 ボイスシンセサイザーエンジン(加法/減法/F‑M 合成、サンプラー、Karplus–Strong、アナログフィルタ、シーケンサー、ドラムマシン、パッチエディタ)とキャパシティブ・マルチタッチ対応のタッチスクリーンディスプレイを備えています。 デバイスは 8.5 MB の RAM(MicroPython 用 2 MB、OS 用 1.5 MB、残りがグラフィックスフレームバッファ)と 32 MB のフラッシュ(うち 24 MB が使用可能)、Wi‑Fi、USB キーボード/マウス/MIDI、I²C/Grove/Mabee コネクタをセンサーや周辺機器用に搭載し、組み込みの pico/nano スタイルエディタ(構文ハイライトと REPL)も備えています。グラフィックスは LVGL によって処理されます:テキストフレームバッファ 128 × 50(ANSI 256 色)、スキャンラインあたり最大 32 スプライト(32 KB ビットマップメモリ)、1024 × 600 の背景フレームバッファでスクロール、PNG ローディング、デフォルト 30 FPS、解像度調整可能、256 色。 電力消費は 5 V で 575 mA(中程度の輝度)で、LiPo、18650、または USB バッテリーパックに対応しています。追加ソフトウェア機能として、ネイティブチャット/ファイル共有 BBS「TULIP ~ WORLD」、MIDI 入出力コールバック、およびクリエーションの共有用 Web バージョンがあります。 Tulip CC は市販ユニット、DIY ハードウェアキット、フル機能の Web アプリ、またはネイティブデスクトップアプリ(Mac/Linux/WSL)として入手可能です。開発リソース—完全な API ドキュメント、チュートリアル、Discord コミュニティ、およびオープンソース GitHub リポジトリ—が提供されており、埋め込みデバイスとデスクトップ環境の両方で動作するために貢献が必要です。将来のファームウェア更新では、合成モジュールの拡張、LVGL を介したグラフィックス解像度の向上、および電力効率の改善がコミュニティの入力を受けて行われる可能性があります。

2026/01/14 1:22

「二つの頭(=複数の視点)が一つより優れているのでしょうか?」

## Japanese Translation: ## 要約 コイントスの結果を時折だけ報告する人々がいる場合、報告者数が奇数であると予測精度が向上し、さらに1人追加して偶数にすると追加効果は得られないという点が主旨です。 シミュレーションと解析的な検証から次のように示されています:正直な友人(80 % 正解率)を1人だけ持つ場合、2人目を加えても精度は80 %のままであり、合意しても不一致が相殺されるため利益がありません。3人目が参加すると精度は90 %に上昇し、4人目が加わると再び90 %に戻ります。このパターンは奇数回報者ごとに繰り返されます。 この発見はコンドルセートの陪審理論を反映しており、偶数規模のグループでは多数決が引き分けになる可能性があるため、新たな情報を提供しないことを説明しています。著者は、創造的執筆プロジェクトを開催するプログラミングリトリート「Recurse Center」でベッティングシミュレーションを実行している際にこの現象に気付きました。 今後の研究では、この傾向がより複雑な投票設定や大規模グループでも維持されるかどうかを検証することが期待されます。グループサイズと偶奇性が意思決定品質に与える影響を理解することで、クラウドソーシングサイト、陪審制度、または人間の判断を集約するあらゆるプラットフォームの設計者が、不必要な偶数参加者を追加しないよう助けることができます。

シグナルのリーダーは、エージェント型 AI が不安定かつ信頼できない監視リスクを生むと警告しています。 | そっか~ニュース