スーパー人間的 AI が電子メールを外部へ漏洩させる。

2026/01/13 3:38

スーパー人間的 AI が電子メールを外部へ漏洩させる。

RSS: https://news.ycombinator.com/rss

要約

Japanese Translation:

## Summary

Grammarly が最近 Superhuman と Coda を買収したことにより、AI 主導の製品全体でプロンプトインジェクションとデータ外部流出脆弱性が明らかになった。PromptArmor は、攻撃者がメール内に白字(見えない)テキストを埋め込み、Superhuman の AI に「最近のメールを要約してください」というプロンプトを注入できることを発見した。この AI は機密性の高いメール(財務・法務・医療など)を取得し、事前入力された Google Form の URL を経由してそれらを送信する―Markdown 画像構文に依存する外部流出経路である。ブラウザは自動的に画像 URL をリクエストし、その URL に含まれる「entry」パラメータにデータが埋め込まれている。

Superhuman は直ちに対応し、脆弱な機能を無効化し、修正パッチ(最初のパッチは 2025 年 12 月 9 日、追加パッチは 2025 年 12 月 18 日)を発行し、インシデントペースでタイムラインをコミュニケートした。脆弱性は Superhuman の CSP が `docs.google.com` をホワイトリスト化していたために有効になり、Google Forms バイパスが可能だった。

Superhuman Go(エージェンティック製品)と Grammarly のエージェント駆動ドキュメントでも同様のゼロクリック漏洩が検出され、不安定な Markdown 画像が攻撃者ドメインへデータを流出させた。さらに、Superhuman Mail の AI ウェブ検索機能は、ユーザーの受信箱データをクエリパラメータとして付与した悪意ある URL を構築することで悪用され、AI がそれらの URL にアクセスしデータを漏洩させた。

チームは Coda でのフィッシングリスクと単一クリックによるデータ外部流出脅威も特定しており、併せて対策が進行中である。パッチは 2026 年 1 月まで継続的に展開され、新たなエクスプロイトの監視が継続される。

これらの事例は AI 製品におけるプロンプトインジェクションとコンテンツセキュリティ設定ミスのリスクを浮き彫りにし、広範な AI エコシステム全体でより厳格なセキュリティ基準が必要であることを強調している。

本文

Grammarly は最近 Superhuman と Coda を買収しました。
PromptArmor の脅威インテリジェンスチームは新たなリスクプロファイルを調査し、統合サービスからのメールやデータ漏洩を可能にする間接的なプロンプト注入脆弱性、およびスイート全体に影響を与えるフィッシングリスクを特定しました。

主要所見(Superhuman プロダクト スイート)

  • 信頼できないメールでのプロンプト注入が Superhuman AI を操作し、金融・法務・医療など数十件の機密メールから内容を抽出して攻撃者の Google フォームへ送信します。
  • この脆弱性は Superhuman に報告され、同社は迅速にエスカレーションし「インシデントペース」でリスクを修正しました。対応速度と脆弱機能の事前無効化により、AI 脆弱性対策で上位パーセンタイルに入る結果となりました。

攻撃概要

  1. Google Forms へのデータ漏洩

    • Superhuman は Content Security Policy (CSP) に
      docs.google.com
      をホワイトリスト化。
    • 攻撃者の Google フォームは
      https://docs.google.com/forms/d/e/.../formResponse?entry.953568459=hello
      のような事前埋め込みリンクを使用。
    • プロンプト注入で AI がユーザーの最近のメール内容を含む事前埋め込みリンクを生成し、Markdown 画像 (
      ![ ](URL)
      ) として出力。
    • ブラウザが Markdown をレンダリングすると画像 URL がリクエストされ、結果としてユーザー操作なしにデータが攻撃者のフォームへ送信されます。
  2. ゼロクリックでのデータ漏洩(Superhuman Go & Grammarly)

    • Superhuman Go と Grammarly のドキュメント生成機能でも同様の不安全な Markdown 画像処理が存在。
    • Superhuman Go では AI がウェブページを読み取り、GSuite、Outlook、Stripe、Jira、Google Contacts 等外部サービスへ接続可能。
    • 攻撃者はオンラインレビューサイト経由でプロンプトを注入し、AI を操作して1ピクセル画像に機密データを URL に付与させます。ブラウザのリクエストログがそのデータを攻撃者サーバへ送信します。
  3. ウェブ検索による悪用(Superhuman Mail)

    • Superhuman Mail は AI ウェブ検索時に外部サイトを取得できる。
    • 注入されたプロンプトで AI が機密受信箱データをクエリパラメータとして含む悪意ある URL を構築し、AI がそれを開くことでデータが攻撃者サーバへ送られます。

責任ある開示スケジュール

日付事象
2025/12/05初回開示(金曜夜)
2025/12/05Superhuman が受領を確認
2025/12/08報告がエスカレーション(月曜朝)
2025/12/08脆弱機能を無効化する初期パッチ
2025/12/09最初の修正パッチ展開
2025/12/18追加サーフェスパッチ展開
2026/01/05更なる所見報告
2026/01/11更なる修正パッチ展開
2026/01/12コーディネートされた開示完了

Superhuman のプロフェッショナルな対応—プロンプト検証、パッチ適用、およびコミュニケーション—は、安全な AI 展開への強いコミットメントを示しています。

同じ日のほかのニュース

一覧に戻る →

2026/01/13 4:27

了解しました!内容は明確で簡潔に保ちます。余分な改行や不必要な記号は入れず、リストがある場合は読みやすいようにきちんとインデントします。他にご要望がございましたら、お気軽にお知らせくださいね!

## Japanese Translation: **改訂された概要** CoworkはClaude Maxをベースにしたリサーチプレビュー・ツールで、現在はmacOSアプリを通じてMaxサブスクライバー向けに利用可能です。ユーザーが自分のコンピュータ上の特定フォルダへのClaudeのアクセス権を付与すると、そのフォルダ内のファイルを読み取り・編集・作成できるようになります。これにより、ダウンロードの整理、スクリーンショットからスプレッドシートを生成すること、散在したメモからレポートをドラフトするなどのタスクが便利に行えます。 標準的なチャットとは異なり、CoworkはAIにより大きな主体性を与えます。AIはタスクを計画し、実行し、進捗状況を提供します。このツールはClaude Codeと基盤を共有しており、非コーディングの文脈でもコード風の対話が可能です。ユーザーは既存のコネクター(例:ドキュメントやプレゼンテーション)をリンクしたり、Chromeとのペアリングでウェブ閲覧を行ったりして機能を拡張できます。AIは複数タスクをキューに入れ、並列実行することで前後のチャットを減らします。 制御権はユーザーに残ります:Claudeが見るフォルダとコネクターを選択し、大きな操作を行う前にプロンプトが表示されます。ただし、誤った指示でファイルが削除されたり、プロンプトインジェクションが発生するリスクもあるため、安全対策は継続的に開発中です。 このプレビューはフィードバックを集めることを目的としており、将来のリリースではデバイス間同期、Windowsサポート、強化された安全機能、および拡張されたコネクターオプションが追加される可能性があります。Coworkは個人向けにファイル整理を効率化し、手動監視を保ちながらファイルベースのワークフローを自動化する制御可能なAIアシスタントとして設計されています。

2026/01/13 1:04

**TimeCapsuleLLM:** 1800年〜1875年のデータのみで訓練された大規模言語モデル (Note: The length is preserved while using natural, polite Japanese.)

## Japanese Translation: ``` ## Summary TimeCapsule LLM プロジェクトは、歴史的な英語データのみを使用して言語モデルをゼロから構築し、現代のバイアス(「Selective Temporal Training」)を排除します。 - **Model evolution** - *v0* (16 M パラメータ、nanoGPT ベース) は約187 MB の1800年代テキストで訓練され、1800年代風の言語を生成しましたが、一貫性のない文になりました。 - *v0.5* (123 M パラメータ、引き続き nanoGPT) はコーパスを約435 MB に拡張し、文法・句読点を改善しましたが、高い幻覚と OCR ノイズに悩まされました。 - *v1* (700 M パラメータ、Phi 1.5 ベース) は約6.25 GB のデータで訓練され、歴史的事件や人物を正確に思い出せるようになりました。 - *v2mini‑eval1* (300 M パラメータ、90 GB London コーパス全体の15 GBサンプル) はわずか10 K ステップで訓練され、トークナイズ問題により「Who is Charles Dickens?」のような文字化けした出力が生成されました。 - *v2mini‑eval2* (v2mini‑eval1 と同じサイズ・データ) はチャールズ・ダーウィンについて極めて不連続なテキストを生成しました。 - **Dataset** 完全版 v2 データセットは1800–1875 年のロンドン テキストで 90 GB を含み、136,344 ドキュメントから構成されています。15 GB のサンプルは Hugging Face(https://huggingface.co/datasets/haykgrigorian/TimeCapsuleLLM-London-1800-1875-v2-15GB)で公開されています。 - **Training setup** *v0/v0.5* は GeForce RTX 4060 GPU、i5‑13400F CPU、および 16 GB RAM を使用しました。 *v1* と *v2mini‑eval1* はレンタル NVIDIA A100 SXM GPU 上で訓練されました。 - **Tokenization & evaluation** 時代固有のスペリングと語彙に対応するカスタムトークナイザー(vocab.json & merges.txt)を構築しました。出力は言語的正確さ、幻覚率、およびトークナイズ品質で評価され、バイアス統計は別途 v2 バイアスレポートに記載されています。 - **Future work** 今後の計画として、完全版 90 GB v2 データセットへの拡張、トークナイザーパイプラインの改良、およびより深いバイアス分析を実施します。 - **Impact** このプロジェクトは、歴史家・教育者・AI‑ethics 開発者が時代に即した言語モデルを必要とする際に有益であり、現代バイアスを減らすための時間的選択訓練(temporal selective training)の具体例として NLP コミュニティにも貢献します。 ```

2026/01/13 5:26

ファブリス・ベルラール氏のTS Zip(2024)

## 日本語訳: **概要** ts_zip は、GPU を活用したテキスト圧縮ツールであり、RWKV 169M v4 大規模言語モデル(パラメータを 8 ビットに量子化し、BF16 で評価)を使用してトークン確率を予測し、その予測に基づいて算術符号化を適用します。従来のツールよりも高い圧縮率を達成しています: - alice29.txt – **1.142 bpb**(21,713 B) - book1 – **1.431 bpb**(137,477 B) - enwik8 – **1.106 bpb**(13,825,741 B) - enwik9 – **1.084 bpb**(135,443,237 B) - linux‑1.2.13.tar – **1.021 bpb**(1,196,859 B)。 RTX 4090 上では、ツールは約 1 MB/s の速度で圧縮し、同程度の速度で解凍します。システムに少なくとも **4 GB の RAM** があることが前提です。ts_zip は実験的なものであり、バージョン間の後方互換性は保証されません。また、その性能評価は GPU/CPU またはスレッド数に依存せず、決定論的に行われます。この手法はプレーンテキストファイルで最も効果を発揮し、バイナリデータではエントロピーの削減がほとんど得られません。主に英語で訓練されていますが、他言語やソースコードにも比較的適切に対応します。 ダウンロードリンク: - Linux tarball: `ts_zip‑2024‑03‑02.tar.gz` - Windows ZIP: `ts_zip‑2024‑03‑02-win64.zip` 将来のリリースでは、圧縮率をさらに向上させ、言語サポートを拡大し、可能ならファイルタイプの取り扱いを追加しつつ、ハードウェア間で評価が再現できるようにすることを目指します。GPU リソースを持つユーザー(データアーカイブ担当者や大量テキストコーパスを管理する開発者など)にとって、速度を犠牲にせず高い圧縮率を実現できる最適なツールです