
2026/03/18 5:24
メタ社とTikTokは、告発者の証言によれば、エンゲージメントを高めるために有害コンテンツが蔓延することを許容していた。
RSS: https://news.ycombinator.com/rss
要約▶
Japanese Translation:
(主要ポイントをすべて組み込む):**
内部告発資料によると、Meta(フェイスブック/インスタグラム)およびTikTokの上級リーダーは、エンゲージメントを高めるために意図的にコンテンツモデレーション規則を緩和し、子供の安全よりも政治的影響力を優先していることが明らかになっています。Meta のエンジニアは、この方針転換を株価下落と結び付けており、内部ダッシュボードでは TikTok のシステムが子供に害を与える投稿の報告よりも政治的苦情を優先していることが示されており、これは強固な政府関係を維持するための戦略です。
Meta は 2020 年に十分な保護策なしで Instagram Reels を開始しました。内部調査では Reels がメインフィードよりも 75 % 多いいじめ/嫌がらせ、19 % 多いヘイトスピーチ、および 7 % 多い暴力コンテンツを含んでいることが判明しました。Meta は Reels のために 700 名のスタッフを雇用したものの、子供保護または選挙公正のための追加安全チームメンバーの採用を拒否しました。アルゴリズムは怒りで駆動されるエンゲージメントを最大化するよう設計されており、利益動機と企業ミッションとの間に不整合が生じています。
TikTok はその技術が有害なコンテンツの閲覧を防止し、内部告発者の主張を「捏造」としていると主張しています。同社のスポークスパーソンは子供安全ケースの優先順位低下を否定し、ティーンアカウント用に 50 件以上の事前設定された安全機能があることを強調しています。しかし、TikTok の信頼・安全担当者 Nick は、モデレーションチームが AI に置き換えられたことで、高リスク(未成年関係)コンテンツを扱う能力が制限されていると証言しました。内部システムは性的脅迫などの高リスク要因にもかかわらず、深刻な子供関連ケースを低優先度(P2 以前)としてマークしていました。
両社は公にこれらの主張を否認し、厳格なポリシーと新しいティーン保護策を掲げています。調査でこれらの慣行が確認された場合、規制当局はより厳格な監督や政策変更を課す可能性があります。ユーザー(特に未成年者)は有害コンテンツへの曝露リスクが高まり、評判の損失、法的挑戦、および業界全体でより透明なモデレーション基準を求める動きが促進される可能性があります。
本文
マリアンナ・スプリング、ソーシャルメディア調査記者(BBC/ゲッティイメージズ)
内部告発者たちがTikTokの急成長に続くアルゴリズム競争を明らかにしました。ソーシャルメディア大手は、自社のアルゴリズムに関する内部調査で「怒り」がエンゲージメントを促進することが分かったため、ユーザーのフィードにより有害なコンテンツを許容する判断を下したとBBCに語っています。
十数人の告発者や社内関係者は、暴力・性的脅迫・テロリズムなどの安全性問題で企業がリスクを取った経緯を明らかにしました。FacebookおよびInstagramを運営するMeta(旧Facebook)のエンジニアは、上層部から「TikTokと競争するために、女性蔑視や陰謀論などの境界的有害コンテンツを許容すべきだ」と指示されたと語っています。
“彼らは株価が下がっているからだと言ったようなものです。” とエンジニアは述べました。
TikTok職員はBBCに、ユーザー苦情やその他の内部ダッシュボードへの希少アクセスを許可し、政治家関連のケースを子どもを対象とした有害投稿より優先させるよう指示されていた証拠を提示しました。TikTokスタッフによれば、規制や禁止措置の脅威を避けるために「政治人物との強固な関係」を維持することが決定の主眼であり、ユーザーリスクは考慮されていないと語っています。
「怒り」マシンの内部
BBCドキュメンタリー Inside the Rage Machine に出演した告発者たちは、TikTokの急成長後に業界がどのように対応したかを間近で示しました。Metaの上級研究員 Matt Motyl は、2020年にリリースされたInstagram Reels が十分な安全策なしに導入されたと指摘し、内部調査ではReels 上のコメントでいじめ・嫌がらせ・ヘイトスピーチ・暴力または扇動が他のInstagramよりも有意に高いことを示しました。
Motyl は Meta が Reels を拡大するために 700 名のスタッフを投入し、子どもの保護担当者を 2 人、選挙公正を支援する人員をさらに 10 人増やす計画を却下されたと語りました。彼は BBC に数十件の高レベル研究資料を提示し、Facebook が自社アルゴリズムによる問題に気付いていた証拠も示しました。アルゴリズムは「利益最大化の道筋」を提供し、観客の福祉を犠牲にしていると指摘し、「現在の金融インセンティブが私たちのミッション――世界をより近づけること」と合致しないと述べました。
Meta はこれに対し「利益追求のために有害コンテンツを意図的に増幅したという主張は誤りだ」と発表。TikTok はこれらの主張を「捏造」と呼び、ハラスメント防止技術への投資を行っていると述べました。
ブラックボックス
アルゴリズムは内部構造が検証しにくい「ブラックボックス」であると 2020–2024 年間 TikTok のレコメンデーションエンジンを構築した機械学習エンジニア Ruofan Ding は語りました。
“深層学習アルゴリズム自体には制御できません。”
彼は、エンジニアが「コンテンツではなく ID に注目し、有害投稿の削除はコンテンツ安全チームに委ねている」と説明。改善策を講じたものの、ユーザーは一定時間閲覧後に問題あるコンテンツに遭遇します。境界的な有害(合法だが女性蔑視・人種差別・性的表現・陰謀論)投稿はしばしば推奨されます。若者たちは「望まないコンテンツを示すシステムが機能していない」と語り、暴力やヘイト素材の推薦が続くと述べました。
一人の 19 歳男性 Calum は、「14 歳からアルゴリズムにより過激化された」と語ります。彼は「怒らせるビデオに触発され、悪質な感情や女性蔑視・人種差別的見解を抱くようになった」と述べました。
英国のテロ対策警察専門家は、近月で反ユダヤ主義、人種差別、暴力、極右投稿が正規化されていると報告しています。
TikTok の信頼 & 安全
2025 年中、BBC は TikTok の「Trust & Safety」チームメンバー(ニック)にインタビュー。内部ダッシュボードを確認したところ、政治的苦情が未成年者への有害報告よりも高く評価されているケースが多いことが分かりました。削減と再編でモデレーション能力が低下し、子どもたちの安全が脅かされています。
ニックは「性的脅迫や児童性愛コンテンツは優先度を下げられる一方、テロや犯罪を奨励する投稿はトップ優先ではない」と示しました。Trust チームが懸念を提起しても管理層は応答しませんでした。
“削除して、できるだけアプリから遠ざけておくべきだ。”
TikTok は政治的優先度が子どもの安全に影響を与えないと主張し、専門ワークフローは子どもケースを後回しにしないと反論。
Meta の対応
2020 年、Reels が TikTok と競争するために導入されました。Matt Motyl は、Meta がユーザーへの影響を十分に理解せずに迅速に動き、保護とエンゲージメントのバランスを取ったと説明。彼が共有した研究論文では、Reels 上での有害コメント(いじめ+75 %、ヘイトスピーチ+19 %、暴力+7 %)が Instagram 本体よりも高いことを示しています。
安全担当者は Reels の収益インセンティブがエンゲージメントを促進する毒性コンテンツを好むため、新しい安全機能の承認に苦労しました。元 Facebook でソーシャルメディア監視ツールを買収した Brandon Silverman は、マーク・ザッカーバーグ CEO の競争恐怖症を回想し、Reels 拡大中に少数のスタッフだけを採用できなかったと指摘。
元 Meta エンジニア Tim は TikTok との競争によりプラットフォーム上で境界的有害コンテンツが増えたと述べ、急成長を優先した上級副社長を批判。Meta の広報は告発者の主張を否定し、過去十年間にわたり厳格なポリシーと安全投資を強調。新しい「Teen Accounts」機能で組み込み保護策や親向けツールを紹介しました。
レポート追加:Robert Farquhar、Daisy Bata、Ez Roberts。