メタ社訴訟のニュース概要

インスタグラムを運営するメタ社に対し、未成年者への有害性に関する訴訟において、基本的な安全対策の導入が遅れた理由が問われている。
原告側弁護士は、ティーン向けのダイレクトメッセージにヌード画像フィルタを導入するまでにメタ社が時間を要した経緯について、アダム・モセリ(インスタグラム責任者)に質疑を行った。
モセリ氏の証言から、2018年8月にはガイ・ローゼン(メタ社情報セキュリティ責任者)との間で、インスタグラムのDMにおける不適切なコンテンツ(ヌード画像など)のリスクについて認識していたことが明らかになった。
しかし、モセリ氏は、メッセージングシステムが監視されていないことを親に知らせる義務はなかったと主張し、プライバシーとのバランスを重視したと述べた。
また、13歳から15歳のユーザーの調査結果では、19.2%がインスタグラム上で意図しないヌード画像や性的な画像を目撃し、8.4%が自傷行為や自殺を示唆する投稿を見たというデータも公開された。
訴訟では、ヌードフィルタの導入遅延に焦点が当てられており、現在のアプリの安全性よりも、過去の対応の遅れが問題視されている。
さらに、2017年にはフェイスブックのインターンが、「依存症」のユーザーを発見し、支援策を検討するメールを送っていたことも明らかになった。
メタ社は、ティーンの安全対策強化に取り組んできたと反論している。
これらの訴訟は、大手テクノロジー企業がユーザーの成長とエンゲージメントを優先し、未成年者への悪影響を軽視したのではないかという主張に基づいている。
同様の訴訟が、カリフォルニア北部地区連邦地方裁判所、ロサンゼルス郡高等裁判所、ニューメキシコでも進行中であり、ソーシャルメディアの未成年者利用を制限する法規制の動きも広がっている。




未成年者への影響の注目ポイント

  1. インスタグラム(Instagram)のDMにおける未成年者へのわいせつ画像送信リスクを、メタ(Meta)社が長年認識しつつ対策が遅れた。
  2. 未成年者(13~15歳)の約2割が、インスタグラムで不快なヌードや性的な画像を目撃したと回答。自己危害に関する投稿も問題視されている。
  3. 提訴されたSNS企業は、ユーザー増加とエンゲージメント向上を優先し、未成年者への悪影響を軽視した疑いを否定している。

SNSの責任の分析・解説

本件は、インスタグラムなどのソーシャルメディアが青少年に与える悪影響を巡る訴訟における、メタ社の責任追及に関する重要な証拠開示である。
2018年時点で、インスタグラムのDMにおける不適切なコンテンツ(わいせつ画像など)のリスクを認識していたにも関わらず、保護機能の実装が2024年まで遅延したことが問題視されている。
メタ社のモセリCEOは、プライバシーとのバランスを考慮したと主張するも、訴訟側は未成年者保護の義務を怠ったと反論している。
調査によれば、13歳から15歳の利用者の約20%が、意図しないわいせつ画像を目撃した経験があるというデータも開示された。
この訴訟は、テック企業がユーザーのエンゲージメントを優先し、青少年の精神的健康への影響を軽視した可能性を問うものであり、今後の法規制強化の動きを加速させる可能性がある。
同様の訴訟が複数進行中であり、テック企業の責任を明確化する上で重要な判例となることが予想される。

※おまけクイズ※

Q. 記事の中で、インスタグラムのDMにおける不適切なコンテンツ(ヌード画像など)のリスクについて、メタ社が認識していたのはいつ頃?

ここを押して正解を確認

正解:2018年8月

解説:記事の冒頭で、2018年8月にはガイ・ローゼン氏との間でリスクについて認識していたとモセリ氏の証言から明らかになっています。




詳しい記事の内容はこちらから

参照元について

『TechCrunch』のプロフィールと信ぴょう性についてここでは『TechCrunch』の簡単なプロフィール紹介と発信する情報の信ぴょう性についてまとめています。 記事を読む際の参考にし...