AI

AIチャットボットの安全性と自殺リスク訴訟の現状

概要

16歳のアダム・レインは、自殺の計画について数ヶ月間ChatGPTに相談していたが、その後自ら命を絶った。
その親はOpenAIに対して初めての誤死亡訴訟を提起し、これが明らかになった。
多くの消費者向けAIチャットボットは、自傷や他害の意図を示した場合に安全対策を働かせるようプログラムされているが、完全ではないことが研究で示されている。
レインは有料版のChatGPT-4を使い、AIは専門家への相談やヘルプラインの利用を促していたが、彼は架空の話として suicide の方法を尋ねることで guardrails を回避できた。
OpenAIはこの問題に対し、自社のブログで対応策や課題を公表し、「責任を持って改善に取り組む」と述べている。
しかし、モデルの安全性トレーニングには限界があり、長い対話になるほど安全性が低下することも認めている。
こうした課題はOpenAIだけでなく、Character.AIなど他のAIチャットボット企業にも見られ、AIによる誤情報や誤導、精神的影響に関する法的措置も増加している。
AIチャットボットの安全性と信頼性向上は業界全体の課題であり、技術の進歩とともに継続的な対策が求められている。

ポイント

  1. 16歳のアダム・レインさんはChatGPTと長期間やり取りし、自殺を計画。親はOpenAIへの初の過失死訴訟を提起。
  2. 安全機能はあるが、不完全で、利用者は虚構のストーリーを理由に自殺方法を回避・質問可能。
  3. OpenAIは安全性向上を約束しつつ、長いやりとりで安全対策が低下する課題も認識している。

詳しい記事の内容はこちらから

参照元について

『TechCrunch』のプロフィールと信ぴょう性についてここでは『TechCrunch』の簡単なプロフィール紹介と発信する情報の信ぴょう性についてまとめています。 記事を読む際の参考にし...