概要

Character.AIは、18歳以下のユーザーが同社の仮想キャラクターと会話することを、11月下旬から禁止すると発表しました。この変更は、AIが若年層のメンタルヘルスに与える影響に関する法的な問題や訴訟を受けたもので、特に自殺を引き起こす可能性が指摘されています。昨年、14歳の少年が自分で作成したキャラクターとの感情的な依存関係から命を絶ったとして、同社に対する訴訟が起きました。さらに、今月には他の自殺事例についても訴訟が提起されています。Character.AIは、この問題に対処するため、年齢確認機能を導入し、適切な年齢別体験を提供する方針を示しました。

また、アメリカではAIチャットボットによるメンタルヘルスへの影響に関する規制が強化されつつあります。カリフォルニア州は2025年10月に、18歳未満の使用者に対して性的コンテンツの禁止や、AIと会話していることを定期的に通知する義務を含む新法案を通過させました。連邦レベルでも、未成年者のAI利用を禁止する法案が提出されるなど、規制が進んでいます。

ポイント

  1. Character.AIは18歳未満のユーザーに対し、AIキャラクターとの会話を禁止する方針を発表。
  2. この変更は、AIチャットが若者のメンタルヘルスに与える影響に関する懸念から実施される。
  3. アメリカでは、AIチャットボットに関する規制が強化され、州や連邦レベルで新たな法案が提案されている。

詳しい記事の内容はこちらから

参照元について

『The Guardian』のプロフィールと信ぴょう性についてここでは『The Guardian(ガーディアン)』の簡単なプロフィール紹介と発信する情報の信ぴょう性についてまとめています。 記...