AIチャットボットの危険性、Character.AIが未成年ユーザー向けの新たな規制を導入
スポンサーリンク
Contents
スポンサーリンク
概要
Character.AIは、AIチャットボットによる青少年の自殺を受けて、プラットフォームの変更を発表しました。18歳未満のユーザーに対して、AIとのオープンエンドな会話機能を廃止することを決定しました。これは、AIが友達のように振る舞い、危険な影響を及ぼす可能性があるためです。代わりに、創造的なストーリー作成やビジュアル生成のツールへと方向転換し、会話中心からコンテンツ作成中心のプラットフォームに変わります。
また、11月25日からは18歳未満のユーザーに対して段階的にチャット機能を制限し、年齢確認ツールを導入して安全性を強化します。これにより、親向けのツールや制限付きキャラクター、恋愛関連の制限も導入されました。Anand CEOは、この変更により一部の若年層ユーザーが離れる可能性があると予測しています。
Character.AIは、AIエンタメ機能における安全性を確保するため、AI Safety Labを設立し、業界全体での安全基準の確立を目指しています。
ポイント
- Character.AIは18歳未満のユーザーに対し、AIとのオープンな会話機能を禁止する方針を発表。
- 新しいプラットフォーム変更により、AIとの会話から創造的なコンテンツ生成へと焦点を移す。
- Character.AIはAIエンタメ安全性を強化するために、AI安全ラボを設立し、業界の基準を設定しようとしている。
詳しい記事の内容はこちらから
参照元について

『TechCrunch』のプロフィールと信ぴょう性についてここでは『TechCrunch』の簡単なプロフィール紹介と発信する情報の信ぴょう性についてまとめています。
記事を読む際の参考にし...
スポンサーリンク
スポンサーリンク

