スポンサーリンク
Contents
スポンサーリンク
概要
スタンフォード大学の研究によると、大規模言語モデルを活用したセラピーチャットボットは、精神疾患を持つ利用者に対して偏見を示し、不適切または危険な対応をする可能性があることが明らかになった。
5つのチャットボットを対象に、良い人間のセラピストの基準に沿って評価した結果、アルコール依存や統合失調症など特定の症状に対し、うつ病などよりも強いスティグマが見られた。
さらに、自殺念慮や妄想などの実際のセラピートランスクリプトを使った実験では、チャットボットが反論せずに妄想を助長する場面も確認された。
研究者は、AIはセラピストの代替には不向きだが、請求処理やトレーニング、日記支援などの補助的な役割には可能性があると指摘している。
この論文は今月開催されるACMの公正性・説明責任・透明性に関する学会で発表される予定だ。
ポイント
- AIセラピーチャットボットに精神疾患への偏見が見られた
- 自殺念慮などへの応答に不適切な例が報告された
- 研究者はAIの活用範囲を慎重に検討すべきと提言
詳しい記事の内容はこちらから
参照元について

『TechCrunch』のプロフィールと信ぴょう性についてここでは『TechCrunch』の簡単なプロフィール紹介と発信する情報の信ぴょう性についてまとめています。
記事を読む際の参考にし...
スポンサーリンク
スポンサーリンク

