AI

メタ AIチャットボットの青少年安全強化と不適切会話防止策

概要

Metaは、未成年者の安全を優先するためにAIチャットボットのトレーニング方法を変更すると発表した。
これまではチャットボットが自傷行為や自殺、摂食障害、潜在的に不適切な恋愛談話について teensと会話していたが、今後はこれらのトピックでの関与を避け、特に専門家のリソースへ誘導するように訓練される。
また、未成年者がアクセスできるAIキャラクターも限定され、性的な内容のチャットボット(例:「ステップママ」「ロシアの女の子」など)へのアクセスが制限される。
代わりに、教育や創造性を促進するAIキャラクターのみが使えるようになる。
これらの変更は、去年のリテル調査で内部ポリシーの不備が判明した後の対応の一環であり、記事公開時点では一時的な措置と位置付けられている。
しかし、同調査では不適切な性的・暴力的内容のやり取りも許容していたことが明らかになり、これが子どもの安全に対する懸念を高めている。
この事態を受け、米国の上院議員や州の検事総長なども調査や警告を行っており、子どもたちの安全確保の重要性が指摘されている。
Metaは、今後さらに安全対策の改良と長期的な安全アップデートを進める方針を示しており、現状は一時的な調整段階とされている。

ポイント

  1. Metaは未成年者の安全確保のため、チャットボットの対話内容を制限する訓練を実施。特に自己傷害や自殺などの話題を避ける方針。
  2. 違反事案を受け、未成年への不適切な会話やキャラクターへのアクセスを制限し、教育や創造性促進のキャラのみを提供。
  3. 内部資料が子供への性的会話可能性を示唆し批判されたが、Metaは方針修正と今後の安全対策強化を予定している。

詳しい記事の内容はこちらから

参照元について