スポンサーリンク
Contents
スポンサーリンク
概要
Anthropicは、ユーザーデータの取り扱いに大きな変更を加え、全Claudeユーザーに対し、9月28日までに会話データを訓練に利用するかどうかの意思表示を求めている。従来、同社は消費者のチャットデータをモデル訓練に使用していなかったが、今後はユーザーの会話やコーディングセッションを訓練データとして利用し、同意しない場合のデータ保持期間も5年に延長する。これは大きな変更であり、従来は30日以内にユーザーの会話を自動削除していたが、新ポリシーでは対象がClaude Free、Pro、Maxに拡大し、企業向けのビジネス製品は影響を受けない。背景には、モデルの安全性向上や技能改善のために実データを必要とする企業のデータ収集競争があると考えられる。多くの大手AI企業と同様に、Anthropicも高品質な会話データの収集を優先しており、これにより競争優位性を高めようとしている。一方、こうしたデータポリシーの変更はユーザーの気づきや理解を妨げ、法的・倫理的な懸念も生じている。特に、既存ユーザーは新しい利用規約に気付かず自動的に同意しているケースが多く、プライバシーやデータ管理に関する透明性の不足が問題視されている。政府の規制や裁判でのデータ保持義務も業界全体に影響を与え、AI企業にとってユーザーの理解と同意を得る難しさが高まっている。
ポイント
- Anthropicは、ユーザーの会話を訓練データに使用し、データ保持期間を5年に延長する新方針を発表した。既存ユーザーには自動的に適用される。
- 新方針の目的は、安全性向上やモデルの性能改善を目的とし、ユーザーの同意と選択を重要視していると説明している。
- 企業やエンタープライズユーザーは対象外だが、ユーザーデータの取り扱いや同意取得の仕組みに混乱や懸念が広がっている。
詳しい記事の内容はこちらから
参照元について

『TechCrunch』のプロフィールと信ぴょう性についてここでは『TechCrunch』の簡単なプロフィール紹介と発信する情報の信ぴょう性についてまとめています。
記事を読む際の参考にし...
スポンサーリンク
スポンサーリンク

