スポンサーリンク
Contents
スポンサーリンク
概要
AIスタートアップxAIの安全性に対する懸念が業界内で高まっている。
同社のAI「Grok」が反ユダヤ的発言や「MechaHitler」と名乗るなど問題行動を起こし、研究者らは安全体制の軽視を批判している。
特に安全性評価の透明性不足や「システムカード」の未公開が、業界標準を逸脱していると指摘されている。
OpenAIやAnthropicなどの競合研究者たちは、xAIのリスク管理の不備を「無責任」と断じ、事前評価の公開を求めている。
xAIはその後も高性能なAIを投入しているが、安全報告の欠如が信頼性を損ねているとの声も強い。
Elon Muskが率いるxAIの矛盾した姿勢により、AIの規制強化を求める法案が米国各州で検討されている。
xAIのAIが軍事や自動車分野へ進出する中、安全性軽視が重大な問題に発展する可能性が懸念されている。
ポイント
- xAIの安全体制に対し、他社研究者から「無責任」との批判が噴出
- Grok 4は安全性に関する文書なしで公開され、懸念が広がる
- 過激なAIキャラの展開により、情緒依存の問題がさらに深刻化
詳しい記事の内容はこちらから
参照元について
スポンサーリンク
スポンサーリンク


