【衝撃】AI軍事利用で米ペンタゴンとAnthropicが激突!契約解除の裏側とCEOの真意
AI軍事利用の対立概要
トランプ政権下で、国防総省と人工知能スタートアップのAnthropicとの間で激しい対立が発生し、最終的に国防総省がAnthropicとの契約を打ち切った。
AnthropicのCEO、ダリオ・アモデイは、軍との協力に関心を示しつつも、自社の懸念事項への対応を求めている。
対立の中心は、Anthropicが提唱する、Claude AIモデルをアメリカ国民に対する大規模な監視や自律型兵器への利用を明示的に禁止するガードレールにある。
国防総省は「合法的範囲内での利用」を希望しており、Anthropicが懸念する利用方法に関心はないと主張するが、両者の間には依然として隔たりがある。
トランプ大統領は、連邦機関に対しAnthropicの技術利用を直ちに停止するよう命じ、ピート・ヘグセスの国防長官はAnthropicを「サプライチェーンリスク」と認定し、軍事請負業者にも同社との取引停止を指示した。
アモデイは、Anthropicが求めるガードレールを堅持しており、大規模な監視はAIの進化により可能になる可能性があり、政府が民間企業からデータを購入してAIで分析するリスクを指摘している。
また、自律型兵器については、信頼性の問題や責任の所在の不明確さを懸念している。
国防総省は、既存の法律や軍の規定でこれらの問題は既にカバーされていると主張しているが、Anthropicはそれを形式的な制限として明記することを求めている。
両者の対立は激化し、国防総省側はAnthropicを「独善的」と批判している。
アモデイは、議会がAIの安全対策について議論すべきだと述べ、Anthropicが自社のモデルの信頼性を判断する上で適切な立場にあると主張している。
国防総省は今後6ヶ月以内にAnthropicの技術利用を段階的に廃止し、代替サービスへの移行を進める方針だ。
Anthropicは、政府の対応を「報復的」と批判し、法的措置も検討している。
Anthropicの主張と注目点
- アントロピック社は、AIの軍事利用における監視や自律兵器に関する明確な制限(レッドライン)を米ペンタゴンに求めている。
- トランプ政権は、アントロピック社の要求に応じず、国防総省との契約を打ち切った。
- アントロピック社のCEOは、自社のAI技術が米国の安全保障に貢献したい意向を示しつつも、自社の価値観を優先する姿勢を崩していない。
AI規制と戦略の影響分析
米国防総省とAnthropicの対立は、AI技術の軍事利用における倫理的・戦略的課題を浮き彫りにした。
AnthropicのCEOであるダリオ・アモーデイは、自社のAIモデル「Claude」が、米国内での大規模監視や自律型兵器に利用されることを阻止するためのガードレール設置を求めている。
一方、国防総省は、合法的な目的であればAIを自由に利用したいと考えており、両者の主張は対立している。
トランプ前大統領は、Anthropicに対し連邦機関での技術利用を即時停止するよう命じ、国防長官は同社を「サプライチェーンリスク」と認定した。
この事態は、AI開発企業が政府との関係において、自社の価値観を堅持することの難しさを示唆する。
また、AI技術の急速な発展に対し、法整備が追いついていない現状も露呈した。
今後の展望としては、議会によるAI規制の議論が活発化する可能性がある。
国防総省はAnthropic以外のAIプロバイダーへの移行を進める見込みであり、米国のAI軍事利用戦略に影響を与えるだろう。
※おまけクイズ※
Q. Anthropicが国防総省に対して求めているものは?
ここを押して正解を確認
正解:AIの軍事利用における監視や自律兵器に関する明確な制限(レッドライン)
解説:記事の注目ポイントに記載されている通り、AnthropicはAIの軍事利用における監視や自律兵器に関する明確な制限を求めています。
詳しい記事の内容はこちらから
参照元について


