【衝撃】国防総省、AnthropicのAIを禁止!2億ドル契約は危機か?
Anthropicと国防総省のニュース概要
2026年2月19日、インドのニューデリーで開催されたAIインパクトサミットにおいて、AnthropicのCEOであるダリオ・アモデイが講演を行った。昨年8月、ペンタゴン(米国防総省)の技術責任者であるエミル・マイケルは、AIポートフォリオの監督という追加の役割を担った。その1ヶ月前、Anthropicは国防総省から2億ドルの契約を獲得し、同機関との連携を拡大していた。マイケルは契約内容の確認を指示し、その結果、国防総省はAnthropicの技術を禁止する決定を下した。
Anthropicが自社のAIを自律型兵器や国内監視に使用しないことを求めたことが理由である。国防総省はAnthropicをサプライチェーンリスクに指定し、これは歴史的に外国の敵対勢力にのみ適用されてきた措置である。Anthropicは、政府の行動が「前例がなく違法」であるとして提訴し、数百億円規模の契約が危うくなっていると主張している。
国防総省のこの突然の決定は、ワシントンの多くの関係者を驚かせた。Anthropicのモデルは、既存の防衛請負業者であるパランティアと統合できる能力が評価されていたからである。国防総省はAnthropicに対し、国防生産法を適用して技術へのアクセスを強制することも検討していたが、最終的に禁止措置を講じた。
元国防総省職員であるブラッド・カーソンは、AnthropicのClaudeモデルに軍人が依存しているため、今回の決定は特に憂慮すべきだと述べた。また、Anthropicの頭脳集団であるグローバルアフェアーズ部門の責任者マイケル・セリトと、公共部門ビジネス部門の責任者ティヤグ・ラマサミは、今回の決定に懸念を表明している。Anthropicは、AWSやパランティアとの提携を通じて政府との関係を強化してきたが、ドナルド・トランプ政権下では、アモデイがトランプ大統領を批判した過去の投稿が問題視されたという報道もある。
AI利用制限の注目ポイント
- 米国防総省は、自律兵器や国内監視への利用を拒否したAnthropic社の技術を、サプライチェーンリスクとして禁止。異例の措置。
- Anthropic社は、OpenAIから安全性の懸念から離脱した創業者らによって設立。責任あるAI開発を重視し、政府機関との連携を強化。
- トランプ政権下でのAnthropic社のCEO、ドリオ・アモデイ氏と政府との関係悪化が背景に。政治的な対立が政策判断に影響した可能性。
AIベンダー排除の分析・解説
Anthropic(アントロピック)は、国防総省との2億ドルの契約締結後、自律型兵器や国内監視へのAI利用制限を求めた結果、サプライチェーンリスクに指定され、国防総省から事実上締め出された。
この決定は、AIモデルの安全性で評価が高く、Palantir(パランティア)との連携も進んでいた同社にとって衝撃的なものであり、政府によるAIベンダー排除の異例な事例として注目されている。
国防総省は、企業ポリシーによる能力制限を容認せず、軍事作戦におけるツール利用の自由を確保する必要性を強調している。
Anthropicは、政府の措置に対し訴訟を起こし、契約の危機や企業価値への影響を訴えている。
この事態は、AI技術の安全性を重視する企業と、軍事利用を優先する政府との間で、今後も同様の対立が生じる可能性を示唆している。
また、Anthropicの創業者であるAmodei(アモデイ)氏とトランプ政権との政治的な対立も背景にあるとの見方も浮上している。
※おまけクイズ※
Q. 記事の中で、Anthropicが国防総省から「サプライチェーンリスク」として指定された理由は何ですか?
ここを押して正解を確認
正解:自律型兵器や国内監視へのAI利用を拒否したこと
解説:記事の冒頭で、Anthropicが自社のAIを自律型兵器や国内監視に使用しないことを求めたことが理由として説明されています。
詳しい記事の内容はこちらから
参照元について


