【重要】AI開発の最前線、Anthropicと国防総省が対立!2億ドル契約の行方は?
AI国防契約のニュース概要
人工知能スタートアップのエントロピックは、米国防総省との契約を巡り、難しい状況に直面している。
同社は、モデルの利用に関する制限なしに、すべての合法的用途で国防総省が自社のモデルを使用することに同意するかどうかを、ある期日までに決定する必要がある。
同意しない場合、国防長官は同社を「サプライチェーンリスク」と認定したり、国防生産法を援用して遵守を強制したりすると脅している。
エントロピックは7月に国防総省と2億ドルの契約を締結し、機密ネットワークでモデルをミッションワークフローに統合した最初のAIラボとなった。
同社は、技術が完全に自律型兵器やアメリカ国民に対する国内での大量監視に使用されないことを保証するよう国防総省に求めている。
エントロピックのCEOは、AIが民主的価値を損なう可能性がある場合や、現在の技術では安全かつ確実に実行できない用途があることを指摘している。
国防総省は譲歩せず、交渉は行き詰まり、エントロピックの掲げる価値観が試される事態となっている。
同社は、安全で責任あるAIの展開を提唱する企業としての評判を築き上げてきた。
一方で、エントロピックは3800億ドルの企業価値を正当化し、モデル開発の最前線にとどまり、オープンAIやグーグル、イーロン・マスクのxAIなどの競合他社に対抗する必要がある。
国防総省の要求に応じれば評判が損なわれ、従業員や顧客が離反する可能性がある。
しかし、拒否すれば、短期的な収益を失い、政府と取引を行う他の企業との将来的な機会を逃す可能性がある。
業界関係者は、政府が有望な製品を持つ企業を遠ざけてしまう可能性があると警告している。
オープンAIのCEOは、国防総省が企業に脅威を与えるべきではないと述べている。
Anthropicの注目ポイント
- Anthropicは、国防総省のAIモデル利用制限なしの要請に対し、自社の価値観と技術の安全性を優先し、拒否する可能性に直面。
- 国防総省は、Anthropicへの契約解除や「サプライチェーンリスク」指定を示唆し、強硬な姿勢で全面的利用を要求。
- AI業界全体で、政府の強圧的な姿勢が技術開発への悪影響を懸念する声が上がり、Anthropicへの支持が広がっている。
AI倫理の分析・解説
Anthropicは、米国国防総省(DoD)との契約を巡り、極めて難しい状況に直面している。
DoDは、AnthropicのAIモデルを全ての合法的な用途で使用する許可を求めており、拒否した場合、サプライチェーンリスクに指定されるか、国防生産法に基づき強制的に合意させる可能性がある。
Anthropicは、自社の技術が完全自律型兵器やアメリカ国民に対する国内での大規模監視に使用されないことを保証するよう求めている。
DoDはこれを拒否し、交渉は行き詰まっている。
Anthropicは、安全で責任あるAI展開のチャンピオンとしての評判を確立してきたが、巨額の企業評価を正当化し、OpenAIなどの競合他社に対抗する必要もある。
DoDの要求を受け入れることは評判を損なう可能性があるが、拒否すれば収益を失い、将来的な機会を逃す可能性がある。
業界専門家は、政府が過度な圧力をかけ、技術企業が国防部門との連携を避けるようになることを懸念している。
OpenAIのCEOであるサム・アルトマンも、DoDが企業に脅威を与えるべきではないと述べている。
AnthropicのCEOであるダリオ・アモデイは、自社の立場は変わらないと表明し、DoDの要求には応じられないとしている。
この対立は、AI研究開発における倫理的配慮と国家安全保障のバランスという、より広範な問題を示唆している。
※おまけクイズ※
Q. 記事の中で、エントロピックが国防総省に対して特に懸念しているAIの用途は?
ここを押して正解を確認
正解:完全に自律型兵器やアメリカ国民に対する国内での大規模監視
解説:記事の中盤で、エントロピックが技術がこれらの用途に使用されないことを保証するよう国防総省に求めていると記述されています。
詳しい記事の内容はこちらから
参照元について


