国際 注目度 85

ヘグセス国防長官、Anthropicに「Claude制限撤廃か関係断絶か」警告

アメリカ軍が機密作業で利用する唯一のAIモデル「Claude」について、安全対策の制限解除を求めている件で、ピート・ヘグセス国防長官がAnthropicのダリオ・アモデイCEOと会談。ヘグセス氏は、「軍の要求に応じない場合は、法に基づいて制限を撤廃させたり、契約を破棄して関係を断つ」と警告した。

Claudeはベネズエラ夫妻拘束作戦などでも利用されているが、Anthropicは大量監視や自律型兵器開発への利用を禁止している。国防総省は協議を重ねてきたものの不調に終わり、2月に入って関係解消を匂わせて圧力をかけている。ヘグセス氏は Anthropicに対し、2026年2月27日までに「AIのすべての合法的目的への使用」に応じるよう要求し、期限内に対応がなければ、国防生産法に基づいて制限解除を強制するか、Anthropicと契約を解除して「サプライチェーンリスク」に指定するかのどちらかを選択すると警告した。

「サプライチェーンリスク」指定企業は国防総省との取引ができなくなるため、直接的・間接的に大きな影響を受ける。国防総省当局者は、「Anthropicが必要だから話し続けている」とコメントし、xAIとの契約を締結しているものの、Claudeの役割を完全に置き換えるかは不明である。


背景

アメリカ軍が機密作業で利用する唯一のAIモデル「Claude」について、開発元のAnthropicとの間で制限解除をめぐる対立が激化している。国防総省はClaudeの利用範囲拡大を求めている一方、Anthropicは倫理的な懸念から拒否しており、関係解消の可能性も浮上している。

重要用語解説

Claude: アメリカ軍が機密作業で利用する唯一のAIモデル。大量監視や自律型兵器開発への利用を禁止しているAnthropicによって開発された。

[重要性]:軍事分野におけるAI技術の重要な役割を示す事例として注目されている。

[具体例(あれば)]:ベネズエラ夫妻拘束作戦で使用された。

Anthropic: ClaudeなどのAIモデルを開発する企業。倫理的な懸念から、AIの軍事利用に関する制限を設けている。

[重要性]:AI開発における倫理観と安全対策の重要性を示す事例として注目されている。

[具体例(あれば)]:国防総省との対立で注目を集めている。

サプライチェーンリスク: 国防総省が指定する、軍事活動に影響を与える可能性のある企業や技術。指定された企業は国防総省との取引ができなくなる。

[重要性]:AI開発と軍事利用の複雑な関係性を示す事例として注目されている。

[具体例(あれば)]:Anthropicが指定される可能性がある。

今後の影響

この対立の結果、アメリカ軍のAI技術導入に遅延が生じる可能性があり、国防総省とAnthropicの関係悪化は、AI開発における倫理的な議論をさらに激化する可能性がある。また、「サプライチェーンリスク」指定の影響は広範囲に及ぶため、AI業界全体に波及する影響も懸念される。