国際 注目度 90

国防長官、AI企業Anthropicを「サプライチェーンリスク」に指定

米国国防長官ピート・ヘグセは2月24日、AI企業Anthropicを「サプライチェーンリスク」に指定した。これは、PentagonがAnthropicのAIモデルClaudeを、包括的な軍事用途で使用することを要求し、Anthropicが拒否したことを受けての措置である。Hegseth国防長官は、Anthropicがドローンや監視システムなど、自律型兵器を含むあらゆる合法的な目的で使用することを許可しないと主張しているとして、この決定を下した。Anthropic側は、政府によるAIモデルの使用に関する要求に反発し、特に自律型兵器の開発には使用しないという立場を示していた。Hegseth国防長官は、Anthropicが米国軍の安全保障にリスクをもたらす可能性があると主張し、同社との契約を終了するよう企業に指示した。Anthropic側は、この決定は違法であり、アメリカ企業に対する危険な前例となるとして、法的措置を取る意向を示している。


背景

米国政府とAI企業Anthropicの間で、軍事用途におけるAIモデルの利用方法をめぐる対立が続いている。PentagonはAnthropicのAIモデルClaudeを、包括的な軍事用途で使用することを要求したが、Anthropic側は自律型兵器開発への使用には反対している。この対立は、AI技術の倫理問題や国家安全保障とのバランスについて議論を深めている。

重要用語解説

サプライチェーンリスク: 企業が製品やサービスを提供する過程で発生する潜在的な脅威や脆弱性のこと。特に、外国政府との関係やセキュリティ上の懸念から、軍事活動に影響を与える可能性がある場合に用いられる。

Claude: Anthropic社が開発したAIモデル。自然言語処理能力が高く、様々なタスクに使用できる。

Pentagon: 米国国防総省の通称。アメリカ合衆国の軍隊を統括する機関。

Truth Social: ドナルド・トランプ元大統領が立ち上げたソーシャルメディアプラットフォーム。

今後の影響

Anthropicの指定は、AI企業に対する政府の規制強化を示唆しており、将来的なAI開発や利用に大きな影響を与える可能性がある。また、軍事分野におけるAI技術の倫理問題にも新たな議論を巻き起こすことが予想される。