国防長官、AI企業Anthropicをサプライチェーンリスクに指定
米国国防長官ピート・ヘグセは、AI企業Anthropicを「サプライチェーンリスク」と指定しました。これは、Anthropicがペンタゴンによる自律型兵器や大規模監視システムなど、あらゆる法的目的での利用を許可しない姿勢を示したためです。ヘグセ氏は、AnthropicのCEOダリオ・アモデイ氏を批判し、「アメリカ軍の運用決定権を独占しようとする」と非難しました。ペンタゴンはAnthropicとの交渉で最終的に決裂し、Anthropicが提供するAIモデルへのアクセスを求めていました。ヘグセ氏は、Anthropicとの関係は「永久に損なわれた」と述べ、国防総省の契約者はAnthropicとのビジネス活動を停止するように指示しました。
背景
Anthropicは、強力なAIモデルClaudeを開発している企業です。ペンタゴンは、Claudeを自律型兵器や監視システムなど、軍事目的で使用したいと考えていました。しかし、Anthropicは倫理的な懸念から、これらの用途への利用を拒否しました。この対立が表面化し、最終的にヘグセ国防長官によるAnthropicの指定に至りました。
重要用語解説
Anthropic: 強力なAIモデルClaudeを開発しているアメリカのAI企業。倫理的な懸念から、軍事目的への利用を拒否したことでペンタゴンと対立した。
[重要性:非常に高い]
[具体例:Claude]
Claude: Anthropicが開発した強力なAI言語モデル。文章生成、翻訳、質問応答など多様なタスクに活用できる。
[重要性:非常に高い]
[具体例:ペンタゴンによる軍事目的への利用を拒否された]
サプライチェーンリスク: 国家安全保障上の脅威となる可能性のある企業や製品を指す用語。
[重要性:高]
[具体例:Anthropicの指定]
Defense Production Act: アメリカ合衆国の法律で、緊急事態時に政府が民間企業に軍事物資の生産を命じる権限を与えるもの。
[重要性:中]
[具体例:ペンタゴンがAnthropicに対してこの法案を用いることを検討した]
C2PA: Content Authenticity Initiative(コンテンツ信頼性イニシアチブ)の略称。AI生成コンテンツを識別するためのメタデータ標準。
[重要性:中]
[具体例:SamsungはC2PAを採用している]
今後の影響
Anthropicの指定は、AI開発と軍事利用に関する倫理的な議論をさらに激化させる可能性があります。また、政府が民間企業に対してどのような権限を持つのかという問題にも注目が集まります。今後、Anthropicは他の企業との提携や資金調達に困難が生じる可能性があり、AI開発の進展に影響を与えるかもしれません。
- https://www.theverge.com/policy/886632/pentagon-designates-anthropic-supply-chain-risk-ai-standoff
- https://www.theverge.com/tech/885727/samsung-execs-unpacked-ai-deepfake-photos-vs-reality-c2pa
- https://www.theverge.com/ai-artificial-intelligence/886082/ai-vs-the-pentagon-killer-robots-mass-surveillance-and-red-lines