テクノロジー 注目度 90

中国AI3社がClaudeに大規模蒸留攻撃

Anthropic社のAI「Claude」が大規模な蒸留攻撃を受けました。中国のDeepSeek、Moonshot、MiniMaxの3社が約2万4000件の不正アカウントを使い、1600万回を超える対話を生成し、Claudeから能力を不正に抽出しました。これらの企業は、推論能力や報酬モデル用データの生成、コンピュータビジョン、エージェント機能、コーディング能力などを目的としていました。Anthropic社は、中国企業による行為が米国の輸出規制の効果を減退させていると指摘し、国家安全保障上の懸念も示しました。不正蒸留で構築されたモデルには、生物兵器開発や悪意あるサイバー活動を防ぐ安全対策が十分に反映されない可能性があり、軍事や監視用途に利用される危険があると警告しています。Anthropic社は、検知用分類器の導入や行動分析の強化など、対策を実行するとしました。


背景

蒸留攻撃とは、高性能AIモデルの出力を使って小型モデルを訓練する手法です。近年、競合他社のモデルから能力を不正に抽出するケースが増加しており、セキュリティ上の懸念が高まっています。今回の事件は、中国企業による大規模な蒸留攻撃であり、米国の輸出規制の効果を減退させている可能性があります。

重要用語解説

Claude: Anthropic社が開発した大規模言語モデル(LLM)。文章生成、翻訳、質問応答など多様なタスクに利用できる。

蒸留攻撃: 高性能AIモデルの出力を使って小型モデルを訓練する手法。競合他社のモデルから能力を不正に抽出するケースも増加している。

輸出規制: 特定の国や企業への技術・製品の輸出を制限する政策。米国は、軍事利用される可能性のあるAI技術の輸出規制を強化している。

ハイドラ・クラスター: 単一障害点を持たない分散型ネットワーク。不正アクセスを防ぐために使用されている。

LLM(大規模言語モデル): 大量のテキストデータで学習した、自然言語処理能力を持つAIモデル。

今後の影響

今回の事件は、AI技術の競争激化とセキュリティリスクの高まりを示しています。中国企業による不正蒸留攻撃が拡大すれば、米国製のAI技術の優位性が損なわれる可能性があります。また、保護機能が欠落したAIモデルが軍事や監視用途に利用される危険性も指摘されています。