Anthropic、安全対策制限撤回を発表
AI企業Anthropicが、AIシステムの訓練に安全対策が十分であることを事前に保証できない限り控えるという自社の誓約を撤回しました。これは、アメリカ国防総省からの圧力と見られています。Anthropicは、競合他社が安全対策を実施せずに開発を進めている状況では、世界がより安全にならない可能性があると判断し、ポリシーを見直しました。新バージョンのポリシーでは、AIの安全リスクに関する透明性を高め、競合他社の安全対策と同等以上の取り組みを行うことを約束しています。また、大規模災害のリスクが重大だと判断した場合には、AI開発を「遅らせる」とも述べています。Anthropicは、ClaudeモデルやClaude Codeなどの製品で成功を収めており、年換算売上は年率10倍で成長していると報告されています。一方、アメリカ国防総省は、AnthropicのAIモデル「Claude」が機密性の高い作業に利用されることを希望しており、安全対策制限解除を求めていたと報道されています。
背景
Anthropicは2023年にAIシステムの訓練に関する安全対策を重視するポリシーを発表し、市場圧力に屈して危険な技術開発を急ぐことはない責任ある企業であることを強調してきました。しかし、競合他社が同様の措置を採用せず、アメリカ国防総省からの圧力もあり、Anthropicは2023年2月24日に発表された「バージョン3.0」でポリシーを見直しました。
重要用語解説
Anthropic:[AI開発企業]。世界的に注目されているAIモデルClaudeを開発・提供している。
Claude:[Anthropicが開発したAIモデル]。ソフトウェア作成ツールなど様々な用途に利用されている。
Responsible Scaling Policy:[Anthropicが発表した安全対策に関するポリシー]。AIシステムの訓練における安全対策の重要性を強調していた。
今後の影響
Anthropicのポリシー変更は、AI開発における安全対策と競争のバランスについて議論を巻き起こす可能性があります。また、アメリカ国防総省との関係性も注目されます。