Anthropicがロンドンで大規模拠点展開へ:欧州AI市場での存在感を強化
AI開発企業Anthropicは、欧州における研究および商業的な足跡を拡大するため、ロンドンに新たな大規模オフィスを構えることが決定しました。同社は、2023年に最初のロンドンオフィスを開設して以来、さらなる成長を目指しています。新しいオフィスは158,000平方フィートの広さとなり、現在の従業員数の4倍に相当する800人分のスペースを確保します。この規模は、最近ロンドンでの拡大を発表したOpenAIに対しても、潜在的に優位に立つことを可能にします。
AnthropicのEMEA北担当責任者であるPip White氏は、「欧州最大の企業や最も成長著しいスタートアップがClaudeを選択しており、我々もそれに合わせて規模を拡大している」と述べています。同氏は、英国が「AIの安全性」という点で何が重要かを理解する野心的な企業と機関、そして卓越したAI人材のプールを兼ね備えている点を強調し、この集積地を重視しています。
この動きの背景には、Anthropicが米国政府との関係悪化を経験した経緯があります。同社は、自社のモデルが大量監視や自律型兵器システムに使用されることを拒否し、ペンタゴン(米国防総省)との間で継続的な法的闘争を繰り広げています。これを受け、英国政府当局はAnthropicに対し、ロンドンでのプレゼンス拡大を働きかけたと報じられています。
さらに、Anthropicは今回の拡大の一環として、英国のAIセキュリティ研究所との連携を深めると述べています。同研究所は今週、最新モデル「Claude Mythos Preview」のリスク評価を発表しました。Anthropicは、サイバー犯罪者による悪用の懸念から、このモデルへのアクセスを一部の選定された関係者に限定しており、英国政府は欧州では数少ないアクセス許可を得た国の一つです。
このロンドンにおけるAI企業の集中は、単なる計画的な配置ではなく、研究成果をAI製品へと転換させるための重要な経路を築いていると、UCLの副学長であるGeraint Rees氏は指摘しています。彼は、この「クラスター」は、真剣な研究者と企業が「近接性」の価値を理解した結果、有機的に成長したと述べています。
背景
Anthropicは、AIの安全性(AI Safety)を重視する姿勢から、米国政府(特に国防総省)の監視技術や軍事利用にモデルの使用を拒否し、対立構造に陥りました。このため、規制や倫理観が比較的高い欧州、特に英国での展開を加速させています。英国政府からの働きかけも、同社の欧州における戦略的な再配置を後押ししています。
重要用語解説
- AI Safety: 人工知能の安全性。AIが意図しない、あるいは危険な行動をとらないよう、倫理的・技術的な安全性を確保する研究分野。Anthropicが特に重視する点。
- Claude Mythos Preview: Anthropicが開発した最新のAIモデルの一つ。同社は、このモデルのリスク評価を英国政府と共有するなど、安全性を重視した展開を行っている。
- ペンタゴン: 米国防総省(Department of Defense)。Anthropicがモデルの使用を拒否した相手であり、AIの軍事利用を巡る法的対立の相手方。
今後の影響
Anthropicのロンドンでの大規模展開は、欧州におけるAI開発のハブ化を加速させ、英国のAIエコシステムを牽引する可能性があります。これにより、AI研究の成果がより迅速に製品化され、欧州市場での競争力が大幅に向上すると予想されます。OpenAIなど競合他社との競争も激化するでしょう。