元OpenAI幹部スタートアップがGoogleと巨額契約、次世代AIインフラを確保
元OpenAIの最高技術責任者(CTO)であるミラ・ムラティ氏が設立したスタートアップ「Thinking Machines Lab」が、Google Cloudと新たな数十億ドル規模の契約を締結したことが、TechCrunchの報道により明らかになりました。この契約は、Googleの最新AIシステム、特にNvidiaの新型GPU「GB300」を搭載したインフラへのアクセスを含むものです。契約額は単桁の数十億ドル規模と報じられています。
Googleは現在、AI開発者との間でクラウド契約を積極的に進めており、自社のAIコンピューティング提供を、ストレージ、Kubernetesエンジン、データベース製品であるSpannerなどの他のクラウドサービスと統合することを目指しています。この動きは、AnthropicがGoogleおよびBroadcomと、膨大なテンソル処理ユニット(TPU)容量の契約を結んだ事例や、同社の競合であるAmazonとの大規模な契約(最大5ギガワット)からも見て取れます。
Thinking Machines Labは、2025年2月にムラティ氏によって設立され、その後120億ドルの評価額で20億ドルのシードラウンドを調達しました。同社は「Tinker」という、カスタムの最先端AIモデルの作成を自動化するツールを開発し、10月に初製品をローンチしました。今回のGoogleとの契約は、同社が開発する「Tinker」の基盤となる「強化学習」ワークロードをサポートするものであり、この分野の計算資源の膨大さが契約規模に反映されています。
Thinking Machinesは、Google CloudのGB300搭載システムを利用する初期の顧客の一つであり、このシステムは従来のGPUと比較してトレーニングおよびサービス提供速度が2倍向上するとGoogleが述べています。この契約は、Googleが急速に成長する最先端のAI研究機関を早期に囲い込もうとする戦略的な動きを示すものと分析されています。
背景
AI開発競争が激化する中、最先端のAIモデルのトレーニングには膨大な計算資源(GPUやTPU)が必要です。GoogleやAmazonなどの大手クラウドプロバイダーは、自社のインフラを武器に、有力なAIスタートアップとの独占的または準独占的な提携を進めています。これは、今後のAI市場におけるインフラ支配権を確立するための重要な動きです。
重要用語解説
- Google Cloud: Googleが提供する包括的なクラウドコンピューティングプラットフォーム。AI開発に必要な計算資源、ストレージ、データベースなど多岐にわたるサービスを提供します。
- 強化学習 (Reinforcement Learning): AIが試行錯誤を通じて最適な行動を学習する機械学習の手法。DeepMindやOpenAIなどのブレイクスルーを支える主要なトレーニングアプローチです。
- GB300: Nvidiaが提供する最新世代のGPUチップ。従来のモデルと比較して、AIのトレーニングや推論の速度を大幅に向上させる次世代の高性能計算チップです。
今後の影響
この契約は、最先端AI開発における計算資源の重要性を再認識させました。Googleは、高性能なインフラとサービス群をパッケージ化することで、AI開発のボトルネックを握り、市場における優位性を高めるでしょう。今後、AIスタートアップは、特定のクラウドプロバイダーへの依存度が高まる可能性があります。