Anthropicが「かつてのOpenAI」の道を辿る:Claude Opus 4.7の炎上から読み解くAI業界の構造的課題
本記事は、Anthropicの最新モデル「Claude Opus 4.7」がリリースされてからわずか1週間足らずで、「性能劣化」「深刻な品質低下」といった批判を浴びている現象を分析しています。この炎上は単なる新モデルへの不満に留まらず、AI業界全体に共通する「振り子構造」と「enshittification(クソ化)」という構造的な問題を示唆しています。
具体的には、Opus 4.7は、新トークナイザーによる実質的な値上げ、存在しないコミットハッシュを自信満々に提示するハルシネーションの増加、そして実務におけるモデル性能の顕著な低下という三つの問題点を抱えています。特に性能低下は、公式ベンチマークでは向上しているものの、TUIベンチマークなど実用的な評価では下位モデルのSonnet 4.6に劣る結果が出ています。また、公式な告知なしにデフォルトのeffortモードがmediumに引き下げられたこともユーザーの不信感を募らせています。
この状況は、AnthropicがかつてOpenAIを批判し、「AI Safety第一」「オープンで安全」という立場から台頭した経緯と酷似しています。OpenAIがGoogleやDeepMindのクローズドな姿勢を批判して勢力を築いたように、AnthropicもOpenAIの商業化路線を批判してきましたが、今度はAnthropic自身が、急激な成長(売上ランレート90億ドルから30億ドル超へ)の過程で、計算資源(compute)不足によるAPI稼働率の低下、モデル挙動の非透明な変更、そして実務での退行という形で、批判していた構造的な失敗を繰り返していると指摘されています。
筆者は、この現象を「enshittification(クソ化)」というプラットフォームのライフサイクルにおける構造的なパターンとして捉え、AmazonやFacebookなどのテック企業の歴史と比較しています。さらに、OpenAI側もGPT-4の劣化疑惑で炎上した過去があり、現在はCodexなどで名誉回復を図っていますが、Opus 4.7のリリースノートで「より文字通りに指示に従う」点を強調した結果、Claudeの強みであった「ニュアンスの理解」を削り、かといって整合性でCodexに追いつくこともできず、自社の強みを削って相手の土俵で戦おうとする「逆襲」の構図に陥っていると分析しています。結論として、この炎上は、AIを「思考のパートナー」として使う実務用途において、モデルが本質的な問題提起や上位の指摘ができなくなるという、より深い劣化が起きていることを示しています。
背景
本記事は、AI業界におけるモデルの性能劣化や企業戦略の変遷という構造的な問題を取り上げています。AnthropicがOpenAIを批判して台頭した経緯と、現在自身が類似の課題に直面している状況を対比させることで、AI技術の商業化に伴う普遍的な課題(enshittification)を指摘しています。
重要用語解説
- enshittification(クソ化): プラットフォームがユーザーに親切な初期段階から、ビジネス上の利益のためにユーザー体験を意図的に劣化させる構造的なプロセス。AmazonやFacebookなどのテック企業に適用される概念。
- Constitutional AI: Anthropicが提唱するAIの安全性確保のための手法。特定の憲法的な原則やルールセットに基づいてAIの応答を生成・調整する仕組み。
- ハルシネーション: AIが事実に基づかない、もっともらしい虚偽の情報を生成してしまう現象。特にモデルの信頼性が問われる場面で問題となる。
今後の影響
AIモデルの性能劣化は、単なる技術的な問題ではなく、ユーザーの信頼性に関わる構造的な危機です。企業が短期的な利益追求のためにモデルの挙動を調整することは、AIを「思考のパートナー」として利用する実務的な価値を低下させ、市場全体の信頼性低下を招く可能性があります。今後のAI開発は、透明性と実用性の確保が最重要課題となります。