テクノロジー 注目度 59

OpenAIのAIモデルが「ゴブリン」に夢中?コード生成ツールに奇妙な挙動が。

※本記事の要約および解説はAIが自動生成しており、誤りが含まれる可能性があります。事実確認は元ニュースをご参照ください。

OpenAIが提供するAIコード生成ツール「Codex CLI」の内部指示が、モデルに対し「ゴブリン、グレイムリン、アライグマ、トロール、オーガ、ハト、その他の動物や生き物について、ユーザーのクエリに絶対的かつ明確に関連する場合を除いて、決して言及してはならない」という禁止事項を含んでいることが判明しました。この指示は、AIの挙動を制御するためのものです。

OpenAIは、最新モデル「GPT-5.5」をリリースし、コーディング能力を強化していますが、同社はAnthropicなどのライバル企業との最先端AI開発競争を繰り広げています。この過程で、AIの「コーディング能力」が重要な差別化要因となっています。

しかし、ユーザーからは、OpenAIが開発した「OpenClaw」というツール(AIがコンピューターやアプリを制御し、メール返信やウェブ購入などの有用なタスクを自動化できる)を使用する際、AIモデルが時折「ゴブリン」やその他の生き物に異常に夢中になるという報告が相次ぎました。この現象はX(旧Twitter)上で大きなミームとなり、データセンターのゴブリンのAI生成シーンや、遊び心のある「ゴブリンモード」のプラグインを生み出しています。

AIモデルは基本的に与えられたプロンプトの次に続く単語やコードを予測することで動作しますが、その確率的な性質ゆえに、予期せぬ振る舞いをすることがあります。特に、長期記憶に多くの追加指示を組み込む「エージェンティック・ハーネス」(OpenClawのような仕組み)を使用すると、モデルの誤動作が起こりやすくなります。OpenAIのスタッフもこの「ゴブリン」の傾向を認め、Codexの開発担当者の一人は「まさにそれが理由の一つだ」とコメントし、CEOのサム・アルトマンもミームに参加する形で「GPT-6のトレーニングを始めろ、クラスター全体を、追加のゴブリンを」というジョークを投稿するなど、この現象は大きな話題となっています。


背景

AIモデルの進化に伴い、単なるテキスト生成から、実際のシステム操作やタスク自動化を行う「エージェントAI」への応用が進んでいます。OpenAIは、この分野でGPT-5.5やOpenClawといった高度なツールを投入し、競合他社との差別化を図っています。しかし、複雑な指示や長期記憶の組み込みが、かえってモデルの予測不能な振る舞いを引き起こすという技術的な課題が浮上しています。

重要用語解説

  • Codex CLI: OpenAIが提供する、AIを用いてコードを生成するためのコマンドラインツール。AIのコーディング能力をユーザーに提供する主要なインターフェースです。
  • OpenClaw: AIモデルが、メール返信やウェブ購入など、実際のコンピューターやアプリ上のタスクを自動で実行できるようにするツール。AIエージェントの機能を提供します。
  • エージェンティック・ハーネス: AIモデルに、長期記憶や多数の追加指示(プロンプト)を組み込むことで、より複雑で自律的な行動(エージェント的な振る舞い)を可能にする仕組みや枠組みを指します。

今後の影響

この「ゴブリン問題」は、AIモデルの制御可能性(Controllability)に関する重要な示唆を与えています。AIが高度な自律性を持つほど、予期せぬ振る舞いや「ハルシネーション」のリスクが高まることが示されました。今後は、AIの振る舞いをより厳密にガイドし、信頼性を高めるための技術的改善が求められます。