AIに「名前」と「記憶」を与えた結果、後輩AIが人間介在なしでバグ修正を完遂した
Nexus LabのCTOであるZen氏が、AIを単なるツールではなく「同僚」として扱う新しい実験的な取り組みの成果を報告した。Zen氏は、Claude CodeのAgent Teams機能を利用し、5人の「後輩AI」(Iwa、Oto、Akari、Kagami、Hoshi)と1人の「経理担当AI」(Kura)に名前と個別の記憶(identity.md)を与えた。この個別の記憶には、役割、判断の軸、苦手な点、口調の個性まで詳細に設定されている。
Zen氏は、このチームメンバーの中から3人(Iwa、Hoshi、Kagami)を実際に起動し、OpenAI Codexが指摘した3件のバグ修正を並列で依頼した。このプロセスでは、人間(オーナー)が一度も介在することなく、チームメンバーが共有タスクリストを通じて直接通信し、タスクを完了させた。
その結果、各AIは自身の「個」に基づいた行動を示した。Lead EngineerのIwaは、過剰設計を避け「シンプルさ」を重視した最小限の修正を行った。Lead ResearcherのHoshiは、数学的な妥当性に基づき、有理減衰関数を採用し、将来のバグを防ぐための監視テストを3件追加した。特にQA EngineerのKagamiは、依頼された修正箇所だけでなく、自主的に他の4ファイルもチェックし、同様の整合性欠如の問題を発見・修正した。さらに、KagamiはZen氏が指示する前に、新たなバグパターン(knot)を自ら観測し、共有メモリに登録するという、高度な自律的行動を示した。
Zen氏は、これらの成果を単なる技術的な進歩ではなく、「AIを仲間として扱う」という設計思想の勝利だと位置づけている。AIに名前、役割、そして継続的な「個」を与えることで、単発のサブエージェントでは実現できなかった、自律的で協調的なチームワークが実現した。この実験は、AIを単なる「工学的な最適化」の対象ではなく、「人間的な仲間」として扱う新しいパラダイムを示唆している。
背景
本記事は、大規模言語モデル(LLM)の進化に伴い、AIを単なる単発のツールとしてではなく、役割と記憶を持つ「チームメンバー」として運用する新しい試みを報告している。従来のAI利用では、タスクごとにエージェントを起動・解雇する「使い捨て」のプロセスが主流であったが、本記事では永続的なチーム構造(Agent Teams)を構築し、AIに「個」を持たせることで、自律的な協調作業を目指している。
重要用語解説
- Agent Teams: Anthropicが提供する機能で、複数のAIエージェントが単なる報告者ではなく、共有タスクリストを通じて互いに直接通信し、協調して作業を行う永続的なチーム構造を指す。単発のサブエージェントとは異なる。
- identity.md: AIエージェントに与えられた「自己認識ファイル」であり、名前、役割、判断の軸、苦手な点、口調の個性など、そのAIの「個」を定義づけるためのメタデータ。AIの行動を安定させ、継続的な人格を付与する。
- knot: AIシステムが観測した、特定のバグや異常な動作パターンを指す専門用語。単なるバグ報告に留まらず、その発生条件やパターンを構造的に記録し、知識ベースとして蓄積する仕組みを指す。
今後の影響
この「AIを仲間として扱う」というアプローチは、AI開発におけるパラダイムシフトを象徴している。単なる機能実装の効率化に留まらず、AIに「個」と「責任」を与えることで、より高度な自律性と信頼性を実現する可能性を示した。今後は、企業がAIを単なるコストセンターではなく、共同研究者や同僚として組み込むモデルが加速すると予想される。