「忘れないAI」を実現するHermes Agentの記憶システム:3層構造と自己改善の仕組みを徹底解説
本記事は、AIエージェントがセッションをまたいで学習し、情報を保持し続けるためのオープンソースフレームワーク「Hermes Agent」の記憶システムについて詳細に解説している。従来のAIモデル(ChatGPTやClaudeなど)がセッション終了時に情報を忘れる「AI健忘症」という課題に対し、Nous Researchが開発したHermesは、人間の記憶に似た多層構造を採用しているのが特徴である。
この記憶システムは、以下の3つのレイヤーで構成されている。第一層の「Prompt Memory」(ホットメモリ)は、エージェント自身やユーザーに関する最重要情報をMarkdown形式のファイル(MEMORY.md, USER.md)に保存し、毎セッションのシステムプロンプトに注入される「作業記憶」の役割を果たす。この層は容量制限(それぞれ約2,200文字、1,375文字)を設けることで、プロンプトの肥大化とコスト増大を防ぐ工夫がされている。第二層の「Session Search」(検索メモリ)は、すべての会話履歴をローカルのSQLiteデータベース(state.db)に保存し、FTS5(全文検索)とLLM要約を組み合わせることで、必要な過去の情報をピンポイントで検索・想起する「長期記憶」として機能する。第三層の「Skills」(手続き記憶)は、複雑なタスクを成功裏に完了した際に、エージェントが自律的に手順書(Markdownファイル)を生成・更新する「やり方」を保存する。これは、単なるツール(関数)とは異なり、失敗知見まで含めた手順の蓄積を可能にする。
これらの3層は独立しているのではなく、「定期的な振り返りプロンプト」という自己評価プロセスを通じて連携し、エージェントが自発的に知識を整理・永続化する「自己改善ループ」を形成する。また、Hermesはデータがすべてローカル(完全ローカル)で完結し、ユーザーがメモリファイルを直接編集できる「透明性」を備えている点も大きな差別化要因である。これにより、単に情報を保存するだけでなく、「何を覚え、何を手順化するかを自分で判断する」高度な自律性を実現している。
背景
大規模言語モデル(LLM)を用いたAIエージェントは、セッションをまたいだ長期的な記憶や自己改善能力の欠如という課題を抱えていた。本記事で紹介されたHermes Agentは、この「AI健忘症」を解決するため、人間の記憶構造を模倣した多層的な記憶システムを設計・実装した先進的なオープンソースフレームワークである。
重要用語解説
- Prompt Memory: エージェントが毎セッション利用する最重要情報を格納する「作業記憶」層。システムプロンプトに直接注入され、短期的なコンテキスト維持に不可欠な情報(例:プロジェクトの技術スタック)を保持する。
- FTS5: SQLiteデータベースに組み込まれた全文検索エンジン。会話ログ全体から、キーワードや文脈に基づいた関連性の高い過去の情報を効率的に検索し、コンテキストに引き出す役割を担う。
- 自己改善ループ: エージェントがタスク実行後、定期的な振り返りプロンプトを通じて、学んだ知識や成功手順を自律的にメモリやスキルファイルに書き出し、自身の能力を向上させるプロセス。
今後の影響
Hermes Agentのようなローカル完結型エージェントは、AIの透明性と信頼性を飛躍的に向上させる。ユーザーがデータ管理を完全にコントロールできるため、機密性の高い業務や個人利用において、クラウド依存のリスクを排除し、より高度で自律的なAI活用を可能にする。今後のエージェント開発の標準的な設計思想となる可能性が高い。