Amazon BedrockとAmazon Neptuneを活用した企業別メモリ機能:AIチャットボットの高度化
本記事は、TrendMicroがAWSの複数のサービスを組み合わせて、エンタープライズ向けのAIチャットボットに「企業別メモリ(Company-wise memory)」機能を実現した事例を解説している。この機能は、AIエージェントが単なる現在の質問だけでなく、組織固有の文脈や長期的な会話履歴を理解し、適応した応答を可能にすることを目的としている。
【Who/What】TrendMicro(世界最大級のアンチウイルスソフトウェア企業)が、自社のAIチャットボットサービスを高度化するため、AWSのAmazon Bedrock、Amazon Neptune、Amazon OpenSearch Service、Mem0を組み合わせてシステムを構築した。これにより、企業固有の知識グラフに基づいた、永続的で文脈を理解した対話が可能となった。
【How/Why】従来のチャットボットが直面していた課題は、長期的な組織知識(長期メモリ)と継続的な会話履歴(短期メモリ)を正確かつ安全に統合することであった。この課題に対し、Amazon Neptuneが組織の関係性やプロセスを表現する「知識グラフ」を構築し、Amazon OpenSearch Serviceが検索を、Mem0が短期・長期メモリ管理を担う。Amazon Bedrockがこれらをオーケストレーションし、AIエージェントのワークフローを制御する。
【プロセス詳細】メモリの作成と更新は、ユーザーメッセージからエンティティや関係性を抽出し、Amazon Bedrock Titan Text Embedで埋め込み、OpenSearchとNeptuneの両方で検索・更新される閉ループプロセスで行われる。応答時には、OpenSearchのセマンティックな柔軟性とNeptuneの構造的な精度を組み合わせたデュアル検索戦略が用いられる。さらに、人間による承認(Human-in-the-loop)の仕組みを導入することで、ユーザーが参照されたメモリを承認・拒否でき、知識ベースの信頼性と正確性を継続的に向上させている。この仕組みにより、AIは「(Ilkhans, recognized, Kublai)」のような構造化されたトリプルに基づき、より正確で検証可能な回答を生成できる。
背景
エンタープライズAIチャットボットの進化に伴い、単なる質問応答を超え、組織固有の深い文脈理解と長期的な記憶保持が求められるようになった。本事例は、大規模言語モデル(LLM)の限界を、グラフデータベース(Neptune)と高度なメモリ管理システム(Mem0)を組み合わせることで克服した、最新のAIアーキテクチャの課題解決例である。
重要用語解説
- 知識グラフ (Knowledge Graph): 現実世界のエンティティ(実体)とその間の関係性をノードとエッジで構造的に表現したデータベース。組織の複雑な情報を整理し、AIの推論精度を高める。
- Amazon Neptune: グラフデータベースサービス。エンティティ間の複雑な関係性(トリプル)を効率的に保存・検索し、AIの文脈理解の基盤を提供する。
- Human-in-the-loop: AIシステムが生成した結果や判断を、最終的に人間がレビューし、承認または修正するプロセス。システムの信頼性向上に不可欠な仕組みである。
今後の影響
本技術は、企業が保有する膨大な非構造化データ(文書、会話ログなど)を、単なる検索対象ではなく、構造化された「知識」としてAIに提供することを可能にする。これにより、カスタマーサポート、社内ナレッジ検索、意思決定支援など、あらゆる業務プロセスにおけるAIの信頼性と実用性が飛躍的に向上すると予想される。今後のAIシステム設計の標準的なパターンとなる可能性が高い。