AIエージェントの進化形「Claw」登場、セキュリティ懸念も
OpenAI共同設立者のアンドレイ・カーパシー氏が、AIエージェントフレームワーク「OpenClaw」を基に、さらに高度な機能を持つ「Claw」という概念を提唱しました。Clawは、個人のハードウェア上で動作し、メッセージングアプリなどを介して対話しながら、タスクの実行やスケジューリング、コンテキストの維持などを自律的に行うシステムです。カーパシー氏は、OpenClawのコードベースが40万行に及ぶ膨大な規模であり、その多くがAIによって生成されたバイブコーディングによるものである点を問題視し、「セキュリティの悪夢」であると批判しました。実際には、OpenClawはユーザーが任意の権限を付与できる一方で、それを制御できるようなセキュリティチェックが存在しません。そのため、マルウェアが大量に出回っているという報告もあります。一方、カーパシー氏はClawのアイデアについては高く評価しており、NanoClawやnanobot、ZeroClaw、IronClaw、PicoClawなどを紹介しています。これらのClawは、LLMエージェントがLLMの上のレイヤーであったように、エージェントの機能を次の段階へ引き上げるAIスタックの新しいレイヤーであると定義されています。
背景
OpenClawは、ユーザーが自由に拡張可能なAIエージェントフレームワークとして開発されました。しかし、その膨大なコードベースとバイブコーディングによる生成方法からセキュリティ上の懸念が生じています。
重要用語解説
OpenClaw: AIエージェントフレームワーク。ユーザーが独自のスキルを追加してカスタマイズできる。セキュリティの脆弱性やマルウェア感染のリスクがある。
Claw: OpenClawを基に、さらに高度な機能を持つAIエージェントシステム。個人のハードウェア上で動作し、メッセージングアプリなどを介して対話しながらタスクを実行する。
バイブコーディング: AIによって生成されたコード。品質やセキュリティの面で課題がある場合がある。
スキル: OpenClawで追加できる拡張機能。ファイル操作やテキスト処理など、様々なタスクに対応する。マルウェアとして利用される可能性もある。
今後の影響
ClawはAIエージェント技術の進化を象徴する概念であり、今後多くの開発者や企業が注目する可能性があります。しかし、セキュリティ上の懸念も高く、適切な対策が必要となります。