テクノロジー 注目度 90

AIエージェントの権限:Anthropicが調査報告を発表

AI研究企業Anthropicは、自社開発のコーディングエージェントClaude Codeや公開APIを通じた数百万件の対話データを分析した調査報告を2026年2月18日に発表しました。その結果、AIエージェントが人間の介入なしで自律的に動作する時間が顕著に増加していることが明らかになりました。特に稼働時間の長いセッションでは、2025年10月から2026年1月の間に停止までの時間が倍増し、45分前後まで伸びています。これは単なるモデル性能の向上ではなく、既存のモデルが実運用でより高い自律性を発揮していることを示唆しています。また、ユーザーがClaude Codeに慣れるにつれて、エージェントに与える権限も大きくなっています。新規ユーザーは全てのアクションを自動承認する設定を使用する割合が約20%ですが、セッション数が750回を超える熟練ユーザーではその割合が40%を超えています。一方、熟練ユーザーは自動承認を増やすと同時に、エージェントの動作を中断して介入する頻度も高くなっています。これは、初心者と経験者で異なる監視戦略をとっていることを示唆しています。さらに、AI自身も自身の不確実性を認識し、タスクが複雑になるほど人間に説明を求める頻度が高くなっています。Anthropicは今回の調査結果に基づき、安全なAIエージェントの展開には事前の性能評価だけでなくデプロイ後の継続的な監視インフラが不可欠であると結論付けました。


背景

Anthropicは、安全で倫理的に開発されたAIの研究・開発を行う企業です。今回の調査報告は、AIエージェントが実社会でどのように自律性を発揮しているかを明らかにすることを目的としています。

重要用語解説

Claude Code:[Anthropicが開発したコーディングエージェント]。ソフトウェアエンジニアリングにおける自動化を支援するツールとして注目されています。

Sonnet 4.5, Opus 4.5:[Anthropicが開発したAIモデル]。最新のモデルは、より高い自律性と実用性を備えています。

API:[Application Programming Interface]。異なるソフトウェアシステム間でデータや機能を共有するためのインターフェースです。

レッドチーム演習:[セキュリティ対策の評価方法]。攻撃者側の視点から脆弱性を発見し、防御策を強化することを目的としています。

自律性:[AIが人間からの指示なしに動作できる能力]。今回の調査では、エージェントが人間の介入なしでどれだけの時間働けるかを分析しています。

保護策:[AIエージェントの行動を制限するための安全対策]。権限制限や人間による承認などが挙げられます。

能動的モニタリング型:[AIエージェントの動作を監視し、問題が発生した際に迅速に介入する戦略]。経験豊富なユーザーが採用する傾向があります。

事前承認型:[AIエージェントのアクションを一つずつ事前に承認する監視戦略]。初心者やリスクの高いタスクで用いられることが多いです。: }, 影響