Anthropicは2026年5月、AIエージェント「Claude Managed Agents」に新機能「Dreaming」を追加した。この機能は、AIエージェントが自らの動作ログを分析し、改善点を見つけて自動的に動作を更新する、いわゆる「自己改善型」の仕組みである。従来のAIエージェントは与えられたタスクを実行するだけの「使い捨ての道具」だったが、Dreamingはエージェントが経験から学び、次回以降のパフォーマンスを向上させる点で画期的だ。
Dreamingの具体的な動作は、まずエージェントがタスク完了後に、その実行ログをClaude自身に入力する。Claudeはログからパターンや非効率な箇所を特定し、改善策を提案する。その提案が人間の承認を経て反映されることで、エージェントは進化する。例えば、顧客サポート用エージェントが問い合わせへの応答時間を短縮するために、よく使う回答テンプレートを自動整理するといった改善が可能だ。
この機能の背後には、Anthropicの「Claudeは単なる応答生成モデルではなく、メタ認知能力を持つ」という設計思想がある。同社の共同創業者であるダリオ・アモデイ(Dario Amodei)は、「AIが自分の思考プロセスを振り返り、改善できることは、人間の部下がフィードバックで成長するのと似ている」と述べている。Dreamingによって、AIエージェントは最初に設定された固定のワークフローに縛られず、環境やデータに応じて自ら適応できるようになる。
実際、Anthropicが公開した事例では、金融向けの取引監視エージェントが、不正検出のルールをDreamingで自動更新し、誤検知率を30%削減したと報告されている。また、カスタマーサポートエージェントでは、過去1週間の対応履歴からFAQを動的に生成し、一次対応率を50%向上させた。このように、DreamingはAIエージェントを「学習する組織」のように進化させるのだ。
しかし、自己改善型AIにはリスクも伴う。悪意ある入力によってエージェントが誤った方向に改善されると、クオリティ低下やセキュリティホールを生む可能性がある。Anthropicはこの対策として、人間が改善提案をレビューする「Human-in-the-loop」の仕組みを必須とし、改善が反映されたエージェントの動作をシミュレーション環境で事前テストする機能も提供している。
さらに、Anthropicは計算資源の確保にも動いている。同社はSpaceXのデータセンター「Colossus 1」の全計算能力を利用可能にする契約を結び、Claudeの性能制限を一斉緩和した。これにより、Dreamingのような高負荷な自己改善プロセスを大規模に実行できる基盤が整った。Colossus 1は数十万個のGPUを備えた世界最大級のAI計算施設であり、AnthropicはここでClaudeの次世代モデルのトレーニングと、Dreamingワークロードの両方を同時処理する計画だ。
また、OpenAIやGoogle、Microsoft、xAIといった競合も、AIモデルの事前審査で米政権と合意したが、Anthropicは独自の安全対策を強調している。CEOのアマン・ダッタ(Aman Datta)は「Dreamingは安全性を高めるための機能であり、AIが暴走するのを防ぐ人間の監視を強化する」と述べ、業界内でのリーダーシップをアピールしている。
この技術は、AIエージェントの長期的な運用において、特に重要だ。固定されたルールでは環境変化に対応しきれないが、Dreamingがあればエージェントが継続的に最適化される。例えば、ECサイトの在庫管理エージェントは、季節変動やトレンドの変化を学習し、発注量の調整を自動化できる。これにより、人手をかけずに運用の最適化が可能になる。
Anthropicは今後、Dreamingの機能を拡張し、複数のエージェントが相互に学び合う「共同学習モード」や、外部データベースとの連携による知識の自動更新機能を追加する予定だ。また、この機能を利用する開発者向けに、Dreamingが提案した改善パターンを共有するマーケットプレイスも準備している。
総じて、DreamingはAIエージェントを静的なプログラムから、動的に成長する存在へと変える可能性を秘めている。スペースXのColossus 1という圧倒的な計算資源を背景に、Anthropicは「使い捨ての道具から育つ部下へ」というビジョンを現実のものにしつつある。この動きは、AI業界全体に自己改善型システムの流れを加速させるだろう。読者は、Dreamingを活用した具体的なビジネス変革の事例に注目すべきであり、特に金融やカスタマーサポート領域では早期導入が競争力に直結する。

