AnthropicはAIコーディング支援ツール「Claude Code」に、プルリクエストを自動でレビューするマルチエージェント機能「Code Review」を追加した。チームおよびエンタープライズプランを対象に研究プレビューとして提供を開始している。
Code Reviewは、プルリクエストが作成されると複数のAIエージェントが並行してバグを探索し、偽陽性を排除したうえで重大度順に問題を整理する仕組みである。結果はプルリクエスト上に概要コメントとインラインコメントの形で報告される。承認判断は引き続き人間が担う設計となっている。
Anthropicによると、同社内ではこのシステムを大半のプルリクエストに適用した結果、実質的なレビューコメントが付いたPRの割合が16%から54%に上昇した。また大規模なPR(1,000行超の変更)では84%のケースで問題が検出され、平均7.5件の指摘があったという。
「バイブコーディング」の普及に伴いAI生成コードの量が急増する中、コードレビューがボトルネックになっているという企業からの声に応えた製品とAnthropicは説明する。Claude Codeのエンタープライズ向け年換算売上は既に25億ドルを超えており、企業向けサブスクリプションは今年初めから4倍に拡大している。
レビュー1回あたりの費用はトークン課金で平均15〜25ドル程度。管理者はリポジトリ単位で機能を有効化でき、月次の組織上限設定やコスト分析ダッシュボードも利用可能である。GitHubとの連携はGitHub Appのインストールにより設定する。
https://claude.com/blog/code-review

