用AI審查AI程式碼!Anthropic推新工具,為開發者把關品質與安全

作者:黃柏霖

指尖日報 理財科技組


人工智慧(AI)新創公司Anthropic於2026年3月9日正式推出名為「Code Review」的AI程式碼審查工具,直接整合於旗下Claude Code平台,旨在解決一個由AI親手引發的新興難題:程式碼的「洪水氾濫」。 這項工具的問世,意味著軟體開發領域進入了一個「用AI審查AI」的全新階段。

近年來,伴隨AI寫作助理的普及,開發者的程式產出效率呈現爆炸性成長。 Anthropic內部數據顯示,過去一年每位工程師的程式碼輸出量激增了200%。 不過,這份甜蜜的負擔也帶來了嚴峻挑戰,開發流程中的瓶頸,正從「編寫程式碼」迅速轉移到「審查程式碼」。

問題在於,由AI輔助生成的程式碼雖快,卻可能隱藏著細微的邏輯錯誤或安全漏洞。 根據TechCrunch報導,業界將此現象稱為「程式碼洪水」(code flood),大量未經仔細審查的程式碼湧入儲存庫,讓人類開發者疲於應付。 史丹佛大學先前的研究也指出,過度依賴AI輔助可能導致開發者在無意中引入更多安全風險。

為了解決這個「自己惹的禍自己收」的窘境,Anthropic的新工具應運而生。根據官方說明,Code Review目前以研究預覽版形式,優先提供給Claude for Teams與Claude for Enterprise的企業客戶使用。 它能與主流的GitHub平台無縫整合,自動分析開發者提交的「拉取請求」(pull requests)。

其運作核心被形容為一套「多代理系統」(multi-agent system)。 根據The Register報導,當審查啟動時,系統會派出一支由多個AI代理組成的「艦隊」。 這些代理各司其職,從不同角度平行檢視程式碼,有的專注於邏輯一致性,有的則負責挖掘潛在的安全缺陷。

分析完成後,另一個AI代理會扮演總召角色,負責匯總所有發現、剔除重複項目,並根據問題的嚴重性進行排序。 最終,一份清晰的總結報告與針對特定程式碼的行內註解,會直接呈現在GitHub的審查頁面上,供人類開發者參考。

Anthropic強調,這套系統專注於挖掘深層的邏輯錯誤,而非無關緊要的程式碼風格問題,以確保回饋的有效性。 根據ZDNET揭露的內部測試數據,該工具在處理超過1000行程式碼的大型請求時,有高達84%的機率能發現的問題,平均每次能找出7.5個。

一個經典案例是,該工具曾在Anthropic內部攔截到一行看似無害的程式碼變更,但這項變更若被合併,將會直接癱瘓整個服務的身份驗證機制。 內部工程師事後坦言,這個隱晦的錯誤單靠人工審查極有可能會被遺漏。

不過,如此深入的分析能力並非沒有代價。根據SiliconANGLE報導,Code Review的收費模式既昂貴又耗時。 它的計價基於處理的「令牌」(token)數量,平均每次審查成本約落在15至25美元之間,且審查過程平均需要花費約20分鐘。

這樣的定價策略,使其與市面上其他按月收費的AI審查工具形成鮮明對比,也凸顯了Anthropic專攻大型企業、追求審查深度的市場定位。 這不僅僅是一個新產品,更是Anthropic在與GitHub Copilot等競爭對手的市場區隔策略——將戰場從個人開發者的編寫效率,延伸至整個團隊的審查品質與工作流程。

事實上,AI介入程式碼安全分析的趨勢已對產業帶來衝擊。根據CSIS的分析,就在今年2月,Anthropic另一款專注於安全掃描的工具發布後,曾引發網路安全類股的集體下挫,因為投資者擔憂傳統資安公司的商業模式將面臨威脅。


相關報導:nationaltoday.comfindarticles.com