Anthropic推出AI代碼審查工具應對AI生成代碼激增

Anthropic推出AI代碼審查工具應對AI生成代碼激增

在編程領域 , 同行反饋對于及早發現漏洞、維護代碼庫一致性和提升整體軟件質量至關重要 。

\"氛圍編程\"的興起改變了開發者的工作方式——這種方式使用AI工具 , 接受自然語言指令并快速生成大量代碼 。 盡管這些工具加速了開發進程 , 但也帶來了新的漏洞、安全風險和難以理解的代碼 。
Anthropic的解決方案是一款AI審查員 , 旨在在漏洞進入軟件代碼庫之前將其識別出來 。 這款名為Code Review的新產品于周一在Claude Code中推出 。
\"我們看到Claude Code的大幅增長 , 特別是在企業領域 , 企業領導者不斷向我們提出的問題是:既然Claude Code產生了大量拉取請求 , 我如何確保這些請求得到高效審查?\"Anthropic產品負責人Cat Wu告訴TechCrunch 。
拉取請求是開發者在代碼變更進入軟件之前提交代碼更改以供審查的機制 。 Wu表示 , Claude Code顯著增加了代碼輸出 , 這增加了拉取請求審查的工作量 , 造成了代碼發布的瓶頸 。
\"Code Review就是我們對這個問題的答案 , \"Wu說 。
【Anthropic推出AI代碼審查工具應對AI生成代碼激增】Anthropic推出Code Review——首先面向Claude for Teams和Claude for Enterprise客戶的研究預覽版——正值公司的關鍵時刻 。
周一 , Anthropic針對國防部將其指定為供應鏈風險向該機構提起了兩項訴訟 。 這場爭議可能會讓Anthropic更加依賴其蓬勃發展的企業業務 , 該業務的訂閱量自年初以來增長了四倍 。 據公司稱 , Claude Code的運行收入率自推出以來已超過25億美元 。
\"這款產品非常針對我們的大型企業用戶 , 比如優步、Salesforce、埃森哲等已經使用Claude Code的公司 , 現在需要幫助處理它產生的大量拉取請求 , \"Wu說 。
她補充說 , 開發主管可以開啟Code Review , 讓它默認為團隊中的每個工程師運行 。 啟用后 , 它與GitHub集成 , 自動分析拉取請求 , 直接在代碼上留言 , 解釋潛在問題并建議修復方法 。
Wu表示 , 重點是修復邏輯錯誤而不是風格問題 。
\"這非常重要 , 因為許多開發者之前見過AI自動反饋 , 當反饋不能立即采取行動時他們會感到困擾 , \"Wu說 。 \"我們決定純粹關注邏輯錯誤 。 這樣我們就能捕捉到最高優先級的修復內容 。 \"
AI會逐步解釋其推理過程 , 概述它認為的問題、為什么可能有問題以及如何潛在地修復 。 系統將使用顏色標記問題的嚴重程度:紅色表示最高嚴重程度 , 黃色表示值得審查的潛在問題 , 紫色表示與預先存在的代碼或歷史漏洞相關的問題 。
Wu表示 , 通過依賴并行工作的多個智能體來快速高效地完成這項工作 , 每個智能體從不同的角度或維度檢查代碼庫 。 最終的智能體匯總并排序發現的問題 , 去除重復并優先處理最重要的內容 。
該工具提供輕量級安全分析 , 工程負責人可以根據內部最佳實踐自定義額外檢查 。 Wu表示 , Anthropic最近推出的Claude Code Security提供了更深入的安全分析 。
多智能體架構意味著這可能是一個資源密集型產品 , Wu說 。 與其他AI服務類似 , 定價基于Token , 成本因代碼復雜性而異——盡管Wu估計每次審查平均成本為15到25美元 。 她補充說 , 這是一種高端體驗 , 隨著AI工具生成越來越多的代碼 , 這種體驗是必要的 。
\"Code Review來自市場的巨大需求 , \"Wu說 。 \"當工程師使用Claude Code開發時 , 他們看到創建新功能的摩擦減少了 , 對代碼審查的需求大大增加 。 所以我們希望通過這個工具 , 能夠讓企業比以往任何時候都更快地構建 , 并且比以往任何時候都有更少的漏洞 。 \"
Q&A
Q1:Code Review是什么?它能做什么?
A:Code Review是Anthropic推出的AI代碼審查工具 , 它能在代碼進入軟件庫之前自動識別漏洞 。 該工具與GitHub集成 , 自動分析拉取請求 , 直接在代碼上留言解釋潛在問題并建議修復方法 , 重點關注邏輯錯誤而非風格問題 。
Q2:Code Review如何工作的?
A:Code Review依賴多個智能體并行工作 , 每個智能體從不同角度檢查代碼庫 。 最終的智能體匯總并排序發現的問題 , 去除重復并優先處理重要內容 。 系統用顏色標記問題嚴重程度:紅色為最高嚴重程度 , 黃色為潛在問題 , 紫色為歷史漏洞相關問題 。
Q3:使用Code Review需要什么條件?成本如何?
A:Code Review首先面向Claude for Teams和Claude for Enterprise客戶提供研究預覽版 , 特別針對大型企業用戶如優步、Salesforce等 。 定價基于Token , 成本因代碼復雜性而異 , 平均每次審查成本估計為15到25美元 。

    推薦閱讀