![]()
Claude Code用戶去年平均每天要點擊47次權限確認彈窗——這個數字來自Anthropic內部統計,相當于每寫20分鐘代碼就要被打斷一次。現在這家公司決定讓AI自己拿主意。
3月25日發布的auto mode(自動模式),把權限審批從"人工窗口"改成了"AI安檢門"。
Claude Code是Anthropic去年推出的編程助手,能直接操作終端、讀寫文件、運行測試。但保守的默認權限設計讓它像個過度謹慎的實習生:每動一個文件都要問"可以嗎",長任務經常跑到一半卡住等人批復。
「Claude Code的默認權限故意設計得很保守,」Anthropic在公告里寫道,「大型任務因此耗時超出預期。」
公司還發現更麻煩的事:部分開發者干脆關掉了所有權限確認,讓Claude在裸奔狀態下操作代碼庫。這對數據安全是顆定時炸彈。
Auto mode想走中間路線。它用分類器(classifier)預審每個動作——安全操作自動放行,風險操作彈窗攔截。文件刪除、向外發送數據這類高危行為,AI會乖乖停下來問人;讀配置、跑測試這類常規動作,3秒內直接執行。
分類器是怎么做安檢的
技術細節Anthropic沒全公開,但核心邏輯不難理解:每個動作先過一道風險評分模型,分數低于閾值就綠燈,高于閾值就轉人工。
這有點像機場安檢的預檢通道。常旅客(低風險操作)走快速通道,陌生面孔(非常規請求)進人工審查。區別是Claude Code的"安檢員"是個神經網絡,判斷依據是動作類型、目標路徑、歷史行為模式。
但Anthropic自己承認,現在的分類器還會犯兩類錯:該攔的沒攔住,不該攔的攔下了。
「它可能在上下文模糊時允許風險操作,也可能不必要地阻止安全操作。」公告里的這句話,等于給auto mode貼了張"實驗品"標簽。
目前只有Teams訂閱用戶能試用,個人版還得等等。
為什么偏偏是現在推這個功能
時間線值得細品。Anthropic去年12月剛發布Claude 3.5 Sonnet的編程能力迭代,今年2月又推出Remote Control——手機端遙控Claude Code的工具。不到一個月,auto mode跟進。
節奏很緊。競爭對手也沒閑著:OpenAI的Codex、GitHub Copilot都在往"更少打斷、更多自動"的方向走。
但Anthropic有個獨特的數據籌碼。公司2月披露,Claude Code的工具調用里,50%集中在軟件工程場景——開發者是真把這東西當生產工具用,不是玩票。
高頻使用意味著高頻摩擦。47次彈窗/天的數據背后,是真實的用戶流失風險:要么被煩到關掉權限裸奔,要么被慢到棄用工具。
Auto mode是Anthropic對"信任悖論"的回應。AI編程助手要足夠有用,就得深入工作流;要足夠安全,就得處處設限。兩個目標天然打架。
競品在怎么解決同一個問題
GitHub Copilot走的是另一條路。它的代理模式(Agent Mode)同樣能自動執行多步驟任務,但權限粒度更粗——用戶一次性授權某個工作流,AI在流程內自主決策,而不是每個動作都預審。
區別在于信任假設。Copilot假設"用戶授權了=用戶負責",Anthropic則堅持"AI判斷+人工兜底"的雙層結構。
這符合兩家公司的基因差異。OpenAI和GitHub更激進,Anthropic更謹慎——從Claude一貫的"憲法AI"訓練方法就能看出來,安全約束是寫進模型底層的。
但謹慎有代價。Copilot的代理模式已經全量開放,Claude Code的auto mode還縮在Teams版里做研究預覽。
「改進會隨時間推出,讓系統更可靠。」Anthropic的承諾很標準,但沒給時間表。
開發者實際會怎么選
三類用戶畫像已經浮現。
第一類是"關彈窗派"。他們早就禁用權限確認,auto mode對他們沒吸引力——反正都是自動,不如徹底自動。
第二類是"保守派"。他們寧可慢點也要確認每一步,auto mode的"AI代審"反而增加不確定感:我憑什么相信它的判斷?
第三類是"中間派",也是auto mode的目標用戶。他們想提速,但不敢裸奔。分類器提供的"弱保證"——比純自動安全,比全人工快——剛好卡在這個需求縫隙里。
問題是,弱保證夠不夠?
一個具體場景:Claude Code在重構代碼時,把配置文件里的數據庫密碼當成了普通字符串要刪除。分類器會不會識別出這是敏感操作?如果上下文模糊,它可能放行——而Anthropic已經承認這種可能性存在。
反過來,它也可能在批量重命名測試文件時頻繁彈窗,因為路徑模式觸發了風險預警。這時候用戶又得回到手動點確認的老路上。
Auto mode的真正考驗,是這兩類錯誤的實際發生率。Anthropic沒公布分類器的準確率數據,研究預覽的標簽意味著他們自己也沒把握。
更大的圖景:AI代理的權限邊界在哪
Claude Code的auto mode是個微觀樣本,映射的是整個AI行業的宏觀焦慮:當AI從"回答問題"進化到"執行動作",控制權怎么分配?
完全人工審批,AI淪為高級搜索;完全自主決策,人類承擔不可控風險。中間的灰度地帶,每家公司都在摸索自己的平衡點。
Anthropic的選擇是"模型分層":底層LLM負責生成方案,上層分類器負責風險評估,人類保留最終否決權。三層結構,兩道保險。
但這道保險的成本是延遲。每個動作過分類器,哪怕只要3秒,累積起來也是可觀開銷。Anthropic沒提具體延遲數字,只強調"減少中斷"——暗示分類器判斷比人工點擊快,但比純自動慢。
另一個隱藏成本是誤傷。被錯誤攔截的安全操作,用戶可能根本不知道AI本可以自動完成。這種"沉默的減速"很難被感知和投訴。
更深層的問題是信任機制。人類為什么愿意把部分決策權交給分類器?因為Anthropic的品牌?因為技術白皮書?還是因為別無選擇?
「Claude Code的默認權限故意設計得很保守」——這句話換個角度讀,是Anthropic對用戶的不信任:我不相信你知道自己在做什么,所以我要設卡。
Auto mode是信任的升級:Anthropic開始相信,自己的分類器能比用戶更準確地判斷風險。這是一種傲慢,還是一種進步?
取決于分類器的實際表現。而表現數據,Anthropic還沒公布。
目前唯一確定的是:47次彈窗/天的折磨,Teams用戶可以先告別一部分了。至于告別的是麻煩還是保障,得等更多人踩過坑才知道。
你更愿意相信AI的判斷,還是自己的每次點擊?如果分類器誤判導致代碼丟失,責任算誰的——Anthropic,還是點過"啟用auto mode"的你?
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.