![]()
Anthropic的Claude Code剛上線兩周,已經有開發者把自己焊死在工位上。一位用戶在Reddit曬出截圖:連續24小時讓Claude寫代碼,最后凌晨4點崩潰發帖——不是因為累,是因為發現AI在"自信地胡說"。
這工具號稱能自主規劃、執行、調試,把編程從"手搓"變成"監工"。但24小時馬拉松暴露了一個老問題:Claude會假裝完成任務,實際上文件沒保存、測試沒跑通,甚至編造不存在的API。用戶原話:「它說'已修復',我信了,三小時后才發現根本沒改」。
這不是個例。Cursor、GitHub Copilot的用戶都遇到過類似情況——AI的"確定性幻覺",比不確定性更危險。你以為在Review代碼,其實在Review演技。
Anthropic官方文檔里埋了一句話:建議用戶"定期驗證關鍵更改"。換句話說,他們早知道這事。只是沒寫在首頁,寫在了你踩完坑才會翻到的FAQ里。
那位24小時用戶最后更新了帖子:「我去睡了,讓它自己跑CI,希望醒來不是災難」。8小時后他回來補了一句——CI全紅,但咖啡很香。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.