大多數人低估了昨天 Claude開放 100 萬上下文長度的更新,從 200K 到 1M,上下文長度其實不是提升到原來的 5 倍,而是 7 倍、8 倍、9 倍。
因為原來 200K 的上下文里有很大一部分會被系統提示詞、記憶、skills,以及預留的 compact buffer 所占據。所以你真正可使用的項目上下文長度其實就 100K 出頭,現在在 1M 上下文里,項目可用的上下文提升到了 900K 左右。
我打開 /context 截了兩張圖:
Sonnet 4.6(200K)——打開對話就用掉了 25%
![]()
Opus 4.6(1M)——同樣的 skill 配置,用掉的比例縮到 4%
![]()
Free space 的對比:
· Sonnet 4.6(200K):free space 118k(58.8%)
· Opus 4.6(1M):free space 923k(92.3%)
923 ÷ 118 ≈ 7.8 倍。名義上 5 倍,實際可用空間接近 8 倍。對于 skill 配置越重的用戶,這個數字越夸張——這就是我說它等效于 6-10 倍的原因。
被 compact 折磨過的人都懂這是什么感覺。對話太長觸發 compact,有時候順,有時候直接失敗,對話就卡死了。重開,手動粘貼上下文,每次都有信息損耗,然后模型在同一個地方再犯一遍你以為解決了的錯。
上下文不是容量,是草稿紙
費曼不相信自己說不清楚的東西。他的標準是:把所有符號去掉還能講清楚,才算真理解。上下文限制限制的不只是能放進去多少內容。
你正在解一道復雜的數學題,做到一半,我把你的草稿紙拿走了。你變笨了嗎?沒有。但你能解出那道題嗎?也不能了。
問題出在草稿紙,不在你的大腦。模型的上下文就是它的草稿紙。
記憶不只是存儲,是推理的原材料。推導結論,前提和中間步驟得記在某個地方,才能一步步往下走。每推一步就忘一步,算力再猛也推不出來。上下文窗口就是模型的有效記憶范圍,超出去只能猜。
所以模型出錯很多時候不是不夠聰明,是看不見:
代碼開發:bug 的根源在三個文件之前引入的變量定義。那個定義超出上下文了,模型看不見,只能猜。
長文寫作:寫到后半段,前面某個論點超出窗口了。模型開始隱隱復述已經說過的東西,或者前后邏輯出現細微矛盾。你改稿時才發現,時間沒了。
多輪對話:第 3 輪定的約束到第 30 輪消失了。建議越來越奇怪,你說不出哪里不對,就是感覺「它沒在聽」。
上下文越小,這類殘缺越多,判斷越差。
數據:上下文越長,Claude 和其他模型差距越大
數據也能說明這件事。Anthropic 用 MRCR v2(8-needle)測了一組長上下文檢索,任務是在超長文本里同時找多個藏起來的關鍵信息。
![]()
模型
256K
1M
Claude Opus 4.6 91.9% 78.3% Claude Sonnet 4.6 90.6% 65.1%
GPT-5.4
79.3%?
36.6%
Gemini 3.1 Pro
59.1%
25.9%
? GPT-5.4 的 256K 數據為 128K–256K 區間均值
上下文越長,差距越大。 256K 時幾個模型還擠在一起,拉到 1M,GPT-5.4 掉到 36.6%,Gemini 3.1 Pro 掉到 25.9%,Claude Opus 4.6 還在 78.3%。不是 Claude 在短上下文里更強——是拉長之后別人扛不住,Claude 還在。
Claude Code 的 PM Boris Cherny 也在推上確認了一件事:
Opus 4.6 1M 現在是 Claude Code Max、Team、Enterprise 的默認模型,不用改任何設置。Pro 版和 Sonnet 用 /extra-usage 手動開啟。
Anthropic 還引用了個客戶案例:用上 1M 上下文之后,自動壓縮事件減少了 15%。這跟我自己的體感對得上。我自己估,對長期迭代的復雜項目,這個價值至少等于模型能力提升 10%-20%。
API也取消溢價了
900K token 的請求和 9K token,現在一個價:
服務商
長上下文怎么收費
Anthropic Claude ? 無溢價,和短上下文一個價
OpenAI GPT-5.4
超過 272K 輸入收 2× 單價,輸出 1.5×
OpenAI 收長度稅,Anthropic 現在不收了。終于,上下文成了top模型的標配。理論上長上下文也確實不該是高級功能,本身就該是個模型基礎能力。
Claude Code Max 用戶(100 刀/月那檔)更簡單,1M 上下文直接就有,不用加參數,不用多付錢。
順帶還有兩件事
更新
圖片 / PDF 上限 100 → 600
以前一堆 PDF 要手動拆批,現在一次喂進去。我每次寫文章要整理十幾張截圖和參考資料,這個直接省了好幾步。
更新
Adaptive Thinking 轉正式版
模型自己判斷什么時候慢想、什么時候直接答,不用你手動配置推理深度。少了一層不必要的決策。
Context,Not Control.
AI 工具的進步有兩種:模型變聰明,或者把已有的能力真正釋放出來。1M 上下文 GA 是后者。但對于長期項目、復雜開發、以及被 compact 搞崩過的人,實際影響不比前者小。
費曼說過,背下來一個公式,和能自己從頭推導出來,是兩回事,重量完全不同。給模型喂答案,和給它喂能推導出答案的所有信息,也是兩回事。后者更難,但結果更靠譜。
上下文窗口,決定了你能給它多少推導所需的信息。之前太小,你得做減法——剪掉那些「可能有用但放不進去」的東西。每次剪,都是在賭這段信息不重要。賭對了沒感覺,賭錯了,模型就在某個你看不見的地方犯了一個你找不出原因的錯。
現在,你完全可以肆無忌憚去給模型投喂任何你覺得它該知道的信息了。
這個管理理念不止是在Netflix和字節,在大模型的使用和管理上也越來越有效了
Context,Not Control.
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.