Anthropic 針對 Claude Code 用量暴衝爭議提出多項建議,旨在協助使用者節省 Token 消耗。其中,避免不必要的額度浪費,以及預防閒置資源佔用,是相當重要的環節。
首先,Anthropic 建議使用者避免長時間沿用單一對話工作階段。若某個工作階段閒置超過一小時,且已累積大量上下文內容,持續在同一工作階段中操作,模型每次互動都需重新處理冗長的上下文,導致單次互動消耗大量 Token。因此,建議使用者定期重新開啟新的工作階段,以減少不必要的資源消耗。
再者,Anthropic 在 Claude Code 中提供上下文視窗上限設定,使用者可透過設定環境變數,例如 CLAUDE_CODE_AUTO_COMPACT_WINDOW=200000,自動壓縮過長的上下文。這項功能對需要常態開啟大型專案、讀取多檔案的開發者而言,能有效避免模型每次運算都載入過多的歷史內容。
除了 Anthropic 提出的建議,其他 AI 服務如 Google AI 的 Gemini,其額度消耗也與使用方式息息相關。提示詞的長度和複雜度、上傳檔案的數量和大小,以及使用進階功能如 Deep Research、圖像生成等,都會影響額度消耗速度。一般而言,提示詞越長、結構越複雜,模型運算資源需求越高;上傳檔案數量越多、容量越大,模型處理資源與上下文空間也會增加。因此,使用者應盡量使用精準的語句提問,避免過多背景資訊,並適時開啟新的對話,減少歷史上下文的負擔。此外,也應僅上傳真正需要分析的檔案,避免一次性投入大量冗餘資料。
This is a simplified version of the page. Some interactive features are only available in the full version.
本頁為精簡版,部分互動功能僅限完整版使用。
👉 View Full Version | 前往完整版內容