網易首頁 > 網易號 > 正文 申請入駐

AI時代的省錢哲學:如何把每一個Token花在刀刃上

0
分享至



文 | Sleepy.md

在那個按字收費的電報年代,筆墨即是金錢。人們習慣將萬語千言濃縮至極致,「速歸」抵得過一封長信,「平安」是最重的叮嚀。

后來,電話牽進了家門,但長途費按分秒計費。父母的長途電話總是言簡意賅,正事說完便匆匆掛斷,一旦話頭稍微延展,心疼話費的念頭便會掐斷剛冒頭的寒暄。

再后來,寬帶進家,上網按小時收費,人們盯著屏幕上的計時器,網頁一開即關,視頻只敢下載,流媒體在當時是個奢侈的動詞。每一個下載進度條的盡頭,都藏著人們對「連接世界」的渴望與對「余額不足」的忌憚。

計費的單位變了又變,省錢的本能亙古不變。

如今,Token 成了 AI 時代的貨幣。然而,大多數人尚未學會如何在這個時代精打細算,因為我們還沒學會如何在看不見的算法里計算得失。

2022 年 ChatGPT 剛出來的時候,幾乎沒人關心 Token 為何物。那是 AI 的大鍋飯時代,每月花個 20 美元,想聊多少聊多少。

但自從最近 AI Agent 火起來之后,Token 花銷變成了每一個用 AI Agent 的人都必須關注的事情。

不同于一問一答的簡單對話,一個任務流的背后是成百上千次的 API 調用,Agent 的獨立思考是有代價的,每一次自我修正、每一次工具調用,都對應著賬單上數字的跳動。然后你會發現你充值進去的錢突然就不夠用了,而且你還不知道 Agent 到底都干了什么。

現實生活里,大家都知道怎么省錢。去菜市場買菜,我們知道把帶泥的爛葉子擇干凈再上秤;打車去機場,老司機知道避開早高峰的高架。

數字世界里的省錢邏輯其實也一樣,只不過計費單位從「斤」和「公里」,換成了 Token。


在過去,節省是由于匱乏;而在 AI 時代,節省是為了精準。

我們希望通過這篇文章,幫你梳理出一套 AI 時代下的省錢方法論,讓你把每一分錢都花在刀刃上。


上秤前,先擇掉爛菜葉

在 AI 時代,信息的價值不再由廣度決定,而由純度決定。

AI 的計費邏輯是按它閱讀的字數收費。無論你喂進去的是真知灼見,還是毫無意義的格式廢話,只要它讀了,你就得付錢。

因此,省 Token 的第一個思維方式,就是把「信噪比」刻進潛意識。

你喂給 AI 的每一個字、每一張圖、每一行代碼,都要付錢。所以在把任何東西交給 AI 之前,記得先問問自己:這里面有多少是 AI 真正需要的?有多少是帶泥的爛菜葉?

比如「你好,請幫我...」這種冗長的開場白、重復的背景介紹、沒刪干凈的代碼注釋,都是帶泥的爛菜葉。

除此之外,最常見的浪費,是直接把 PDF 或網頁截圖扔給 AI。這樣的確你自己是省事了,但是 AI 時代的「省事」往往意味著「昂貴」。

一份格式完整的 PDF,除了正文內容,還包含頁眉、頁腳、圖表標注、隱藏水印,以及大量用于排版的格式代碼。這些東西對 AI 理解你的問題毫無幫助,但它們全部都要計費。

下次記得把 PDF 先轉成干凈的 Markdown 文本再喂給 AI。當你把 10MB 的 PDF 變成 10KB 的干凈文本時,你不僅省下了 99% 的錢,還讓 AI 的大腦運行速度比以前快得多。

圖片是另一個吞金獸。

在視覺模型的邏輯里,AI 并不在乎你的照片拍得美不美,它只在乎你占用了多少像素面積。

以 Claude 的官方計算邏輯為例:圖片的 Token 消耗 = 寬度像素 × 高度像素 ÷ 750。

一張 1000×1000 像素的圖片,消耗約 1334 個 Token,按 Claude Sonnet 4.6 的定價折算,每張圖片約 0.004 美元;

但如果把同一張圖壓縮到 200×200 像素,只消耗 54 個 Token,成本降到 0.00016 美元,差了整整 25 倍。

很多人直接把手機拍的高清照片、4K 截圖扔給 AI,殊不知這些圖片消耗的 Token 可能足以讓 AI 讀完大半本中篇小說。如果任務只是識別圖片里的文字或者做簡單的視覺判斷,比如讓 AI 識別發票上的金額、閱讀說明書里的文字,或者判斷圖中是否有紅綠燈,那么 4K 的分辨率就是純純的浪費,把圖片壓縮到最小可用分辨率就夠了。

但輸入端最容易浪費 Token 的原因,其實不是文件格式,而是低效的說話方式。

很多人把 AI 當成真人鄰居,習慣用社交式的碎碎念去溝通,先丟一句「幫我寫個網頁」,等 AI 吐出個半成品,再補充細節,再反復拉扯。這種擠牙膏式的對話,會讓 AI 反復生成內容,每一輪修改都在疊加 Token 消耗。

騰訊云的工程師在實踐中發現,同樣一個需求,擠牙膏式的多輪對話,最終消耗的 Token 往往是一次性說清楚的 3 到 5 倍。

真正的省錢之道,是放棄這種低效率的社交試探,一次性把要求、邊界條件、參考范例說清楚。少去費力解釋「不要做什么」,因為否定句往往比肯定句消耗更多的理解成本;直接告訴它「要怎么做」,并給出一個清晰的正確示范。

同時,如果你知道目標在哪里,就直接跟 AI 說清楚,別讓 AI 去當偵探。

當你命令 AI「找一下用戶相關的代碼」時,它必須在后臺進行大規模的掃描、分析與猜測;而當你直接告訴它「去看 src/services/user.ts 這個文件」時,Token 的消耗天差地別,在數字世界里,信息對等就是最大的節約。


別為 AI 的「禮貌」買單

大模型計費有個潛規則很多人沒意識到:輸出 Token 通常比輸入 Token 貴 3 到 5 倍。

也就是說,AI 說出來的話,比你說給它的話要貴得多。以 Claude Sonnet 4.6 的定價為例,輸入每百萬 Token 僅需 3 美元,而輸出則陡然跳升至 15 美元,整整 5 倍的價差。

那些「好的,我已完全理解您的需求,現在開始為您解答……」的禮貌開場白,那些「希望以上內容對您有所幫助」的客套結尾,在真人溝通時是禮貌的社交辭令,但是在 API 的賬單上,這些毫無信息增量的寒暄也都是要花你自己的錢的。

解決輸出端浪費最有效的手段,是給 AI 立規矩。用系統指令明確告訴它:不要寒暄,不要解釋,不要復述需求,直接給答案。

這些規矩只需設定一次,便在每一次對話中生效,是真正「一次投入、永久受益」的理財手段。但在建立規矩時,很多人又陷入了另一個誤區:用冗長的自然語言去堆砌指令。

工程師的實測數據表明,指令的效能不在于字數,而在于密度。將一段 500 字的系統提示詞壓縮到 180 字,通過刪掉無意義的禮貌用語、合并重復指令、并將段落重構為簡潔的條目化清單,AI 的輸出質量幾乎毫無波動,但單次調用的 Token 消耗卻能驟降 64%。

還有一個更主動的控制手段,那就是限制輸出長度。很多人從來不設置輸出上限,任由 AI 自由發揮,這種對表達權的放任,往往會導致極度的成本失控。你或許只需要一個點到為止的短句,AI 卻為了展現某種「智力誠意」,不由分說地為你生成了一篇 800 字的小作文。

如果你追求的是純粹的數據,就應當強制 AI 返回結構化的格式,而非冗長的自然語言描述。在承載同等信息量的情況下,JSON 格式的 Token 消耗遠低于散文化的段落。這是因為結構化數據剔除了所有冗余的連接詞、語氣詞及解釋性修飾,只保留了高濃度的邏輯核心。

AI 時代,你應該清醒地意識到,值得你付費的是結果的價值,而非 AI 那段毫無意義的自我解釋。

除此之外,AI 的「過度思考」也在瘋狂蠶食你的賬戶余額。

一些高級模型有「擴展思考」模式,會在回答之前先進行海量的內部推理。這個推理過程也要計費,而且是按輸出的價格來計價的,非常貴。

這種模式本質上是為「需要深度邏輯支撐的復雜任務」設計的。但是大多數人在問簡單問題的時候也選擇了這個模式。對于不需要深度推理的任務,明確告訴 AI「不需要解釋思路,直接給答案」,或者手動關掉擴展思考,也能幫你省不少錢。


別讓 AI 翻舊賬

大模型沒有真正的記憶,它只是在瘋狂地翻舊賬。

這是很多人不知道的一個底層機制。每次你在一個對話窗口里發出新消息,AI 并不是從你這句話開始理解,而是把你們之前聊過的所有內容,包括每一輪對話、每一段代碼、每一份引用文檔全部重新讀一遍,然后才回答你。

在 Token 的賬單里,這種「溫故而知新」絕非免費。隨著對話輪次的疊加,哪怕你只是追問一個簡單的詞,AI 背后重讀整本舊賬的成本也會呈幾何倍數增長。這種機制決定了,對話歷史越沉重,你的每一句提問就越昂貴。

有人追蹤了 496 個包含 20 條以上消息的真實對話,發現第 1 條消息平均讀取 14,000 個 Token,每條成本約 3.6 美分;到第 50 條消息時,平均讀取 79,000 個 Token,每條成本約 4.5 美分,貴了整整 80%。而且上下文越來越長,到第 50 條時,AI 要重新處理的上下文已經是第 1 條時的 5.6 倍。

解決這個問題,最簡單的習慣是:一個任務,一個對話框。

當一個話題聊完,果斷開啟新對話,不要把 AI 當成一個永遠不關機的聊天窗口。這個習慣聽起來很簡單,但很多人就是做不到,總覺得「萬一還要用到之前的內容呢」。事實上,那些你擔心的「萬一」絕大多數時候是不會出現的,而為了這個萬一,你已經在每一條新消息上多付了幾倍的錢。

當對話確實需要延續,但上下文已經變得很長時,我們可以利用一些工具的壓縮功能。Claude Code 有一個/compact 命令,能把長篇大論的對話歷史濃縮成一段簡短的摘要,幫你做一次賽博斷舍離。

還有省錢邏輯叫 Prompt Caching(提示詞緩存)。如果你反復使用同一段系統提示詞,或者每次對話都要引用同一份參考文檔,AI 會把這部分內容緩存起來,下次調用時只收取很少的緩存讀取費用,而不是每次都按全價計費。

Anthropic 的官方定價顯示,緩存命中的 Token 價格是正常價格的 1/10。OpenAI 的 Prompt Caching 同樣能把輸入成本降低大約 50%。一篇 2026 年 1 月發表在 arXiv 上的論文,對多個 AI 平臺的長任務進行了測試,發現提示詞緩存能把 API 成本降低 45% 到 80%。

也就是說,同樣的內容,第一次喂給 AI 要付全價,之后每次調用只要付 1/10。對于那些每天都要重復使用同一套規范文檔或系統提示詞的用戶來說,這個功能能省下大量 Token。

但 Prompt Caching 有一個前提,你的系統提示詞和參考文檔的內容和順序必須保持一致,而且要放在對話的最前面。一旦內容有任何改動,緩存就會失效,重新按全價計費。所以,如果你有一套固定的工作規范,就把它寫死,不要隨意修改。

最后一個上下文管理的技巧,是按需加載。很多人喜歡把所有的規范、文檔、注意事項一股腦塞進系統提示詞里,理由還是那個「以防萬一」。

但這樣做的代價是,你明明只是在做一個很簡單的任務,卻被迫加載了幾千字的規則,白白浪費一堆 Token。Claude Code 的官方文檔建議把 CLAUDE.md 控制在 200 行以內,把不同場景的專項規則拆分成獨立的技能文件,用到哪個場景才加載哪個場景的規則。保持上下文的絕對純凈,就是對算力最高級的尊重。


別開保時捷去買菜

不同的 AI 模型,價格差距巨大。

Claude Opus 4.6 每百萬 Token 輸入要 5 美元、輸出 25 美元,Claude Haiku 3.5 只要 0.8 美元輸入、4 美元輸出,差了將近 6 倍。讓最頂級的模型去干搜集資料、排版格式的雜活,不僅慢,而且很貴。


聰明的用法是把我們人類社會常見的「階級分工」思維帶到 AI 社會,不同難度的任務,交給不同價位的模型。

就像在現實世界里雇人干活,你不會專門去雇一個年薪百萬的專家去工地搬磚。

AI 也一樣。Claude Code 的官方文檔里也明確建議:Sonnet 處理大多數編程任務,Opus 留給復雜的架構決策和多步驟推理,簡單的子任務指定用 Haiku。

更具體的實操方案是構建「兩段式工作流」。在第一階段,用免費或廉價的基礎模型做前期的臟活累活,比如資料搜集、格式清理、初稿生成、簡單的分類和歸納。進入第二階段,再將提煉后的高純度精華投喂給頂級模型,進行核心決策與深度精修。

舉個例子,如果你要分析一份 100 頁的行業報告,可以先用 Gemini Flash 把報告里的關鍵數據和結論提取出來,整理成一份 10 頁的摘要,然后再把這份摘要交給 Claude Opus 做深度分析和判斷。這種兩段式工作流,能在保證質量的前提下,把成本大幅壓縮。

比單純的分段處理更進階的,是基于任務解構的深度分工。一個復雜的工程任務,完全可以被拆解為數個彼此獨立的子任務,并匹配最合適的模型。

比如一個需要寫代碼的任務,可以讓廉價模型先寫框架和樣板代碼,然后只把核心邏輯的部分交給昂貴模型來實現。每個子任務有干凈、專注的上下文,結果更準確,成本也更低。


你本來不需要花 Token

前面所有的探討,本質上都在解決「如何省錢」的戰術問題,但一個更底層的邏輯命題被很多人忽視了:這個動作,到底需不需要花 Token?

最極致的節省不是算法的優化,而是決策的斷舍離。我們習慣了向 AI 尋求萬能的解答,卻忘了在很多場景下,調用昂貴的大模型無異于高射炮打蚊子。

比如讓 AI 自動處理郵件,它會把每一封郵件都當成獨立任務去理解、分類、回復,Token 消耗巨大。但如果你先花 30 秒掃一眼收件箱,手動篩掉那些明顯不需要 AI 處理的郵件,再把剩下的交給 AI,成本立刻降到原來的一小部分。人的判斷力在這里不是障礙,而是最好用的過濾器。

電報時代的人知道,每多發一個字要多花多少錢,所以他們會掂量,這是一種對資源的直覺感知。AI 時代也一樣,當你真正知道每讓 AI 多說一句話要多花多少錢,你自然就會掂量這件事值不值得讓 AI 來做、這個任務需要頂級模型還是廉價模型、這段上下文還有沒有用。

這種掂量,是最省錢的能力。算力越來越貴的時代,最聰明的用法,不是讓 AI 替代人,而是讓 AI 和人去干各自擅長的事。當這種對 Token 的敏感性內化為一種條件反射,你才真正從算力的附庸,變回了算力的主人。


特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
鄭麗文命懸一線,單刀赴會黃光芹。

鄭麗文命懸一線,單刀赴會黃光芹。

手工制作阿殲
2026-04-25 21:39:25
有一說一!火箭108-112湖人!1人表現滿分,2人及格,4人不及格!

有一說一!火箭108-112湖人!1人表現滿分,2人及格,4人不及格!

youyou喜歡你
2026-04-26 12:17:59
臺媒:毛里求斯表態戳破臺當局謊言

臺媒:毛里求斯表態戳破臺當局謊言

參考消息
2026-04-25 19:55:46
5月1日起,抽煙、曬煙、買煙全變了!這些紅線碰了就罰

5月1日起,抽煙、曬煙、買煙全變了!這些紅線碰了就罰

李博世財經
2026-04-26 09:43:04
親戚一家6口人,去年暑假住我家10天給200塊,今年又厚著臉皮來了

親戚一家6口人,去年暑假住我家10天給200塊,今年又厚著臉皮來了

源遠講堂
2025-08-21 18:22:31
王鈺棟暴怒!終場哨后怒罵隊友,賽季3次情緒失控,曾怒懟球迷

王鈺棟暴怒!終場哨后怒罵隊友,賽季3次情緒失控,曾怒懟球迷

奧拜爾
2026-04-25 21:13:40
心源性猝死的人越來越多?醫生強調:寧可打打牌,建議別做這7事

心源性猝死的人越來越多?醫生強調:寧可打打牌,建議別做這7事

醫學原創故事會
2026-03-29 23:50:13
為什么奉勸老年人少去打麻將?64歲阿姨哭訴:這種消遣方式很害人

為什么奉勸老年人少去打麻將?64歲阿姨哭訴:這種消遣方式很害人

烙任情感
2026-04-25 11:39:08
老詹29+13連創歷史第一,湖人5大喜訊因禍得福!2年1100萬撿大漏

老詹29+13連創歷史第一,湖人5大喜訊因禍得福!2年1100萬撿大漏

鍋子籃球
2026-04-25 15:29:41
鄭維山本來已交接準備回國,聽聞韓總統不服,掉頭怒殲28000韓軍

鄭維山本來已交接準備回國,聽聞韓總統不服,掉頭怒殲28000韓軍

談古論今歷史有道
2026-04-25 10:55:03
華誼虧損超82億,不放棄事業不整容的羅海瓊,才是最清醒的老板娘

華誼虧損超82億,不放棄事業不整容的羅海瓊,才是最清醒的老板娘

一盅情懷
2026-04-18 08:08:54
理想L9 Livis內飾細節曝光!豪華但克制很有蔚來味!

理想L9 Livis內飾細節曝光!豪華但克制很有蔚來味!

車主之家
2026-04-25 20:03:27
唐伯虎真跡現身美國,世上僅此一件,網友:讓當代書家汗顏

唐伯虎真跡現身美國,世上僅此一件,網友:讓當代書家汗顏

幸福娃3790
2025-12-04 11:10:09
真敢講!Coco再曝謝賢隱私事,謝婷婷被牽連,評論區意外一致

真敢講!Coco再曝謝賢隱私事,謝婷婷被牽連,評論區意外一致

阿廢冷眼觀察所
2026-04-26 12:23:42
業績雷爆了!多公司一季報變臉,虧損擴大+營收暴跌,這些方向要小心

業績雷爆了!多公司一季報變臉,虧損擴大+營收暴跌,這些方向要小心

股市皆大事
2026-04-26 12:34:46
全球旗艦增程SUV,續航超1600km,僅售29萬多,實力不輸理想L9

全球旗艦增程SUV,續航超1600km,僅售29萬多,實力不輸理想L9

隔壁說車老王
2026-04-26 07:53:19
新CEO孫進掌舵,東方甄選四大主播離職,“去主播化”再升級

新CEO孫進掌舵,東方甄選四大主播離職,“去主播化”再升級

科技浮世繪
2026-04-25 19:31:17
李亞鵬復婚熱議登頂熱搜,海哈金發聲,身為父母彼此坦然相處

李亞鵬復婚熱議登頂熱搜,海哈金發聲,身為父母彼此坦然相處

往史過眼云煙
2026-04-26 12:15:01
溫州一鳴董事長!年薪公布

溫州一鳴董事長!年薪公布

溫曉生
2026-04-25 23:56:01
陳思誠怎么也沒想到,自己籌備的新片首映禮,被10歲兒子搶了風頭

陳思誠怎么也沒想到,自己籌備的新片首映禮,被10歲兒子搶了風頭

草莓解說體育
2026-04-26 09:11:29
2026-04-26 13:08:49
動察Beating
動察Beating
金融秩序如何被技術、資本與野心重塑|律動BlockBeats旗下深度報道賬號
92文章數 44關注度
往期回顧 全部

科技要聞

漲價浪潮下,DeepSeek推動AI“價格戰”

頭條要聞

白宮晚宴槍擊案或為"獨狼式"襲擊 特朗普:妻子躲得快

頭條要聞

白宮晚宴槍擊案或為"獨狼式"襲擊 特朗普:妻子躲得快

體育要聞

那一刻開始,兩支球隊的命運悄然改變了

娛樂要聞

《八千里路云和月》大結局意難平

財經要聞

DeepSeek V4背后,梁文鋒的轉身

汽車要聞

預售19.38萬元起 哈弗猛龍PLUS七座版亮相

態度原創

本地
教育
游戲
公開課
軍事航空

本地新聞

云游中國|逛世界風箏都 留學生探秘中國傳統文化

教育要聞

高考地理中的層理構造類型

《寂靜嶺:小鎮陷落》將在戰斗與潛行玩法中取得平衡

公開課

李玫瑾:為什么性格比能力更重要?

軍事要聞

伊朗總統:不會在壓力、威脅下進行談判

無障礙瀏覽 進入關懷版