文 | 世界模型工場
Claude降智了?
近日,AMD AI集團(tuán)高級總監(jiān)Stella Laurenzo向Anthropic開炮。
她用團(tuán)隊(duì)真實(shí)生產(chǎn)日志,對6,852 個會話文件中的17,871個思考塊、234,760次工具調(diào)用做了回溯分析。
數(shù)據(jù)顯示,Claude從2月中旬開始出現(xiàn)了明顯的行為退化。
Claude的思考中位數(shù)從2200字符暴跌至600字符,下降67%-73%;
編輯前閱讀文件次數(shù)從6.6次銳減到2次,甚至三分之一的修改完全不讀文件就直接動手。
Stella在分析中指出,由于推理能力下降,模型在修改代碼之前逐漸不再完整閱讀代碼。
她寫道:"當(dāng)思考流于表面時,模型會默認(rèn)采取成本最低的操作"。
這不是個例,早在3月份,開發(fā)者們的不滿已經(jīng)開始集中爆發(fā)。
在X上,有用戶寫道:“我還以為最近幾周Claude是我自己瘋了。它感覺更慢、更懶,像回答前就不思考了,結(jié)果我沒幻覺”。
Reddit上也有用戶抱怨:“Claude感覺沒那么有意識了,像被做了腦葉切除術(shù)。除了變笨,它還開始不問就擅自做極端操作……”。
還有人表示這是Anthropic對用戶赤裸裸的背刺:“他們只是把問題對我們所有用戶變得不可見,就是覺得‘你量不到我就不給你看’……這就是AI實(shí)驗(yàn)室優(yōu)化利潤而不是輸出質(zhì)量的下場”。
![]()
從用戶吐槽到數(shù)據(jù)實(shí)錘,基本坐實(shí)了Claude的降智行為。
而Anthropic的官方回應(yīng),也默認(rèn)了思考深度和effort確實(shí)在被持續(xù)調(diào)整。
如果這是Anthropic有意而為之,那是不是意味著,以后模型能力會在不知不覺中“縮水”?
又或者,最強(qiáng)的模型能力,將不再平等地提供給所有人?
Claude降智“有意為之”
Claude Opus 4.6和其編碼專用模式Claude Code,在2026年1月推出時,曾被開發(fā)者奉為編碼天花板。
它思考深度驚人、research-first(先調(diào)研再動手),長上下文處理穩(wěn)定,多文件重構(gòu)幾乎無敵。
AMD內(nèi)部團(tuán)隊(duì)甚至用它在周末就把19萬行遺留代碼全部merge上線,生產(chǎn)力直接拉滿。
然而轉(zhuǎn)折發(fā)生在2月初。
Anthropic低調(diào)推出“adaptive thinking”功能,官方描述是“讓模型根據(jù)任務(wù)復(fù)雜度智能調(diào)整思考深度”。
表面上看是用戶友好,實(shí)則開啟了全局節(jié)流開關(guān)。
3月初,模型默認(rèn)effort值被悄然降至medium,同時思考過程摘要被快速隱藏,用戶再也無法一眼看出模型到底想了多深。
同一時期,Anthropic連續(xù)發(fā)布14個小版本更新,卻遭遇5次大規(guī)模宕機(jī),顯示出算力和負(fù)載壓力已經(jīng)逼近極限。
開發(fā)者反饋開始集中爆發(fā),有人注意到高峰期(美東下午)表現(xiàn)尤其差,懷疑是負(fù)載動態(tài)節(jié)流。
直到4月份AMD AI總監(jiān)親自下場,用數(shù)據(jù)實(shí)錘徹底引爆了輿論。
至此,Anthropic的Claude Code負(fù)責(zé)人Boris Cherny才不得不發(fā)布了一條官方回復(fù)。
他表示,“adaptive thinking”影響的是thinking的顯示,而不是底層推理,并堅(jiān)持這是“有意優(yōu)化”而非bug。用戶若想改善效果,可以手動把effort調(diào)到high。
Anthropic的潛臺詞很清楚:降智不是bug,是我們特意做的產(chǎn)品優(yōu)化,你們自己調(diào)參數(shù)就行。
這番回應(yīng)瞬間點(diǎn)燃了更大的怒火。
關(guān)鍵在于,從2月中旬到4月初,Anthropic從未提前公告任何重大變更。
大量付費(fèi)用戶在毫不知情的情況下,訂閱費(fèi)用一分沒少,模型卻被悄然節(jié)流。
所以Claude的降智并不是模型“腦子壞了”,而是Anthropic在做一種更隱蔽、也更商業(yè)化的動作:
通過調(diào)低默認(rèn)思考深度,去換更快的速度、更低的負(fù)載和GPU成本。
模型能力分層
這場降智風(fēng)暴的背后,其實(shí)有一個值得警惕的現(xiàn)象:
模型能力已經(jīng)開始分層。
Stella的測算很直白:按AWS Bedrock的on-demand定價口徑,她團(tuán)隊(duì)3月的實(shí)際推理成本約為42,121美元,而同月實(shí)際支付的Claude Code訂閱費(fèi)只有400美元。
這個差額至少說明,在極端重度使用場景下,訂閱制收費(fèi)與真實(shí)算力消耗之間存在巨大缺口。
這很有可能是Anthropic用資本燒錢換來的市場份額,但這種補(bǔ)貼是有邊界的。
當(dāng)重度用戶的推理消耗達(dá)到某個閾值,商業(yè)模式的可持續(xù)性就開始動搖。
Boris Cherny在回應(yīng)中透露了一個關(guān)鍵信號:Anthropic正在測試為Teams和Enterprise用戶默認(rèn)開啟high effort模式。
換句話說,更強(qiáng)的推理正在被當(dāng)成一種更昂貴的資源來分層配置,不再是人人默認(rèn)平等獲得的能力。
這意味著大模型的商業(yè)模式將進(jìn)一步分化。
如今Anthropic公司80%營收來自企業(yè)服務(wù)和API調(diào)用,高粘性B端才是真正的命脈。
當(dāng)下Anthropic的種種動作,都是為了把企業(yè)使用往自己的第一方平臺里收。
對于高價值的B端客戶,Anthropic大概率會加速推出更強(qiáng)的企業(yè)級版本,為支付真實(shí)成本的企業(yè)客戶提供完整的模型能力。
而C端月付用戶,只能繼續(xù)享用“夠用就好”的降智版,滿足聊天、寫文案、代碼補(bǔ)全等輕量化需求,但絕不觸及成本紅線。
至于中間地帶,那些既需要復(fù)雜推理、又無力承擔(dān)企業(yè)定價的獨(dú)立開發(fā)者、小型團(tuán)隊(duì),將成為最受擠壓的群體。
有用戶在X上發(fā)帖證實(shí):
“Claude企業(yè)版API的表現(xiàn)比Pro/Max訂閱好得多。用同一個測試框架測試,企業(yè)版和Pro/Max的行為方式就是不一樣。但這也意味著現(xiàn)在每個月要花4-12k美元,具體取決于我同時運(yùn)行多少個線程”。
也就是說,未來大模型的商業(yè)化路徑,大概率是B端優(yōu)先、C端降本。
誰來為降智買單?
Claude的降智事件,絕非孤例,而是整個AI行業(yè)進(jìn)入商業(yè)化下半場的縮影。
無論是OpenAI對GPT系列多次暗地縮水降級,還是Google對Gemini靜默限流,都在重復(fù)同一個劇本:
先用高性能吸引用戶上鉤,再通過軟件節(jié)流控制成本。
必然的結(jié)果就是,B端能用高價買到更強(qiáng)模型,外加SLA保障,而C端則拿到蒸餾版、低effort版的平民模型。
C端模型增智的速度,已經(jīng)明顯落后于B端。
更嚴(yán)重的是,這種分化是隱性的。
Anthropic等廠商正在以一種難以察覺的方式降低推理預(yù)算,普通用戶不會收到任何提示。
這種選擇在短期內(nèi)或許能緩解算力成本壓力,但長期代價是品牌信任度的喪失。
當(dāng)Claude會偷偷降智成為用戶共識,Anthropic失去的將不僅僅是幾個重度用戶,而是整個生態(tài)系統(tǒng)對AI普惠、透明敘事的信心。
更宏觀地看,Claude事件是AI行業(yè)從野蠻生長轉(zhuǎn)向精耕細(xì)作的縮影。
補(bǔ)貼期結(jié)束了,真實(shí)成本開始顯現(xiàn),誰來承擔(dān)這些成本?
是像這樣壓縮C端體驗(yàn)、提高B端定價,還是等待軟硬件革命帶來效率突破,這都將決定未來五年AI應(yīng)用的格局。
未來趨勢已初見苗頭,AI不再是越來越聰明的普惠神話,而是走向精英化分層。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.