網易首頁 > 網易號 > 正文 申請入駐

斯坦福大學研發AI"診斷師"

0
分享至


這項由斯坦福大學主導的研究以預印本形式于2026年4月發表,論文編號為arXiv:2604.05336v1,有興趣深入了解的讀者可以通過該編號在arXiv平臺查詢完整論文。研究提出了一個名為TRACE的系統,全稱是"Turning Recurrent Agent failures into Capability-targeted training Environments",中文可以理解為"把反復出現的失敗轉化為針對性訓練環境"。

當你把一個事情交給AI助手去辦,它頻頻出錯,你會怎么做?大多數時候,我們要么換一個更聰明的AI,要么反復給它講解規則,希望它能領悟。但斯坦福大學的研究團隊采用了一種截然不同的思路——先像醫生一樣給AI"做檢查",找出它到底哪里出了問題,然后專門針對這些薄弱環節設計練習題,讓AI反復練習直到真正掌握這項技能。

這個思路聽起來簡單,但實現起來遠比表面復雜。這項研究的價值在于,它提供了一套完全自動化的系統,不需要人類專家坐在旁邊一條一條地分析AI的失敗原因,而是讓AI自己完成這個"自我診斷"和"自我補課"的過程。實驗結果相當顯著:在模擬客服場景的測試中,經過TRACE訓練的AI助手,整體通過率從32.9%躍升至47.0%,提升了14.1個百分點;在工具使用測試中,完美完成任務的次數也增加了7個。這些數字背后,代表的是AI在真實工作場景中更可靠、更有用。

一、AI助手也會"選擇性失憶":問題的根源在哪里

考慮這樣一個場景:你雇了一位新員工來處理客戶投訴,他受過系統培訓,規章制度也背得滾瓜爛熟,但實際上手操作時卻頻頻出錯。老板盯著他的工作記錄,看到的只有"這個訂單沒處理好"、"那個客戶投訴了",卻很難從這些結果中直接判斷出,究竟是因為他不會查客戶資料,還是因為他沒有核對退款政策,抑或是他接了第一個任務就忘了后面還有其他任務。

當下大多數AI訓練方法面對的正是這個困境。研究人員通常有兩種選擇:要么給AI看大量來自各種場景的訓練數據,希望它能從中"悟"出各種技能;要么直接在目標場景里訓練AI,讓它從最終的成功或失敗中學習。第一種方法好比給新員工發了一本厚厚的百科全書,希望他能從中找到所需知識;第二種方法好比直接把他推上戰場,靠成敗來積累經驗。兩種方式都有一個共同的缺陷:AI從訓練信號中得到的反饋,是"這個任務整體成功了"或"失敗了",而不是"你在第三步查詢數據時出了問題"。

這個關鍵缺陷導致訓練變得低效。AI必須自己去猜測究竟是哪一個行為導致了最終的失敗,而當一個任務需要完成十幾個步驟時,這種猜測幾乎無從下手。斯坦福團隊把這類在完成任務過程中不可缺少的具體行為稱為"能力"。在客服場景里,"找到正確的客戶記錄"是一種能力,"檢查退款政策是否允許某項操作"是另一種能力,"在用戶提出多個請求時全部逐一處理完畢"又是第三種能力。每一種能力都是獨立的,都可能單獨成為AI的薄弱環節,而傳統的訓練方式對這種細粒度的區分完全無能為力。

TRACE系統的核心出發點,正是要打破這種籠統訓練的局限,轉而采用精準的診斷與針對性的補強。

二、四步走的"診斷-補課"流程:TRACE是怎么工作的

TRACE系統的運作方式可以用一位經驗豐富的輔導老師來類比理解。這位老師不會隨意給學生布置題目,而是先仔細審閱學生的歷次考卷,找出錯誤背后的規律,然后專門針對薄弱知識點設計練習,最后在正式考試時,根據題目類型自動調用學生最擅長的解題策略。TRACE就是這樣一位自動化的"AI輔導老師",整個過程分為四個步驟。

第一步是"出錯模式分析"。AI助手先在目標場景中實際工作一輪,積累一批成功和失敗的任務記錄。隨后,一個負責分析的AI(可以理解為輔導老師)仔細閱讀這些記錄,對比成功案例和失敗案例,尋找規律性的差異。分析過程分為兩個階段:先是"發現階段",分析AI通過檢查所有記錄中的工具調用、工具返回結果和最終回復,歸納出一份候選能力清單,并為每種能力起一個固定名稱和描述;然后是"標注階段",分析AI拿著這份清單,逐一檢查每條任務記錄,判斷每種能力在這條記錄中是"不需要"、"已正確執行"還是"本應執行卻沒有執行"。

有了這些標注之后,系統會計算兩個關鍵數字。一個是"對比差距":某種能力在失敗案例中缺失的比例,減去它在成功案例中缺失的比例。這個差距越大,說明這種能力越能區分成功和失敗,也就越值得重點訓練。另一個是"覆蓋率":某種能力的缺失,在所有失敗案例中占多大比例。只有兩個指標都超過閾值的能力,才會被選入訓練計劃。研究團隊還會重復這個分析過程多次,只保留每次都穩定出現的能力,確保結論的可靠性。

第二步是"定制練習環境"。對于每一種被識別出來的薄弱能力,系統會自動搭建一個專門用于訓練這種能力的練習場景。這個練習場景就像一個精心設計的模擬考場,有幾個關鍵特點:首先,它保留了真實場景的工具接口和交互規則,確保練習和實戰之間沒有脫節;其次,每道練習題都由程序根據隨機種子自動生成,可以產生無窮無盡的不同題目,防止AI死記硬背;再者,練習題的答案可以自動驗證,不需要人工批改。

更巧妙的是,練習題的難度被刻意調整到一個"甜蜜區"——基礎模型大約有30%到60%的概率能答對。如果題目太簡單,AI每次都能答對,就沒有學習空間;如果題目太難,AI次次都失敗,也無法獲得正向反饋。這個難度設定是為了配合后續的強化學習訓練機制。

第三步是"針對性強化訓練"。對于每一種能力,系統會訓練一個獨立的小型適配器(專業名稱叫LoRA適配器,可以理解為給AI安裝的一個專用"技能插件")。訓練方式是一種叫做GRPO的強化學習算法:AI在練習場景中一次生成多個不同的答案,系統根據每個答案的好壞給出分數,然后通過對比組內分數的高低來計算每個答案應該被強化還是削弱。這種方式不需要事先標注"正確答案長什么樣",只需要能判斷"答案是好是壞",因此非常適合復雜的多步驟任務場景。

每個"技能插件"只更新整個模型約5.3%的參數,非常輕量,訓練效率高。更重要的是,由于每個插件只專注于一種能力,訓練信號非常集中,AI能夠快速、有效地掌握這項技能,而不會因為同時學習太多東西而產生混亂。

第四步是"智能調度"。訓練結束后,每種能力都對應一個獨立的技能插件。實際使用時,系統需要根據用戶的具體請求,判斷當前任務最需要哪種能力,然后啟用對應的插件。這個判斷過程完全由基礎模型完成:系統給基礎模型展示用戶請求,以及每種能力的描述和一個典型案例,讓模型預測哪個選項最匹配。由于每種能力只對應一個單詞(比如A、B、C),模型只需要在這些候選詞之間選擇,判斷過程極為高效,每次任務只增加幾秒鐘的額外時間。

三、在客服和工具使用兩個戰場上,TRACE的表現究竟如何

研究團隊在兩個不同的測試場景中驗證了TRACE的效果,相當于把這套"診斷-補課"系統放到了兩個完全不同的考場里。

第一個測試場景叫τ?-Bench,模擬的是真實的客戶服務工作流程,分為航空公司客服和零售客服兩個子領域,合計164個任務。評分標準非常嚴格:只有當AI既正確完成了操作,又向用戶傳達了正確信息,才算通過,任何一點偏差都會導致失敗。

在這個測試中,基礎模型的通過率是32.9%,航空領域24%,零售領域36.8%。在幾個對比方法中,直接在目標環境里用強化學習訓練的模型(GRPO on Target)能達到37.8%,一種使用通用合成環境訓練的方法(AWM)能達到38.4%,而一種通過優化系統提示詞來植入能力描述的方法(GEPA)能達到39.6%。TRACE則以47.0%的整體通過率、44%的航空領域通過率和48.2%的零售領域通過率,顯著領先所有對比方法,比第二名的GEPA高出7.4個百分點。

尤其值得關注的是一個有趣的對比:僅僅針對單一能力訓練一個插件,就能達到40.3%的通過率,已經超過了AWM和ADP等使用大量通用訓練數據的方法。這說明"找準薄弱點精準訓練"的效率,遠高于"撒網式地大量訓練"。

通過反復分析,系統在τ?-Bench上識別出了四種核心能力薄弱點。第一種叫"結構化數據推理":AI無法正確解讀工具返回的復雜嵌套數據。比如用戶想訂一張下午兩點以后的經濟艙機票,查詢工具返回了各艙位的票價數組,AI卻讀錯了哪個數字對應經濟艙,導致反復支付失敗。第二種叫"工具調用精確性":AI知道該用哪個工具,但傳入了錯誤的參數。比如用戶要求退款到原來的信用卡,AI明明查到了正確的信用卡號碼,卻在調用退款工具時填入了禮品卡號碼。第三種叫"多步驟任務完成":AI完成了復合請求的第一部分就停了下來。比如用戶要求取消兩個預訂并修改第三個,AI完成第一項取消后發出了"如有需要請隨時告知"的禮貌性結語,然后陷入與用戶的無效對話循環,直到超時也沒有處理剩余兩個請求。第四種叫"前提條件驗證":AI沒有檢查策略規則就直接執行了操作。比如用戶要取消一張在14天前購買、沒有任何保險保障的經濟艙機票,根據規定這種情況不允許取消,但AI直接調用了取消接口,因為系統API本身不會強制執行策略,需要AI主動核查。

第二個測試場景叫ToolSandBox,測試的是更廣泛的工具使用能力,包含129個不同場景。評分方式更寬容,采用部分分制,最高1分,完全完成給1分,部分完成給中間分數。

在這個測試中,TRACE以0.552的平均相似度和26個完美分(滿分1.0)的成績領先,而基礎模型的成績是0.411和19個完美分,最強對比方法是0.520和22個完美分。

在ToolSandBox上,系統識別出了兩種關鍵能力薄弱點。第一種叫"權限錯誤恢復":當某個工具調用返回權限錯誤時,AI直接向用戶報告錯誤就停止了,而沒有去診斷并解決根本原因。比如用戶說"幫我打開Wi-Fi",AI調用開啟Wi-Fi的工具,結果返回了"低電量模式下無法開啟Wi-Fi"的錯誤,AI便直接告訴用戶"對不起,無法完成"。正確的做法是:先查詢低電量模式是否開啟(結果是開啟的),再關閉低電量模式,然后重新嘗試開啟Wi-Fi,最后告知用戶已成功完成。第二種叫"日期時間推理":AI直接嘗試心算Unix時間戳(一種表示時間的數字格式)來推算當前日期,而不是調用專門的時間轉換工具,結果頻繁算錯。比如用戶說"提醒我明天下午五點買巧克力牛奶",AI拿到時間戳1774511873后自己估算是2026年3月25日,其實當天是3月26日,于是把提醒設置成了已經過去的日期。正確做法是先調用時間戳轉換工具得到準確日期,再計算"明天"是哪天。

四、"合并技能"為什么反而不如"按需切換":一個反直覺的發現

在設計TRACE系統時,研究團隊面對了一個直覺上很自然的問題:既然要訓練多種能力,為什么不把它們都整合進同一個模型,而要保留多個獨立的插件并在使用時動態切換?

這個問題的答案可以用一個廚師的比喻來理解。假設有四位專業廚師,分別精通川菜、粵菜、日料和西餐。現在有兩種方案:一是讓這四位廚師互相切磋,最終產生一位"融合大廚",他一個人負責所有類型的料理;二是保留四位專業廚師,每次根據客人點的菜系,派對應的廚師出馬。表面上看,一位萬能大廚似乎更方便,但實踐證明,術業有專攻的分工往往能做出更好的效果。

研究團隊實驗驗證了這一點,并嘗試了四種將多種能力合并進單一模型的方法。第一種方法叫CORE-TSV融合,把分別訓練好的各能力插件通過數學方式直接疊加到一起,得到47.0%的基準,但結果只有39.6%,不如任何單一專項訓練插件。第二種方法叫多能力GRPO,在所有能力的練習場景里同時訓練一個統一插件,達到40.9%,略高于單一插件但遠低于TRACE的47.0%。第三種方法叫合成數據SFT,收集每個能力練習場景的成功軌跡,然后做監督微調,結果只有37.8%。第四種方法叫在線蒸餾,為每種能力訓練一個"老師模型",再訓練一個統一的"學生模型"去模仿老師,結果也只有37.8%。

對比之下,TRACE的路由策略只需要在使用時動態選擇對應插件,完全不需要任何額外的合并訓練,卻達到了最高的47.0%。這個發現背后有一個深層原因:當多種能力同時塞進一個模型時,這些能力之間會產生干擾,就像同時學習多門語言有時會讓各自都變得不流利。保持獨立的插件,每個插件專注于一種能力,反而能讓每種能力都達到最佳狀態。

五、訓練越多真的越好嗎:TRACE的擴展規律

研究團隊還專門研究了一個很實際的問題:增加訓練資源(更多的模擬對話輪次,或者訓練更多的能力),帶來的收益是否能持續增長?

從能力數量的角度看,TRACE在覆蓋1種、2種、4種能力時,通過率分別約為40.3%、43%、47%,呈現出穩定的遞進式提升。與之相比,GEPA(一種通過優化提示詞來植入能力描述的方法)在超過4種能力之后就陷入了停滯,無論再描述多少種能力,效果不再提升。這個差異說明,單靠文字描述能力、希望AI在提示詞層面"領悟",存在根本性的上限;而通過真實的強化學習訓練讓AI內化技能,才是真正可以持續疊加收益的路徑。

從訓練輪次的角度看,以τ?-Bench為例,TRACE在不斷增加訓練輪次時通過率持續穩定上升,從0輪次的32.9%一路攀升到5120輪次時的47.0%,曲線幾乎是一條平滑向上的折線。相比之下,直接在目標場景里進行GRPO訓練的曲線顯得波動起伏,甚至在3840輪次時出現了下滑(從37.8%跌到35.4%),最終停留在37.8%。GEPA則在較早的階段就趨于平緩,最終停留在39.6%。ToolSandBox上也呈現了相同的規律:TRACE的曲線穩健上升,最終達到0.552,而GRPO和GEPA則分別停留在0.519和0.520。

這組數據背后的邏輯是:當訓練場景與目標場景完全一致(即直接在目標場景上做GRPO)時,模型很容易陷入過擬合或訓練不穩定的狀態——它學到的可能是特定題目的答案,而非通用的能力;而TRACE的練習場景經過專門設計,每道題都由隨機種子程序生成,變化無窮,AI練的是"能力本身"而非"特定題目",因此能夠隨著訓練輪次的增加持續穩步提升。

六、這套系統背后的數學邏輯:為什么"對比分析"比"失敗分析"更可靠

研究團隊在設計能力識別算法時做了一個很關鍵的設計選擇:不是只看"哪些能力在失敗案例中缺失",而是計算"某種能力在失敗案例中缺失的頻率,與它在成功案例中缺失的頻率之差"。這個差值越大,說明這種能力越能區分成功和失敗。

這個設計的妙處可以用醫學診斷來理解。假設一種癥狀在發燒的患者和健康人中出現概率都是50%,那么這種癥狀對于診斷發燒幾乎沒有價值。但如果另一種癥狀在發燒患者中出現率是90%,在健康人中只有10%,那這種癥狀就是很強的診斷指標。TRACE的對比分析邏輯與此完全一致:一種能力如果在成功案例中也經常缺失,可能只是因為任務本身并不需要它,或者該能力的定義本身就不夠清晰;只有那些在失敗案例中明顯更多缺失的能力,才是真正的薄弱環節。

在實際測試中,研究團隊獨立運行了10次能力分析,"結構化數據推理"、"多步驟任務完成"和"前提條件驗證"三種能力每次都被穩定識別,"工具調用精確性"在10次中被識別到8次。與此同時,"條件推理"、"數值計算"、"早期終止"等其他候選能力只出現了少數幾次,無法通過篩選閾值,說明它們雖然偶爾出現在失敗案例中,但并不是區分成敗的關鍵因素。這種高度穩定的識別結果,驗證了對比分析方法的可靠性。

失敗覆蓋率的分布也非常集中:"結構化數據推理"覆蓋了約41個失敗案例,"多步驟任務完成"覆蓋約25個,"前提條件驗證"約34個,"工具調用精確性"約20個,而其他被淘汰的候選能力大多只覆蓋10到15個案例。這種高度集中的分布說明,目標場景的失敗模式并不是均勻分散的,而是高度聚焦在少數幾種能力缺失上。這也從實驗數據層面為TRACE的核心邏輯提供了支撐:少數幾種能力的缺失,足以解釋絕大多數失敗案例。

說到底,TRACE做的事情并不神秘。它用系統化的方式解決了一個長期困擾AI訓練領域的難題:怎么讓一個已經"基本合格"的AI,在特定場景中變得真正可靠。過去的思路是給AI灌輸更多數據,或者讓它在目標場景里反復試錯;TRACE的思路是先診斷后治療,找到具體的薄弱點,再定制化地修補。

這種思路對普通用戶意味著什么?以客服機器人為例,如果一家公司發現自己部署的AI助手在處理退換貨時經常出錯,不需要重新訓練整個模型,也不需要從頭設計訓練方案——只需要收集一批失敗記錄,跑一遍TRACE系統,幾個小時內就能生成針對這家公司業務特點的專項訓練,修補AI在該場景下的具體短板。

這項研究也引出了一些值得繼續思考的問題。當AI部署在全新場景時,事先沒有任何失敗記錄可供分析,TRACE的冷啟動問題如何解決?隨著部署場景的增加,插件數量也會隨之增長,如何管理越來越龐大的插件庫?當某個任務同時需要多種能力時,單一插件的路由策略是否足夠?這些都是下一階段研究可以深入的方向。有興趣追蹤后續進展的讀者,可以通過arXiv編號2604.05336關注這個研究方向的最新動態,也可以訪問研究團隊公開的代碼倉庫進行實際測試。

Q&A

Q1:TRACE系統是如何識別AI助手的薄弱能力的?

A:TRACE通過對比AI助手的成功記錄和失敗記錄來識別薄弱能力。系統計算某種能力在失敗案例中缺失的頻率與在成功案例中缺失的頻率之差,差值越大說明這種能力越關鍵。只有同時滿足"對比差距超過20%"和"覆蓋10%以上失敗案例"兩個條件的能力,才會被選入訓練計劃。整個分析過程會獨立重復多次,只保留每次都穩定出現的結論。

Q2:TRACE訓練出來的LoRA適配器為什么不直接合并成一個模型?

A:實驗證明,把多個能力適配器合并進單一模型會導致能力之間相互干擾,性能反而下降。研究團隊測試了四種合并方案,通過率均低于TRACE的按需路由策略。保持獨立適配器,在使用時根據任務類型動態選擇對應的適配器,能讓每種能力都維持最佳狀態,整體通過率比最強合并方案高出6.1個百分點。

Q3:TRACE和直接在目標場景里做強化學習訓練有什么區別?

A:直接在目標場景做強化學習(GRPO on Target)訓練時,模型從任務整體成功或失敗中學習,無法精確歸因到某種具體能力,容易陷入不穩定或過擬合。TRACE則先識別具體薄弱能力,再為每種能力設計獨立的練習場景,每道練習題由程序從隨機種子生成,題目無窮無盡。因此TRACE的性能隨訓練輪次持續穩定上升,而直接訓練的曲線波動明顯,最終停留在37.8%,而TRACE達到47.0%。

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
塔山之戰到底多慘烈?戰后9位將軍長眠,總預備隊為何最后都沒上

塔山之戰到底多慘烈?戰后9位將軍長眠,總預備隊為何最后都沒上

云霄紀史觀
2026-04-25 20:37:30
“指紋鎖”退出中國家庭?開鎖師傅說了實話,我連夜換回了鐵將軍

“指紋鎖”退出中國家庭?開鎖師傅說了實話,我連夜換回了鐵將軍

巢客HOME
2026-04-08 15:48:09
告天下子女:再孝順,也不要為年過70歲的老父母親,做這三件事

告天下子女:再孝順,也不要為年過70歲的老父母親,做這三件事

游戲收藏指南
2026-04-25 21:21:11
賈國龍天邊燜面兩月評分暴跌3.8分,網友直言兇多吉少

賈國龍天邊燜面兩月評分暴跌3.8分,網友直言兇多吉少

鐵錘妹妹是只貓
2026-04-25 23:03:39
不欺負孤兒寡母,是中國人的道德底線。

不欺負孤兒寡母,是中國人的道德底線。

張曉磊
2026-04-24 11:42:56
中超最新積分戰報:浙江隊4球慘敗,北京國安爆冷,上海海港大勝

中超最新積分戰報:浙江隊4球慘敗,北京國安爆冷,上海海港大勝

足球狗說
2026-04-25 21:55:44
震驚!廣州一互聯網公司招5名文員,收到4000余份簡歷,HR慌了…

震驚!廣州一互聯網公司招5名文員,收到4000余份簡歷,HR慌了…

火山詩話
2026-04-23 16:46:58
摸景甜胸側,抱李雪琴胳膊,31歲的他綜藝翻車,為何如此沒分寸感

摸景甜胸側,抱李雪琴胳膊,31歲的他綜藝翻車,為何如此沒分寸感

草莓解說體育
2026-04-15 04:23:51
讓以色列心驚膽戰的對手,終于猛龍過江了:既非土耳其,也非伊朗

讓以色列心驚膽戰的對手,終于猛龍過江了:既非土耳其,也非伊朗

遁走的兩輪
2026-04-19 19:10:28
那場難忘的世界最大水庫垮壩慘案:1975河南駐馬店大水

那場難忘的世界最大水庫垮壩慘案:1975河南駐馬店大水

尚曦讀史
2025-01-19 12:50:03
重磅!漢莎航空將取消約兩萬個航班

重磅!漢莎航空將取消約兩萬個航班

開元周游
2026-04-25 18:03:52
DeepSeek V4登榜,全球開源前5都是中國模型了

DeepSeek V4登榜,全球開源前5都是中國模型了

第一財經資訊
2026-04-25 15:46:49
上千業主入住多年無法辦房產證背后:一開發商多個樓盤涉違建、超建 住建局:已成立專班

上千業主入住多年無法辦房產證背后:一開發商多個樓盤涉違建、超建 住建局:已成立專班

紅星新聞
2026-04-25 20:48:31
國家一級女演員陳麗云被逮捕!

國家一級女演員陳麗云被逮捕!

許三歲
2026-03-28 09:24:30
蘇翊鳴朱易4年戀情結束!雙方互相取關,女方曬眼淚照喊話向前走

蘇翊鳴朱易4年戀情結束!雙方互相取關,女方曬眼淚照喊話向前走

萌神木木
2026-04-24 11:41:28
芯片觀察者:美國先將中國芯片鎖死在28nm,然后打擊成熟芯片擴產

芯片觀察者:美國先將中國芯片鎖死在28nm,然后打擊成熟芯片擴產

蜉蝣說
2026-04-24 11:38:51
2026 年機關事業單位改革后,公務員和事業編的差距更大了

2026 年機關事業單位改革后,公務員和事業編的差距更大了

細說職場
2026-04-25 13:26:51
美國人意識到,貿易戰后,將不會再有中國外的大規模工業化國家了

美國人意識到,貿易戰后,將不會再有中國外的大規模工業化國家了

小陸搞笑日常
2026-04-25 12:29:20
這才是剛走完長征的毛主席相貌,美國人拍攝,滿臉憔悴,瘦到脫相

這才是剛走完長征的毛主席相貌,美國人拍攝,滿臉憔悴,瘦到脫相

史之銘
2026-04-25 19:39:39
iPhone電池大降價僅35元起,高容量續航更持久!

iPhone電池大降價僅35元起,高容量續航更持久!

果粉之家
2026-04-25 12:54:24
2026-04-26 00:28:49
科技行者 incentive-icons
科技行者
科技正在如何變革商業世界
8130文章數 563關注度
往期回顧 全部

科技要聞

DeepSeek V4發布!黃仁勛預言的"災難"降臨

頭條要聞

媒體:美軍在中東罕見高密度集結 伊朗開始調整戰術

頭條要聞

媒體:美軍在中東罕見高密度集結 伊朗開始調整戰術

體育要聞

那一刻開始,兩支球隊的命運悄然改變了

娛樂要聞

《我們的爸爸2》第一季完美爸爸翻車了

財經要聞

90%訂單消失,中東旺季沒了

汽車要聞

2026款樂道L90亮相北京車展 樂道L80正式官宣

態度原創

家居
房產
親子
數碼
手機

家居要聞

自然肌理 溫潤美學

房產要聞

新一輪教育大爆發來了!海口,開始瘋狂建學校!

親子要聞

發生率僅十萬分之一!這種稀有血型跨省緊急調配,只為守護母嬰安全

數碼要聞

聯發科亮相2026北京車展:主動式智能體座艙解決方案

手機要聞

最新手機市場份額出爐:華為斷層第一,小米榮耀壓力山大!

無障礙瀏覽 進入關懷版