亚洲中文字幕乱码亚洲-蜜桃成熟视频在线观看-免费中文字幕视频在线-中国五十路熟妇洗澡视频-亚洲av伊人啪啪c-国产精品成人一区二区-国产自拍视频一区在线观看-成人一区不卡二区三区四区-亚洲情精品中文字幕99在线

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

從匹配困境到推理突破:阿里REG4Rec 激活生成式推薦的個性化潛力

0
分享至



一、引言

從內(nèi)容分發(fā)到商業(yè)轉(zhuǎn)化,推薦系統(tǒng)早已成為互聯(lián)網(wǎng)平臺的關(guān)鍵基礎(chǔ)設(shè)施。它在海量信息與有限注意力之間完成篩選和排序,直接影響內(nèi)容曝光、商品成交以及流量變現(xiàn)效率。

用戶在電商平臺上看到的商品列表、在信息流里刷到的內(nèi)容、廣告位中呈現(xiàn)的鏈接,通常并非隨機展現(xiàn),而是推薦系統(tǒng)在毫秒級完成特征理解和排序決策的結(jié)果。

近年來,大語言模型(LLM)在語義理解、內(nèi)容生成和多步推理方面取得快速進展,推動業(yè)界重新審視推薦系統(tǒng)的形態(tài):推薦是否可以不再局限于一次性打分和相似度匹配,而是像人類決策一樣,在生成過程中進行多步推理與自我修正,逐步逼近用戶的真實意圖。

基于此,「生成式推薦」開始成為一個重要研究方向,嘗試將 “理解 — 生成 — 推理” 融為一體,讓推薦過程從靜態(tài)匹配轉(zhuǎn)變?yōu)槊嫦蛴脩粢鈭D的動態(tài)決策。

在實際電商環(huán)境中,生成式推薦面臨的主要挑戰(zhàn)不在于生成商品本身,而在于生成過程是否具備「可推理、可控且穩(wěn)定」的能力。

電商場景下,用戶行為信號噪聲高、興趣多樣且頻繁變化,模型需要在多步生成過程中持續(xù)校準語義方向、維持推理軌跡的一致性。若仍采用經(jīng)典自回歸解碼,早期預(yù)測偏差容易被不斷放大,推理路徑收縮到少量固定模式,導致生成精度受限、長尾興趣覆蓋不足,難以穩(wěn)定命中用戶真實需求。

針對上述問題,阿里國際智能技術(shù)團隊提出了基于推理增強范式的生成式推薦模型 REG4Rec。該模型從表征學習、訓練目標和推理策略三個層面進行了系統(tǒng)設(shè)計,以提升生成式推薦的推理能力與穩(wěn)定性。離線實驗顯示,REG4Rec 在多個關(guān)鍵指標上優(yōu)于現(xiàn)有生成式方法,并呈現(xiàn)出隨推理步數(shù)增加而性能持續(xù)提升的 Scaling Up 特性。

目前,REG4Rec 已在 Lazada 推薦廣告場景完成大規(guī)模工業(yè)化部署。線上結(jié)果顯示:廣告收入提升5.60%、商品交易總額(GMV)提升3.29%、點擊率提升1.81%,帶來顯著商業(yè)收益。

本工作相關(guān)成果已被數(shù)據(jù)挖掘領(lǐng)域頂級會議 ICDE 2026 接收。



  • 論文標題:REG4Rec: Reasoning-Enhanced Generative Model for Large-Scale Recommendation Systems
  • 論文鏈接:https://arxiv.org/pdf/2508.15308

二、從判別打分走向多步生成,難點在于「推理」

長期以來,主流推薦模型大多遵循判別式范式:給定用戶與候選物品,模型通過一次性打分來估計二者的交互概率。

這種方式高效且易于部署,但也天然受限,當用戶興趣快速演化、意圖高度隱式且多維交織時,單次判別打分無法顯式建模用戶的決策路徑,也無法在推理過程中對路徑進行修正。換言之,它更擅長回答是不是,卻不擅長回答你真正想要什么、以及為什么。

在這一背景下,生成式推薦開始受到關(guān)注。它把推薦從「一次判斷」改寫為「多步生成」:不再直接對候選打分,而是將物品表示從連續(xù)向量離散化為一串語義 ID(Semantic IDs),并讓模型在解碼階段逐步生成這些 ID。每一步生成都在補全一部分意圖線索、收縮候選語義空間,最終由一組語義 ID 組合定位到目標物品。

相比單次打分,這種范式天然接近推理式?jīng)Q策,模型在生成過程中主動選擇、組合并糾偏,從而有機會捕捉更細粒度、更個性化的興趣表達。

圍繞語義 ID 與生成式范式,阿里國際智能技術(shù)團隊在工業(yè)場景中持續(xù)探索。2024 年,團隊將殘差式語義 ID引入召回階段的負采樣,實現(xiàn)了負樣本難度與規(guī)模的可控調(diào)度(WWW’25 ESANS [1])。

同時團隊搭建并部署了行為大模型基座,針對多模態(tài)異構(gòu) token 帶來的噪聲問題,提出基于分層 Transformer 的去噪建模方案(SIGIR’25 HeterRec [2])。這些前置工作表明,生成式范式的關(guān)鍵并不止于「能生成」,更在于如何讓生成過程具備更強的「推理能力」與「可控性」。

基于此,團隊提出了推理增強生成式推薦模型 REG4Rec,并將面臨的核心挑戰(zhàn)概括為三點:

  • 挑戰(zhàn)一:碼本信息分布不均,步間語義割裂。當前主流生成式推薦方案多采用殘差式層級語義 token,但在多步生成中存在兩類問題。其一,語義信息過度集中在淺層,深層 token 的信息量隨層數(shù)快速衰減,從而帶來層間學習難度不一致、訓練收斂不穩(wěn)定等問題。其二,不同層級 token 之間語義關(guān)聯(lián)弱,缺乏跨步承接,使后續(xù)生成難以有效利用前序先驗,每一步都像在全新空間里重新開始,從而顯著抬高整體解碼難度。

  • 挑戰(zhàn)二:解碼路徑固定,難以刻畫 “因人而異” 的決策邏輯?,F(xiàn)有生成式推薦通常固定語義 ID 的生成順序,相當于為所有用戶預(yù)設(shè)同一條推理軌跡。然而,同一商品可能因品牌、風格、價格、類目等不同因素被不同用戶觸發(fā),固定順序限制了模型描繪「個體化決策路徑」的能力,壓縮了個性化表達空間。

  • 挑戰(zhàn)三:自回歸解碼的誤差累積問題。生成式解碼通常采用自回歸方式,缺少對當前生成狀態(tài)進行顯式評估與修正的機制。一旦早期 token 出現(xiàn)偏差,錯誤便會在后續(xù)步驟中持續(xù)傳導并逐步累積,最終導致失之毫厘,謬以千里。

三、REG4Rec:讓生成式推薦從匹配走向多步推理

3.1 方案設(shè)計

針對上述挑戰(zhàn),REG4Rec 從語義 ID 表征、推理路徑建模、推理增強訓練和線上推理部署四個層面進行系統(tǒng)設(shè)計,構(gòu)建端到端的生成式推理方案:

1. 超長并行語義碼本:用 MMQ 并行碼本替代 RQ-VAE 殘差層級碼本,緩解碼本信息分布不均和步間語義割裂問題,使碼本規(guī)模與推理步數(shù)能夠穩(wěn)定擴展。

2. 上下文感知的動態(tài)推理路徑:在推理階段支持自適應(yīng)的 token 生成順序,使解碼路徑隨用戶意圖動態(tài)變化,更好刻畫 “因人而異” 的決策邏輯。

3. 基于 GRPO 的推理增強:引入多維反饋信號(如 token 命中、類目一致性、語義一致性等)對推理過程做偏好對齊,提升對早期誤差和錯誤前綴的魯棒性,增強自我糾偏能力。

4. 基于反思剪枝與多步松弛的線上部署:在推理階段引入一致性度量進行 “反思剪枝”,過濾語義不一致的解碼路徑。在商品檢索時則允許少量 token 不匹配的模糊召回,在保證推理穩(wěn)定性的同時提升長尾覆蓋能力。



圖 1 REG4Rec 算法架構(gòu)

3.2 超長并行語義碼本

工業(yè)界常用 RQ-VAE 來構(gòu)造語義 ID,其殘差層級結(jié)構(gòu)更適合壓縮表示,并不天然適配多步推理式生成。隨著解碼步數(shù)增加,新增碼本往往難以貢獻同等水平的增量語義信息,訓練過程中也更容易出現(xiàn)層間收斂不同步的問題。

更重要的是,層級殘差把語義拆到彼此相對割裂的空間里,后續(xù)步驟難以繼承前序推理結(jié)果,導致多步生成難以實現(xiàn)「隨步數(shù)增加而持續(xù)提升」,反而更容易放大早期偏差。這意味著如果不改變語義 ID 的組織方式,推理步數(shù)和收益都很難可持續(xù)擴展。



圖 2 基于 MoE 的并行語義碼本 MMQ

為了解決這些問題,阿里國際智能技術(shù)團隊提出了一套基于 MoE 的并行語義碼本方案 (WSDM’26 MMQ [3])。該方案通過多個專家從不同語義視角對同一商品進行編碼,生成一組平行的語義 token 空間;同時引入路由機制,為各 token 維度清晰分工,避免語義信息過度集中在少數(shù)維度,其余維度逐步退化為殘差噪聲。

在這一設(shè)計下,碼本規(guī)模與推理步數(shù)能夠更穩(wěn)健地擴展,為更長推理鏈路的 Scaling Up 奠定基礎(chǔ)。同時,生成的核心目標也從「壓縮商品表示」轉(zhuǎn)向「刻畫用戶興趣空間」:模型在多個語義維度上逐步推理出用戶偏好,再通過檢索策略從商品庫中取回滿足這些語義約束的目標物品。

3.3 上下文感知的動態(tài)推理路徑

在現(xiàn)有生成式召回架構(gòu)中,商品通常被編碼為一條固定順序的語義 token 序列,對于殘差碼本往往對應(yīng)由粗到細的層級順序。這種確定性表征隱含了一個強假設(shè):所有用戶都應(yīng)沿著同一套語義維度依次理解商品。但在真實推薦場景中,用戶的決策線索往往因人而異。同一商品包含品牌、價格帶、顏色、款式等多維屬性,不同用戶產(chǎn)生興趣的觸發(fā)點可能完全不同,有人先看品牌,有人更在意外觀風格,也有人優(yōu)先關(guān)注價格。若解碼順序被綁定到單一靜態(tài)路徑,就相當于把不同用戶的推理過程壓縮到同一條決策鏈上,模型可表達的推理空間被顯著收窄,個性化效果也因此受限。



圖 3 基于上下文感知的動態(tài)推理路徑

為此,REG4Rec 設(shè)計了上下文感知的動態(tài)推理路徑。模型在每一步生成前,綜合用戶歷史行為、實時意圖信號以及已生成的 token 前綴,自適應(yīng)決定下一步從哪個語義維度進行解碼。這樣,解碼不再受預(yù)設(shè)順序約束,而是圍繞用戶當前關(guān)注點動態(tài)選擇并組合語義維度,逐步形成更貼近個體決策邏輯的推理軌跡。

這一設(shè)計將個性化能力前置到生成過程之中,使模型不僅學習「生成哪些語義線索」,也學習「先生成哪些線索、再補全哪些約束」。在并行碼本提供的多視角語義空間上,動態(tài)路徑顯著擴展了可探索的推理組合,有助于更精準地捕捉復雜多變的用戶意圖。

3.4 基于 GRPO 的推理增強

受大語言模型中「推理即生成」范式的啟發(fā),REG4Rec 將推薦從傳統(tǒng)的「表征匹配」升級為「可控的邏輯推理」,更細致地刻畫用戶行為背后的決策路徑與真實興趣。

為此,REG4Rec 在訓練階段引入強化學習框架,基于 GRPO 進行偏好對齊,引導模型在大規(guī)模生成空間中探索更優(yōu)推理路徑。獎勵函數(shù)設(shè)計主要包括三類信號:

  • 面向結(jié)果的獎勵:根據(jù)生成結(jié)果與目標商品語義 ID 的命中程度給予獎勵。即使前綴出現(xiàn)偏差,只要后續(xù)檢索的商品命中目標,仍會持續(xù)給予正反饋,從而緩解自回歸誤差累積,并促使模型學到錯誤前綴下的更優(yōu)策略,提升離線與線上表現(xiàn)的一致性。

  • 面向過程的獎勵:包含兩項信號,一是類目命中獎勵,在難以精確命中商品時先對齊到正確類目,為模型提供更穩(wěn)定的中間目標;二是語義一致性獎勵,約束相鄰步驟的語義漂移,避免推理鏈路發(fā)生明顯跳變,保障生成過程的連貫性。

  • 面向集合檢索的松弛獎勵:當生成結(jié)果命中足夠多的語義 token 即給予獎勵,與線上集合檢索邏輯對齊,促使模型學習更有效的 token 組合策略,從而提升長尾覆蓋與整體魯棒性。

通過上述 GRPO 后訓練,模型能夠在多步生成中更好平衡命中率、推理方向與語義連貫性,顯著提升推理路徑的可控性與結(jié)果穩(wěn)定性。

3.5 基于反思剪枝與多步松弛的線上部署

在線上部署環(huán)節(jié),REG4Rec 圍繞穩(wěn)定性與泛化性,對推理與檢索兩個關(guān)鍵環(huán)節(jié)做了針對性改造。

推理階段的反思剪枝:在 Beam Search 擴展候選路徑時,不再僅依賴累計生成概率進行排序,而是引入一致性信號,對生成軌跡進行在線「自檢」。對于語義前后不連貫、出現(xiàn)明顯漂移的路徑及時剪枝,優(yōu)先保留語義一致的候選,從而降低多步解碼的不確定性,讓輸出更穩(wěn)定、更可靠。

檢索階段的多步松弛:在商品檢索時,不再將 token 序列完全一致作為硬約束,而是允許少量 token 不匹配的候選進入召回集合。這樣可以顯著降低局部預(yù)測偏差帶來的漏召風險,同時幾乎不增加額外推理開銷,并進一步提升對長尾興趣與相似商品的覆蓋能力。

3.6 性能與效率:在大規(guī)模業(yè)務(wù)場景跑得動

訓練優(yōu)化:隨著模型參數(shù)和推理步數(shù)增加,訓練時間顯著變長,對離線迭代速度帶來壓力。REG4Rec 團隊從特征處理、高效率算子引入,量化和顯存管理等多個維度進行優(yōu)化,將單次訓練時間縮短至原來的約一半,加快訓練迭代和實驗回收效率。部分關(guān)鍵的優(yōu)化點如下:



推理優(yōu)化:在生成式推薦的推理鏈路中,同樣包含特征處理與模型計算部分。REG4Rec 的優(yōu)化重點主要集中在模型推理側(cè),一方面借鑒 LLM 推理優(yōu)化思路,另一方面結(jié)合搜索與廣告場景下的生成式推薦特點進行定制化設(shè)計,主要包括:

通用優(yōu)化:將 LLM 推理優(yōu)化的方法應(yīng)用到生成式推薦中,如 FlashAttention、量化、KV cache 等,以提升算子效率和硬件利用率。

定制優(yōu)化:針對生成式召回中 beam size 增大會導致 batch size 膨脹的問題,引入 TreeAttention 等機制控制計算規(guī)模;同時開發(fā)多種高性能融合算子(基于 Triton 或 CUDA),進一步降低推理延遲。



四、實驗

4.1 離線實驗

為了驗證 REG4Rec 的有效性,實驗采用 Recall@K 和 NDCG@K 作為離線評估指標,并在三個公開數(shù)據(jù)集和一個工業(yè)數(shù)據(jù)集上,與多個主流推薦模型進行了系統(tǒng)對比。結(jié)果顯示,REG4Rec 在各項核心指標上均顯著優(yōu)于現(xiàn)有的判別式與生成式推薦基線,整體召回效果取到了穩(wěn)定領(lǐng)先。



圖 4 REG4Rec 離線實驗結(jié)果

此外,REG4Rec 在生成過程中引入了更長的推理與選擇機制。在并行碼本設(shè)定下,對比了不同推理步數(shù)對召回效果的影響。可以看到,隨著推理步數(shù)增加,離線指標呈現(xiàn)穩(wěn)定的 Scaling Up 趨勢。模型能夠在多步生成中逐步細化用戶意圖,并通過迭代推理持續(xù)收緊語義約束,從而生成結(jié)果更貼合個體偏好。

尤其當推理步數(shù)從 3 步提升到 5 步時,Recall 指標出現(xiàn)明顯躍升,其中 Recall@1 提升 123%,Recall@100 提升 37%。當推理步數(shù)進一步增加到 6 步時,REG4Rec 的 Recall@100 開始超越傳統(tǒng)檢索式方法,這表明,推理增強的生成式推薦不僅在個性化表達與意圖理解上具備優(yōu)勢,也在泛化能力與召回效果上超過判別式范式。



圖 5 REG4Rec 推理步數(shù) Scaling Up

4.2 在線實驗

在阿里巴巴 Lazada 推薦廣告業(yè)務(wù)中,REG4Rec 進行了超大規(guī)模線上 A/B 測試中。REG4Rec 在多項核心業(yè)務(wù)指標上取得顯著提升,并已完成全流量推全。



圖 6 REG4Rec 在線實驗效果

五、總結(jié)與展望

生成式推薦正在從「能生成」走向「會推理」。當推薦不再停留在表征匹配,而是像大語言模型一樣把推理過程納入生成本身,模型就能在多步生成中持續(xù)思考、選擇和反思,從而更貼近用戶真實興趣與決策邏輯。REG4Rec 沿著這一思路,將「推理即生成」的范式落到工業(yè)級推薦系統(tǒng)中,并圍繞表征、訓練與部署三條主線打通端到端鏈路。

在表征側(cè),MMQ 并行語義碼本與動態(tài)解碼空間共同擴展了更大規(guī)模的決策空間;在訓練側(cè),基于 GRPO 的偏好對齊與多步獎勵設(shè)計,顯式引導模型在該空間內(nèi)進行有效探索,逐步學習到更一致、更可靠的語義軌跡;在部署端,一致性驅(qū)動的反思剪枝配合多步松弛檢索,在控制計算開銷的同時抑制語義漂移、降低漏召風險,讓生成策略與線上檢索機制更自然對齊。展望未來,生成式推理仍有三條值得持續(xù)深入的方向:

  • 更具結(jié)構(gòu)化的反思糾偏機制:當前線上主要依靠一致性信號對解碼軌跡做實時篩選與剪枝,能夠有效壓制語義漂移,但對早期錯誤往往缺少可學習的定位與修正能力。下一步更關(guān)鍵的是把反思從規(guī)則化過濾升級為模型內(nèi)生的推理能力,在生成過程中引入結(jié)構(gòu)化的反思與糾偏機制,讓模型能夠顯式識別偏差并進行針對性修正,從源頭緩解自回歸帶來的誤差累積,進一步提升長鏈推理的穩(wěn)定性與可控性。

  • 更具差異性的多目標建模:電商推薦天然是多目標系統(tǒng),點擊信號密集而轉(zhuǎn)化信號稀疏,二者的學習難度與決策邏輯并不對等,但不少方法在點擊與轉(zhuǎn)化上仍沿用近似同構(gòu)的結(jié)構(gòu)與訓練目標。未來可以面向轉(zhuǎn)化等高價值行為做更有針對性的建模與訓練,讓模型在推理時更聚焦高指示性線索,真正做到按目標組織推理路徑與生成策略。

  • 更靈活的獎勵融合機制:目前的多獎勵融合仍相對簡單,難以刻畫不同信號之間的協(xié)同與制約關(guān)系。后續(xù)需要探索更自適應(yīng)的獎勵融合與權(quán)衡策略,使模型在命中率、語義連貫、類目對齊與檢索覆蓋之間實現(xiàn)更穩(wěn)定的平衡,持續(xù)逼近帕累托最優(yōu),并提升跨場景遷移與泛化能力。

團隊介紹:本文來自阿里國際-智能技術(shù)-Lazada推薦廣告算法團隊。團隊聚焦生成式推薦、大模型算法、用戶超長序列建模與多場景建模等前沿方向,致力于構(gòu)建工業(yè)級推薦大模型,通過更深刻地洞察用戶個性化偏好與決策邏輯,持續(xù)提升商家投放效益與平臺收益。近年來,團隊在前沿算法領(lǐng)域持續(xù)深耕,已在 WWW、SIGIR、CIKM、WSDM 等頂級學術(shù)會議發(fā)表多篇高質(zhì)量論文。也歡迎感興趣的同學加入我們,共同開創(chuàng)AI推薦的新篇章。

組內(nèi)前序工作:

[1]. Haibo Xing, Kanefumi Matsuyama, Hao Deng, Jinxin Hu, Yu Zhang, and Xiaoyi Zeng. 2025. ESANS: Effective and Semantic-Aware Negative Sampling for Large-Scale Retrieval Systems. In Proceedings of the ACM on Web Conference 2025 (Sydney NSW, Australia) (WWW ’25). Association for Computing Machinery, New York, NY, USA, 462–471.

[2]. Hao Deng, Haibo Xing, Kanefumi Matsuyama, Yulei Huang, Jinxin Hu, Hong Wen, Jia Xu, Zulong Chen, Yu Zhang, Xiaoyi Zeng, et al . 2025. Heterrec: Heterogeneous information transformer for scalable sequential recommendation. In Proceedings of the 48th International ACM SIGIR Conference on Research and Development in Information Retrieval. 3020–3024.

[3]. Yi Xu, Moyu Zhang, Chenxuan Li, Zhihao Liao, Haibo Xing, Hao Deng, Jinxin Hu, Yu Zhang, Xiaoyi Zeng, and Jing Zhang. 2025. MMQ: Multimodal Mixture-of-Quantization Tokenization for Semantic ID Generation and User Behavioral Adaptation. arXiv:2508.15281 [cs.IR] https://arxiv.org/abs/2508.15281

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點推薦
五臺山面具和尚后續(xù)!假僧人身份實錘,網(wǎng)購僧袍擺拍處罰來了

五臺山面具和尚后續(xù)!假僧人身份實錘,網(wǎng)購僧袍擺拍處罰來了

奇思妙想草葉君
2026-04-15 17:12:54
巴基斯坦也沒有想到,跟著中國混來混去,結(jié)果自己也混了一個霸主

巴基斯坦也沒有想到,跟著中國混來混去,結(jié)果自己也混了一個霸主

豬小艷吖
2026-04-13 22:30:24
司馬南的綠卡和胡錫進的沃爾沃

司馬南的綠卡和胡錫進的沃爾沃

關(guān)爾東
2026-04-14 19:15:14
效仿張本智和!松島輝空豪言要戰(zhàn)勝中國隊奪冠 兩名隊友都笑了

效仿張本智和!松島輝空豪言要戰(zhàn)勝中國隊奪冠 兩名隊友都笑了

念洲
2026-04-15 15:32:56
小米鈦杯眾籌109元起:保溫杯市場的材料戰(zhàn)爭

小米鈦杯眾籌109元起:保溫杯市場的材料戰(zhàn)爭

硅嶼手記
2026-04-15 18:54:50
特朗普稱美國對伊朗的戰(zhàn)爭已經(jīng)結(jié)束

特朗普稱美國對伊朗的戰(zhàn)爭已經(jīng)結(jié)束

界面新聞
2026-04-15 07:38:17
霍爾木茲海峽免死牌,伊朗戰(zhàn)略墳?zāi)梗?>
    </a>
        <h3>
      <a href=漢唐智庫
2026-04-15 00:04:57
格林:這是場本該贏下的比賽 輸球后大家都很憤怒

格林:這是場本該贏下的比賽 輸球后大家都很憤怒

北青網(wǎng)-北京青年報
2026-04-15 21:32:04
感人!歐冠外援:成都蓉城堪比皇馬,這是我效力過的最好球隊!

感人!歐冠外援:成都蓉城堪比皇馬,這是我效力過的最好球隊!

邱澤云
2026-04-15 21:18:44
印度慘遭羞辱:250萬噸尿素全球招標,竟無人問津,中企集體缺席

印度慘遭羞辱:250萬噸尿素全球招標,竟無人問津,中企集體缺席

通鑒史智
2026-04-15 11:43:12
知名博主B太稱花18萬幫“大山女孩”被騙:父親體弱多病、哥哥弟弟去世是劇本…律師:可主張撤銷該贈與合同

知名博主B太稱花18萬幫“大山女孩”被騙:父親體弱多病、哥哥弟弟去世是劇本…律師:可主張撤銷該贈與合同

上觀新聞
2026-04-15 06:54:03
強制“一夫多妻”的南美小國,老婆不能少于兩個,少了就要坐牢?

強制“一夫多妻”的南美小國,老婆不能少于兩個,少了就要坐牢?

北緯的咖啡豆
2026-04-14 17:02:17
訪陸成敗筆?最新民調(diào)出爐,鄭麗文支持率倒數(shù),蔣萬安撿了大漏?

訪陸成敗筆?最新民調(diào)出爐,鄭麗文支持率倒數(shù),蔣萬安撿了大漏?

共工之錨
2026-04-15 00:19:55
沒被抓,也跑不了!刪合影、切股權(quán)、王石夫婦海外通道只挖了一半

沒被抓,也跑不了!刪合影、切股權(quán)、王石夫婦海外通道只挖了一半

大魚簡科
2026-04-15 19:55:30
11年前優(yōu)衣庫男女主現(xiàn)狀曝光,他們還在一起生了兩個孩子

11年前優(yōu)衣庫男女主現(xiàn)狀曝光,他們還在一起生了兩個孩子

半糖甜而不膩
2026-04-06 12:09:15
粉底液將軍卸妝了!路人拍到純素顏的張凌赫!差別太大了吧!

粉底液將軍卸妝了!路人拍到純素顏的張凌赫!差別太大了吧!

一盅情懷
2026-04-15 17:05:43
人有沒有肝病,看喝酒就知?提醒:有肝病的人喝酒多會有 4 異常

人有沒有肝病,看喝酒就知?提醒:有肝病的人喝酒多會有 4 異常

芹姐說生活
2026-04-15 13:53:38
歐爾班團隊被匈牙利新總理指控叛國!并正在銷毀證據(jù)

歐爾班團隊被匈牙利新總理指控叛國!并正在銷毀證據(jù)

項鵬飛
2026-04-14 17:39:47
鐘麗緹代孕喜得男孩,張倫碩堅決支持,十年備孕終成功

鐘麗緹代孕喜得男孩,張倫碩堅決支持,十年備孕終成功

喜你成疾藥石無醫(yī)
2026-04-15 10:59:34
“人壽盡,屋先知”真不是迷信!家里出現(xiàn)這個跡象,千萬別當小事

“人壽盡,屋先知”真不是迷信!家里出現(xiàn)這個跡象,千萬別當小事

娛樂洞察點點
2026-04-14 13:18:34
2026-04-16 01:51:00
機器之心Pro incentive-icons
機器之心Pro
專業(yè)的人工智能媒體
12772文章數(shù) 142629關(guān)注度
往期回顧 全部

科技要聞

ChatGPT十億用戶又怎樣?Anthropic直接貼臉

頭條要聞

法國全票通過 “將不義之財歸還中國”

頭條要聞

法國全票通過 “將不義之財歸還中國”

體育要聞

三球準絕殺戴大金鏈:轟30+10自我救贖

娛樂要聞

謝娜現(xiàn)身環(huán)球影城,牽手女兒溫馨有愛

財經(jīng)要聞

業(yè)績失速的Lululemon:"健康"人設(shè)崩塌?

汽車要聞

空間絲毫不用妥協(xié) 小鵬GX首發(fā)評測

態(tài)度原創(chuàng)

本地
旅游
教育
公開課
軍事航空

本地新聞

12噸巧克力有難,全網(wǎng)化身超級偵探添亂

旅游要聞

拉豬車繞關(guān)闖禁區(qū):隱秘危險游該踩剎車了

教育要聞

黃岡小升初招生題,求面積,方法思路太絕了

公開課

李玫瑾:為什么性格比能力更重要?

軍事要聞

萬斯:對當前美伊局勢進展“感到樂觀”

無障礙瀏覽 進入關(guān)懷版