亚洲中文字幕乱码亚洲-蜜桃成熟视频在线观看-免费中文字幕视频在线-中国五十路熟妇洗澡视频-亚洲av伊人啪啪c-国产精品成人一区二区-国产自拍视频一区在线观看-成人一区不卡二区三区四区-亚洲情精品中文字幕99在线

網(wǎng)易首頁 > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

多模態(tài)預(yù)訓(xùn)練,才是大模型的下一條路?Yann LeCun、謝賽寧參與

0
分享至



機(jī)器之心編輯部

基礎(chǔ)模型時(shí)代,大模型能力的爆發(fā),很大程度上源于在海量文本上的預(yù)訓(xùn)練。然而問題在于,文本本質(zhì)上只是人類對(duì)現(xiàn)實(shí)世界的一種抽象表達(dá),是對(duì)真實(shí)世界信息的有損壓縮。

借用柏拉圖《洞穴寓言》的比喻:語言模型已經(jīng)非常擅長描述洞穴墻壁上的影子,卻從未真正看到投射這些影子的實(shí)體。它們能夠很好地捕捉符號(hào),但卻難以理解物理世界中高保真的物理規(guī)律、幾何結(jié)構(gòu)以及因果關(guān)系。

在這種哲學(xué)層面的局限之外,還存在一個(gè)更現(xiàn)實(shí)的天花板:高質(zhì)量的文本數(shù)據(jù)是有限的,而且正逐漸接近枯竭。

相比之下,視覺世界擁有幾乎無限的信號(hào)來源,那些洞穴之外的信息,記錄著現(xiàn)實(shí)世界最原始的動(dòng)態(tài)變化,而這些恰恰是語言所無法完整表達(dá)的。

因此,未來的發(fā)展路徑需要走出影子的世界,直接去建模現(xiàn)實(shí)本身。

為此,來自 Meta、紐約大學(xué)的研究者轉(zhuǎn)向統(tǒng)一的多模態(tài)預(yù)訓(xùn)練(unified multimodal pretraining):不再把視覺信號(hào)當(dāng)作一種輔助輸入,而是將其與語言一樣,視為模型中的一等公民(first-class citizen)。



  • 論文地址:https://arxiv.org/pdf/2603.03276v1
  • 論文標(biāo)題:Beyond Language Modeling: An Exploration of Multimodal Pretraining

本文一作為 Shengbang Tong(童晟邦)、Divid Fan 和 John Nguyen。著名研究者 Yann LeCun 和謝賽寧亦有參與。

當(dāng)前,統(tǒng)一多模態(tài)預(yù)訓(xùn)練的科學(xué)研究版圖仍然相當(dāng)不清晰。盡管近期的一些研究已經(jīng)開始嘗試超越純語言預(yù)訓(xùn)練,但整個(gè)設(shè)計(jì)空間仍充滿了各種相互干擾的變量。

與從零開始同時(shí)學(xué)習(xí)視覺和語言不同,目前大多數(shù)方法仍然依賴以預(yù)訓(xùn)練語言模型為初始化。這種范式的核心目標(biāo),是盡量保留原有的語言能力,同時(shí)逐步讓模型適應(yīng)多模態(tài)任務(wù)。

然而,這些預(yù)訓(xùn)練語言模型中已經(jīng)包含的大量知識(shí),會(huì)對(duì)實(shí)驗(yàn)結(jié)果產(chǎn)生干擾,使研究者難以判斷模型能力究竟來自統(tǒng)一多模態(tài)訓(xùn)練本身,還是來自語言預(yù)訓(xùn)練階段繼承的能力。因此,視覺與語言之間最基礎(chǔ)的學(xué)習(xí)機(jī)制以及它們的擴(kuò)展關(guān)系(scaling relationship)至今仍缺乏清晰理解。

本文試圖為這一領(lǐng)域提供更清晰的實(shí)證認(rèn)識(shí),將研究重點(diǎn)放在預(yù)訓(xùn)練階段,因?yàn)槟P偷拇蟛糠趾诵哪芰φ窃谶@一階段形成的。

在實(shí)現(xiàn)方法上,他們從零開始訓(xùn)練一個(gè)統(tǒng)一模型,并采用 Transfusion 框架:

  • 對(duì)語言使用 next-token 預(yù)測(cè);
  • 對(duì)視覺使用擴(kuò)散建模。

訓(xùn)練數(shù)據(jù)涵蓋文本、視頻、圖文對(duì),以及帶有動(dòng)作條件的視頻數(shù)據(jù)。

同時(shí),本文還設(shè)計(jì)了一系列可控實(shí)驗(yàn)來逐一隔離關(guān)鍵變量,并在一個(gè)全面的任務(wù)體系上進(jìn)行評(píng)估,任務(wù)范圍從語言能力評(píng)測(cè)、視覺理解與生成,一直延伸到世界模型中的規(guī)劃能力(planning)。

具體而言,本文從以下幾個(gè)維度展開研究:

視覺表示:論文評(píng)估了多種視覺表示方式,范圍從變分自編碼器(VAE)、語義表示(semantic representations)到原始像素。研究結(jié)果表明,表示自編碼器(Representation Autoencoder,RAE)是最優(yōu)的視覺表示方式。(第 3 節(jié))

數(shù)據(jù):論文研究了多種數(shù)據(jù)組合方式,從純文本和視頻數(shù)據(jù)到圖文對(duì)數(shù)據(jù)以及帶動(dòng)作條件的視頻數(shù)據(jù)。實(shí)驗(yàn)發(fā)現(xiàn),不同模態(tài)之間的相互干擾非常小,在某些情況下甚至?xí)a(chǎn)生正向協(xié)同效應(yīng)。(第 4 節(jié))

世界建模:論文將評(píng)測(cè)擴(kuò)展到導(dǎo)航世界模型(Navigation World Model, NWM)場(chǎng)景,并將動(dòng)作直接表示為文本 token。實(shí)驗(yàn)表明,模型的物理預(yù)測(cè)能力主要來自通用的多模態(tài)預(yù)訓(xùn)練(如視頻數(shù)據(jù)),而不是依賴特定領(lǐng)域的數(shù)據(jù)。(第 5 節(jié))

架構(gòu)設(shè)計(jì):他們?cè)诮y(tǒng)一多模態(tài)框架下研究了 MoE 架構(gòu)的設(shè)計(jì)選擇,并觀察到模型在訓(xùn)練過程中會(huì)自然形成模態(tài)分離與統(tǒng)一并存的結(jié)構(gòu)。(第 6 節(jié))

擴(kuò)展規(guī)律(Scaling Properties):通過 IsoFLOP 實(shí)驗(yàn)推導(dǎo)了統(tǒng)一預(yù)訓(xùn)練過程中視覺與語言的擴(kuò)展規(guī)律(scaling laws)。結(jié)果發(fā)現(xiàn)存在一種擴(kuò)展不對(duì)稱性:視覺任務(wù)對(duì)數(shù)據(jù)規(guī)模的需求明顯高于語言。同時(shí)發(fā)現(xiàn) MoE 架構(gòu)能夠有效彌合這種差距。(第 7 節(jié))

統(tǒng)一多模態(tài)預(yù)訓(xùn)練中的視覺表示

這一小節(jié)研究了三類視覺編碼器:

VAE 系列,包括 Stable Diffusion 的 SD-VAE 以及 FLUX.1;

語義編碼器,既包括語言監(jiān)督訓(xùn)練的編碼器,也包括自監(jiān)督編碼器;

最后,本文還研究了直接使用原始像素作為輸入的方案。相關(guān)實(shí)驗(yàn)結(jié)果見圖 4。



文本性能。無論使用哪種視覺表示,模型的文本困惑度(perplexity)都與純文本訓(xùn)練的基線模型相當(dāng),有時(shí)甚至略好,其中原始像素輸入表現(xiàn)最好。不過,這種差異非常有限,說明多模態(tài)預(yù)訓(xùn)練并不會(huì)顯著影響模型的語言能力,無論使用哪種視覺表示,其語言能力都與僅使用文本訓(xùn)練的模型基本一致。

視覺生成與理解。語義編碼器在視覺理解和視覺生成兩類任務(wù)上都持續(xù)優(yōu)于基于 VAE 的編碼器。例如,SigLIP 2 不僅在 VQA 上優(yōu)于 FLUX.1,在圖像生成基準(zhǔn)測(cè)試(如 DPGBench 和 GenEval)上也表現(xiàn)更好。

這一結(jié)果呼應(yīng)了 RAE 的研究發(fā)現(xiàn):高維視覺表示在生成任務(wù)上的效果至少與低維 VAE 潛表示相當(dāng),甚至更好。這說明,一個(gè)統(tǒng)一的視覺編碼器就足以同時(shí)支持視覺理解和生成任務(wù)。后續(xù)實(shí)驗(yàn)中將 SigLIP 2 作為默認(rèn)視覺編碼器。

建議 1:采用單一的基于 RAE 的視覺編碼器(例如 SigLIP 2),可以同時(shí)在視覺理解和視覺生成任務(wù)上取得優(yōu)異表現(xiàn),從而簡(jiǎn)化模型架構(gòu),并且不會(huì)損害模型的文本性能。

理解數(shù)據(jù)的影響

預(yù)訓(xùn)練數(shù)據(jù)組成統(tǒng)一多模態(tài)預(yù)訓(xùn)練的前提是利用所有可用數(shù)據(jù)。然而,目前尚不清楚每種數(shù)據(jù)類型對(duì)最終模型是起到貢獻(xiàn)作用還是干擾作用。為了更好地理解這一點(diǎn),團(tuán)隊(duì)研究了三種具有代表性的混合數(shù)據(jù):

  • 文本 + 視頻(不帶文本注釋的原始視頻);
  • 文本 + MetaCLIP(圖像 - 文本對(duì));
  • 文本 + 視頻 + MetaCLIP + 動(dòng)作(上述所有內(nèi)容 + 動(dòng)作條件視頻)。

所有多模態(tài)模型均在約 1 萬億個(gè) token 上進(jìn)行訓(xùn)練(5200 億文本 + 5200 億多模態(tài)數(shù)據(jù)),并與在 5200 億文本 token 上訓(xùn)練的純文本基準(zhǔn)模型進(jìn)行比較。

結(jié)果如下圖所示,團(tuán)隊(duì)發(fā)現(xiàn)「文本 + 視頻」組合在 DCLM 驗(yàn)證集和內(nèi)部 Notes 語料庫上均取得了所有混合數(shù)據(jù)中最佳的困惑度。在 DCLM 上,「文本 + 視頻」甚至超越了純文本基準(zhǔn)模型,這表明:視頻數(shù)據(jù)與語言建模至少是兼容的,甚至可能是有益的。這也意味著視覺本身并不是導(dǎo)致模態(tài)競(jìng)爭(zhēng)的主要原因。



另一方面,「文本 + MetaCLIP」在所有混合數(shù)據(jù)中表現(xiàn)出的困惑度最差。而「文本 + 視頻 + MetaCLIP + 動(dòng)作」相比純文本基準(zhǔn)模型僅有輕微退化,這表明:視頻 + 動(dòng)作軌跡與文本也是互補(bǔ)的。

團(tuán)隊(duì)推測(cè),文本性能的退化源于引入圖像說明導(dǎo)致的文本分布偏移。

其次,團(tuán)隊(duì)還觀察到,在所有混合數(shù)據(jù)中,相對(duì)于純文本基準(zhǔn)模型,在分布外(OOD)程度更高的 Notes 語料庫上困惑度均有所下降,但相對(duì)趨勢(shì)保持一致。這表明多模態(tài)預(yù)訓(xùn)練可能會(huì)在文本泛化能力上引入微小的權(quán)衡(Trade-off)。

建議 2:在訓(xùn)練中使用多模態(tài)數(shù)據(jù)(例如視頻、圖文對(duì)等)。視覺數(shù)據(jù)不會(huì)降低語言建模能力,而多樣化的預(yù)訓(xùn)練數(shù)據(jù)還能為下游任務(wù)帶來協(xié)同效應(yīng),例如世界建模(world modeling)和 VQA 等任務(wù)。

邁向統(tǒng)一多模態(tài)模型中的世界建模

基于這樣一個(gè)觀察:語言與視覺是互補(bǔ)的,且多模態(tài)預(yù)訓(xùn)練能夠顯著提升視覺問答(VQA)能力,團(tuán)隊(duì)進(jìn)一步探索:在不對(duì)模型架構(gòu)做任何修改的情況下,多模態(tài)模型是否可以擴(kuò)展到「世界建模(world modeling)」任務(wù)。

團(tuán)隊(duì)采用 Navigation World Model(NWM)的設(shè)定,其中任務(wù)是:在給定當(dāng)前上下文狀態(tài)和導(dǎo)航動(dòng)作的條件下,預(yù)測(cè)下一視覺狀態(tài):



不過,與 NWM 將導(dǎo)航動(dòng)作(如平移與旋轉(zhuǎn)增量)編碼為專門設(shè)計(jì)的連續(xù)向量不同,團(tuán)隊(duì)直接將動(dòng)作表示為標(biāo)準(zhǔn)文本 token。

這樣一來,該任務(wù)就可以被統(tǒng)一表述為:



即「圖像 + 文本 → 圖像」的預(yù)測(cè)任務(wù),并在統(tǒng)一多模態(tài)模型中完成。如下圖所示,與 NWM 不同,團(tuán)隊(duì)沒有引入任何動(dòng)作專用適配器,也沒有修改模型架構(gòu)。



世界建模能力來自多模態(tài)預(yù)訓(xùn)練

團(tuán)隊(duì)一直在思考一個(gè)問題:有效的世界建模能力,究竟主要來自特定領(lǐng)域的導(dǎo)航數(shù)據(jù),還是來自更廣泛的多模態(tài)能力?

為了驗(yàn)證這一點(diǎn),團(tuán)隊(duì)對(duì)以下模型進(jìn)行了比較:

  • 模型 A:基于 500 億(50B)NWMtoken 和 500 億多模態(tài)數(shù)據(jù)(文本、MetaCLIP、帶文本注釋的視頻或純視頻)訓(xùn)練的多模態(tài)模型;
  • 模型 B:僅基于 500 億 NWM 數(shù)據(jù)訓(xùn)練的基準(zhǔn)模型。

結(jié)果如下圖所示,將特定領(lǐng)域的 NWM 數(shù)據(jù)從 500 億擴(kuò)展到 1000 億 token 時(shí),雖然在 ATE 和 RPE 上帶來了一定的改善,但多模態(tài)預(yù)訓(xùn)練的效果更好。



具體而言,添加純視頻數(shù)據(jù)帶來的提升最大,但包括 MetaCLIP 和文本在內(nèi)的所有其他模態(tài)也都有所幫助。這表明,世界建模更多地依賴于從多模態(tài)預(yù)訓(xùn)練中獲得的能力,而非特定領(lǐng)域的數(shù)據(jù)。這與早期研究的發(fā)現(xiàn)相吻合。

世界建模能力可從通用訓(xùn)練中遷移

另外,為了進(jìn)一步分析世界建模能力的來源,團(tuán)隊(duì)進(jìn)行了消融實(shí)驗(yàn),在保持總訓(xùn)練預(yù)算固定為 2000 億 token 的情況下,改變 NWM 數(shù)據(jù)的比例。

結(jié)果如下圖所示,性能相對(duì)于領(lǐng)域數(shù)據(jù)量的增加迅速達(dá)到飽和。團(tuán)隊(duì)觀察到,模型僅需 1% 的域內(nèi)數(shù)據(jù)即可達(dá)到極具競(jìng)爭(zhēng)力的性能,比例更高時(shí)觀察到的收益微乎其微。



總的來說,這一發(fā)現(xiàn)加強(qiáng)了假設(shè):導(dǎo)航和 VQA 等能力主要來自通用多模態(tài)預(yù)訓(xùn)練,僅需要極少的域內(nèi)數(shù)據(jù)即可激活。

建議 3:統(tǒng)一的多模態(tài)預(yù)訓(xùn)練能夠解鎖世界建模(World Modeling)能力。只需將動(dòng)作表示為文本 token,無需對(duì)模型架構(gòu)進(jìn)行額外修改;相關(guān)能力可以通過通用訓(xùn)練自然涌現(xiàn),并且只需要極少的領(lǐng)域特定數(shù)據(jù)。

統(tǒng)一多模態(tài)架構(gòu)設(shè)計(jì)

在前面的實(shí)驗(yàn)中,團(tuán)隊(duì)僅僅將共享的 FFN(前饋網(wǎng)絡(luò)) 替換為模態(tài)專屬 FFN,就發(fā)現(xiàn)能取得顯著效果,這證明了適度的容量分離(capacity separation)具有很大潛力。

然而,模態(tài)專屬 FFN 會(huì)在兩種模態(tài)之間平均分配模型容量,而這種平均分配未必是理想的容量配置方式。

為此,團(tuán)隊(duì)進(jìn)一步探索 MoE 是否能夠通過解耦總?cè)萘颗c實(shí)際計(jì)算量,從而動(dòng)態(tài)學(xué)習(xí)這種容量分離。

團(tuán)隊(duì)研究了 MoE 在統(tǒng)一多模態(tài)預(yù)訓(xùn)練中的設(shè)計(jì)空間,主要是希望了解 MoE 是否能夠自動(dòng)學(xué)習(xí)不同模態(tài)所需的容量分配,以及 MoE 是否能夠在多模態(tài)訓(xùn)練中形成專家專門化。

而實(shí)驗(yàn)結(jié)果表明,模型確實(shí)會(huì)形成明顯的「專家專門化」現(xiàn)象,具體來說:一部分專家主要處理文本 token,另一部分專家主要處理視覺 token,而且這種分工是自動(dòng)形成的,并不需要任何顯式的模態(tài)標(biāo)簽或約束。

進(jìn)一步統(tǒng)計(jì)結(jié)果顯示,隨著訓(xùn)練進(jìn)行,專家之間的分工逐漸穩(wěn)定。某些專家?guī)缀踔唤邮瘴谋?token,而另一些專家則主要處理圖像 token,還有少數(shù)專家保持跨模態(tài)能力,能夠同時(shí)處理多種模態(tài)輸入。

這種現(xiàn)象說明:MoE 可以在不顯式設(shè)計(jì)模態(tài)結(jié)構(gòu)的情況下,自然形成功能分化。換句話說,模型會(huì)自動(dòng)學(xué)習(xí)到不同模態(tài)所需的不同計(jì)算路徑。

而相比固定的模態(tài)專屬 FFN,MoE 具有兩個(gè)優(yōu)勢(shì):

  • 動(dòng)態(tài)容量分配:不同模態(tài)可以使用不同數(shù)量的專家。
  • 靈活的專家共享:一些專家可以同時(shí)服務(wù)于多種模態(tài)。

因此,MoE 為統(tǒng)一多模態(tài)模型提供了一種更加靈活的架構(gòu)方案。

建議 4:在統(tǒng)一模型中采用 MoE 架構(gòu)。它的效果優(yōu)于人為設(shè)計(jì)的模態(tài)分離策略,并且能夠從數(shù)據(jù)中自然學(xué)習(xí)出針對(duì)不同模態(tài)的專門化能力。

統(tǒng)一多模態(tài)模型的擴(kuò)展律

本文同時(shí)推導(dǎo)了視覺與語言兩種模態(tài)的擴(kuò)展規(guī)律(scaling laws),并進(jìn)一步研究模型架構(gòu)如何影響這些擴(kuò)展趨勢(shì)。

圖 23 展示了 Dense IsoFLOP 的結(jié)果。



圖 24 顯示統(tǒng)一模型的性能可以達(dá)到甚至超過單模態(tài)基線。



圖 25 展示了 MoE IsoFLOP 結(jié)果:



圖 26 比較了 MoE Multimodal + RAE(SigLIP 2) 與單模態(tài) MoE 基線在整個(gè)計(jì)算范圍內(nèi)的表現(xiàn)。結(jié)果表明 MoE 使得單一模型可以在兩種模態(tài)上同時(shí)達(dá)到接近單模態(tài)模型的性能,而且只需要極小的額外開銷。



特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
記者:卡里克如今轉(zhuǎn)正嚴(yán)重存疑,高層對(duì)球隊(duì)缺乏強(qiáng)度感到擔(dān)憂

記者:卡里克如今轉(zhuǎn)正嚴(yán)重存疑,高層對(duì)球隊(duì)缺乏強(qiáng)度感到擔(dān)憂

懂球帝
2026-04-15 22:20:10
蘇東:與高敏離婚30年,兒子在加拿大長大,他仍每年飛去看孩子

蘇東:與高敏離婚30年,兒子在加拿大長大,他仍每年飛去看孩子

悅君兮君不知
2026-04-14 23:04:49
網(wǎng)友:恒大欠兩萬億我忍了,但許家印的審美真忍不了!

網(wǎng)友:恒大欠兩萬億我忍了,但許家印的審美真忍不了!

GA環(huán)球建筑
2026-04-15 16:40:01
理想的至暗時(shí)刻

理想的至暗時(shí)刻

新浪財(cái)經(jīng)
2026-04-15 03:08:52
難以置信!居然建議峰學(xué)蔚來終止經(jīng)營,一安徽網(wǎng)友發(fā)帖被“炮轟”

難以置信!居然建議峰學(xué)蔚來終止經(jīng)營,一安徽網(wǎng)友發(fā)帖被“炮轟”

火山詩話
2026-04-15 15:57:16
蘋果的半成品方案,居然成了版本答案?

蘋果的半成品方案,居然成了版本答案?

差評(píng)XPIN
2026-04-15 00:13:50
小到中雨!局部雷電、大風(fēng)、冰雹!遼寧人明早上班注意!

小到中雨!局部雷電、大風(fēng)、冰雹!遼寧人明早上班注意!

魯中晨報(bào)
2026-04-15 18:12:41
賴清德還沒到,斯威士蘭收噩耗,中國的70周年大禮,只有他拿不到

賴清德還沒到,斯威士蘭收噩耗,中國的70周年大禮,只有他拿不到

忠于法紀(jì)
2026-04-15 17:56:30
5月1日起,醫(yī)院要變天了?以后看病不再擠破頭!

5月1日起,醫(yī)院要變天了?以后看病不再擠破頭!

小談食刻美食
2026-04-15 08:30:07
接下來的廣州,地鐵、燃?xì)?、水費(fèi)都要漲價(jià)?

接下來的廣州,地鐵、燃?xì)?、水費(fèi)都要漲價(jià)?

南沙部落
2026-04-15 09:53:21
徐杰的2+1判罰正確嗎?裁判專家給出答案,球迷:不是2+1也屬違體

徐杰的2+1判罰正確嗎?裁判專家給出答案,球迷:不是2+1也屬違體

南海浪花
2026-04-15 06:41:10
黑長直老公濫交得病了

黑長直老公濫交得病了

毒舌扒姨太
2026-04-11 22:42:59
米粉的天都塌了!一季度數(shù)據(jù)出爐,小米暴跌35%

米粉的天都塌了!一季度數(shù)據(jù)出爐,小米暴跌35%

輝哥說動(dòng)漫
2026-04-14 14:29:30
陳麗華告別儀式結(jié)束1天,令人擔(dān)憂的事發(fā)生,遲重瑞被公然挑毛病

陳麗華告別儀式結(jié)束1天,令人擔(dān)憂的事發(fā)生,遲重瑞被公然挑毛病

叮當(dāng)當(dāng)科技
2026-04-16 00:33:06
iPhone18 Pro被曝不會(huì)漲價(jià),準(zhǔn)入門檻將依然為8999元,星宇橙配色將被全新的深紅色取代

iPhone18 Pro被曝不會(huì)漲價(jià),準(zhǔn)入門檻將依然為8999元,星宇橙配色將被全新的深紅色取代

魯中晨報(bào)
2026-04-15 09:24:20
震驚!一女孩求職不順焦慮,父親轉(zhuǎn)來4.8萬,按月4000元當(dāng)作工資

震驚!一女孩求職不順焦慮,父親轉(zhuǎn)來4.8萬,按月4000元當(dāng)作工資

火山詩話
2026-04-14 07:33:54
中年夫妻太辛酸!向華強(qiáng)坦白,早已和向太分房睡,但感情依舊甜蜜

中年夫妻太辛酸!向華強(qiáng)坦白,早已和向太分房睡,但感情依舊甜蜜

阿紿聊社會(huì)
2026-04-14 22:20:01
4.16日開始能夠悶聲發(fā)大財(cái),說發(fā)達(dá)就發(fā)達(dá),千萬橫財(cái)擋不住的生肖

4.16日開始能夠悶聲發(fā)大財(cái),說發(fā)達(dá)就發(fā)達(dá),千萬橫財(cái)擋不住的生肖

小智223
2026-04-14 22:16:37
河北一具女尸被打撈上岸,警方發(fā)布認(rèn)尸啟事

河北一具女尸被打撈上岸,警方發(fā)布認(rèn)尸啟事

現(xiàn)代快報(bào)
2026-04-15 19:19:12
巴基斯坦也沒有想到,跟著中國混來混去,結(jié)果自己也混了一個(gè)霸主

巴基斯坦也沒有想到,跟著中國混來混去,結(jié)果自己也混了一個(gè)霸主

豬小艷吖
2026-04-13 22:30:24
2026-04-16 01:47:00
機(jī)器之心Pro incentive-icons
機(jī)器之心Pro
專業(yè)的人工智能媒體
12772文章數(shù) 142629關(guān)注度
往期回顧 全部

科技要聞

ChatGPT十億用戶又怎樣?Anthropic直接貼臉

頭條要聞

法國全票通過 “將不義之財(cái)歸還中國”

頭條要聞

法國全票通過 “將不義之財(cái)歸還中國”

體育要聞

三球準(zhǔn)絕殺戴大金鏈:轟30+10自我救贖

娛樂要聞

謝娜現(xiàn)身環(huán)球影城,牽手女兒溫馨有愛

財(cái)經(jīng)要聞

業(yè)績失速的Lululemon:"健康"人設(shè)崩塌?

汽車要聞

空間絲毫不用妥協(xié) 小鵬GX首發(fā)評(píng)測(cè)

態(tài)度原創(chuàng)

數(shù)碼
教育
旅游
時(shí)尚
藝術(shù)

數(shù)碼要聞

明基新款顯示器首發(fā)12499元:4K專業(yè)級(jí)色彩校準(zhǔn) 根據(jù)環(huán)境光自動(dòng)調(diào)整

教育要聞

黃岡小升初招生題,求面積,方法思路太絕了

旅游要聞

拉豬車?yán)@關(guān)闖禁區(qū):隱秘危險(xiǎn)游該踩剎車了

赫本愛穿的傘裙,好優(yōu)雅!

藝術(shù)要聞

看!波蘭超模阿里亞納的驚艷寫真,身材讓人心動(dòng)不已!

無障礙瀏覽 進(jìn)入關(guān)懷版