亚洲中文字幕乱码亚洲-蜜桃成熟视频在线观看-免费中文字幕视频在线-中国五十路熟妇洗澡视频-亚洲av伊人啪啪c-国产精品成人一区二区-国产自拍视频一区在线观看-成人一区不卡二区三区四区-亚洲情精品中文字幕99在线

網(wǎng)易首頁(yè) > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

北大聯(lián)合Llama-Factory推出DataFlex:工業(yè)級(jí)數(shù)據(jù)動(dòng)態(tài)訓(xùn)練系統(tǒng)

0
分享至



當(dāng)大模型訓(xùn)練進(jìn)入深水區(qū),競(jìng)爭(zhēng)的關(guān)鍵已經(jīng)不再只是「模型參數(shù)怎么調(diào)」,而逐漸轉(zhuǎn)向一個(gè)更核心、也更難系統(tǒng)解決的問題:模型在訓(xùn)練過程中究竟看到了什么數(shù)據(jù)、以什么比例看到、哪些樣本應(yīng)該被更頻繁地學(xué)習(xí)。

這些因素正在越來(lái)越直接地決定訓(xùn)練效率、泛化能力以及最終模型性能。

圍繞數(shù)據(jù)選擇、數(shù)據(jù)混合和樣本重加權(quán),學(xué)術(shù)界已經(jīng)提出了不少方法。但長(zhǎng)期以來(lái),這些方法大多分散在彼此獨(dú)立的代碼倉(cāng)庫(kù)中:接口不統(tǒng)一、訓(xùn)練流程不一致、復(fù)現(xiàn)門檻高、橫向比較困難。

更重要的是,很多方法依賴 embedding、模型打分、梯度或中間推理信號(hào),真正難的從來(lái)不是「提出一個(gè)方法」,而是把這些方法穩(wěn)定、可復(fù)現(xiàn)地接入主流訓(xùn)練流程,并納入一套統(tǒng)一的訓(xùn)練閉環(huán)。

近日,北京大學(xué)張文濤教授、鄂維南院士團(tuán)隊(duì),聯(lián)合 LLaMA-Factory Team、OpenDataLab、上海 AI Lab 等機(jī)構(gòu),推出了面向大模型訓(xùn)練過程的數(shù)據(jù)中心動(dòng)態(tài)訓(xùn)練框架 DataFlex。

它并不是單一算法或若干腳本的簡(jiǎn)單堆疊,而是一套建立在 LLaMA-Factory 之上的統(tǒng)一訓(xùn)練基礎(chǔ)設(shè)施:將動(dòng)態(tài)樣本選擇、動(dòng)態(tài)數(shù)據(jù)混合、動(dòng)態(tài)樣本加權(quán)三類核心能力真正納入訓(xùn)練過程,使「數(shù)據(jù)如何參與訓(xùn)練」從經(jīng)驗(yàn)式配置,升級(jí)為可控制、可優(yōu)化、可復(fù)現(xiàn)的系統(tǒng)能力。

換句話說,DataFlex 試圖解決的,并不只是某一個(gè)訓(xùn)練技巧是否有效,而是一個(gè)更底層的系統(tǒng)問題:如何讓數(shù)據(jù)像模型參數(shù)一樣,成為訓(xùn)練過程中可以持續(xù)調(diào)度和優(yōu)化的核心對(duì)象。

這使它既可以作為研究平臺(tái),用于系統(tǒng)比較不同數(shù)據(jù)中心訓(xùn)練算法;也可以作為實(shí)用系統(tǒng),直接服務(wù)于大模型預(yù)訓(xùn)練、后訓(xùn)練和領(lǐng)域適配等場(chǎng)景。

DataFlex 發(fā)布后,在 Hugging Face Daily Papers 榜單中迅速獲得廣泛關(guān)注并拿到了月榜第一。這種關(guān)注背后所反映的,本質(zhì)上是社區(qū)對(duì)「數(shù)據(jù)中心動(dòng)態(tài)訓(xùn)練」從理論走向工程閉環(huán)的里程碑式認(rèn)可。





DataFlex 不只是一個(gè)算法倉(cāng)庫(kù),而是一套數(shù)據(jù)中心訓(xùn)練基礎(chǔ)設(shè)施

  • 可復(fù)現(xiàn)的研究平臺(tái):在統(tǒng)一訓(xùn)練框架下系統(tǒng)比較動(dòng)態(tài)數(shù)據(jù)混合、樣本選擇和樣本加權(quán)等數(shù)據(jù)中心訓(xùn)練方法,覆蓋在線與離線場(chǎng)景,顯著降低研究復(fù)現(xiàn)與方法對(duì)比成本;
  • 面向真實(shí)訓(xùn)練的優(yōu)化系統(tǒng):將數(shù)據(jù)選擇、數(shù)據(jù)配比和樣本權(quán)重調(diào)節(jié)真正接入訓(xùn)練閉環(huán),使數(shù)據(jù)從「靜態(tài)輸入」變成「可持續(xù)調(diào)度的優(yōu)化對(duì)象」,從而提升訓(xùn)練效率與最終模型效果。

  • 技術(shù)報(bào)告:https://arxiv.org/abs/2603.26164
  • 官方文檔:https://opendcai.github.io/DataFlex-Doc/
  • Github 倉(cāng)庫(kù):https://github.com/OpenDCAI/DataFlex

DataFlex:大模型工業(yè)化數(shù)據(jù)調(diào)用的最后一塊拼圖

設(shè)計(jì)哲學(xué):告別靜態(tài)投喂,把「數(shù)據(jù)調(diào)度」變成開箱即用的系統(tǒng)能力



1.核心概念:Data-Centric Dynamic Training System

DataFlex 的核心,不僅僅是再發(fā)一遍「數(shù)據(jù)很重要」的老生常談,而是直擊行業(yè)的最痛點(diǎn):如何把「模型看什么數(shù)據(jù)、按什么比例看、優(yōu)先強(qiáng)化哪些樣本」這種玄學(xué)經(jīng)驗(yàn),真正固化為可配置、可調(diào)度、可復(fù)現(xiàn)的標(biāo)準(zhǔn)化系統(tǒng)能力。它不僅僅關(guān)注參數(shù)的梯度更新,更死死盯住了數(shù)據(jù)在每一步訓(xùn)練中的真實(shí)參與度。

1.1從「填鴨式靜態(tài)輸入」到「數(shù)據(jù)主動(dòng)調(diào)度」

傳統(tǒng)的大模型訓(xùn)練中,數(shù)據(jù)往往被視為預(yù)先準(zhǔn)備好的靜態(tài)輸入:數(shù)據(jù)集先確定,采樣方式先寫死,訓(xùn)練過程中主要被持續(xù)優(yōu)化的是模型參數(shù)本身。但當(dāng)訓(xùn)練數(shù)據(jù)規(guī)模越來(lái)越大、來(lái)源越來(lái)越復(fù)雜時(shí),真正決定效果的,已經(jīng)不只是「有沒有更多數(shù)據(jù)」,而是「訓(xùn)練時(shí)能否更聰明地使用數(shù)據(jù)」。

Data-centric dynamic training 的核心思想,是把數(shù)據(jù)從「被動(dòng)輸入」提升為「主動(dòng)調(diào)度對(duì)象」。系統(tǒng)不僅要決定模型看哪些數(shù)據(jù),還要?jiǎng)討B(tài)決定不同數(shù)據(jù)源如何配比、哪些樣本應(yīng)被優(yōu)先學(xué)習(xí)、哪些樣本應(yīng)被降低權(quán)重。

DataFlex 的價(jià)值,正是在于把這種原本零散、分散在不同方法和代碼中的能力,推進(jìn)為統(tǒng)一、標(biāo)準(zhǔn)化的訓(xùn)練機(jī)制。

1.2零成本遷移的統(tǒng)一框架

好的系統(tǒng)不應(yīng)成為開發(fā)者的負(fù)擔(dān)。在動(dòng)態(tài)調(diào)度之外,DataFlex 更進(jìn)一步解決的是系統(tǒng)層問題:如何把原本分散的數(shù)據(jù)選擇、數(shù)據(jù)配比和數(shù)據(jù)重加權(quán)方法,統(tǒng)一納入同一套訓(xùn)練基礎(chǔ)設(shè)施。

一方面,DataFlex 建立在 LLaMA-Factory 之上,盡量復(fù)用已有的模型管理、數(shù)據(jù)處理和訓(xùn)練組件;另一方面,它在訓(xùn)練層引入統(tǒng)一的數(shù)據(jù)中心控制能力,使不同數(shù)據(jù)策略能夠在同一個(gè)訓(xùn)練閉環(huán)中被實(shí)現(xiàn)、比較和擴(kuò)展。

因此,DataFlex 不是若干數(shù)據(jù)算法的簡(jiǎn)單集合,而是一套面向大模型訓(xùn)練過程的統(tǒng)一數(shù)據(jù)中心動(dòng)態(tài)訓(xùn)練系統(tǒng)。

2.三個(gè)設(shè)計(jì)原則

  • 統(tǒng)一性:系統(tǒng)將數(shù)據(jù)中心訓(xùn)練中的三個(gè)代表性范式統(tǒng)一納入了同一訓(xùn)練框架;
  • 兼容性:系統(tǒng)能夠融入現(xiàn)有的大規(guī)模模型訓(xùn)練基礎(chǔ)設(shè)施,而不是額外引入一套工作流;
  • 可擴(kuò)展性:研究者可以以較低的工程成本實(shí)現(xiàn)并比較新的數(shù)據(jù)中心算法。

整體架構(gòu)



DataFlex 延續(xù)了 LLaMA-Factory 易用、清晰的設(shè)計(jì)思路,但在整體架構(gòu)上做了關(guān)鍵升級(jí)。其在不破壞現(xiàn)有訓(xùn)練生態(tài)的前提下,把數(shù)據(jù)中心訓(xùn)練真正做成了一套統(tǒng)一、可擴(kuò)展、可復(fù)現(xiàn)、可落地的系統(tǒng)能力。整個(gè)系統(tǒng)大致可以分為三層:

  • 基礎(chǔ)層(Base Layer):這一層繼承自 LLaMA-Factory,負(fù)責(zé)模型管理、數(shù)據(jù)處理、優(yōu)化器等通用訓(xùn)練能力。系統(tǒng)在盡量保持原有訓(xùn)練流程與使用習(xí)慣的同時(shí),把擴(kuò)展重點(diǎn)集中在數(shù)據(jù)中心訓(xùn)練本身,降低了用戶從現(xiàn)有訓(xùn)練流程遷移到 DataFlex 的門檻。
  • 訓(xùn)練器層(Trainer Layer):它沒有沿用單一的原始 trainer,而是將訓(xùn)練過程抽象為三種數(shù)據(jù)中心訓(xùn)練模式,分別對(duì)應(yīng)數(shù)據(jù)選擇、數(shù)據(jù)混合和樣本加權(quán)。這一層把訓(xùn)練器從只負(fù)責(zé)參數(shù)更新,擴(kuò)展為同時(shí)負(fù)責(zé)數(shù)據(jù)決策與參數(shù)優(yōu)化。
  • 策略組件層(Component Layer):這里掛載的是具體算法組件,例如不同的 selector、mixer 和 weighter。它們各自封裝了不同方法的策略邏輯,并對(duì)訓(xùn)練器暴露了統(tǒng)一接口。

這種架構(gòu)實(shí)現(xiàn)了輕量替換,而不是重構(gòu)一切。DataFlex 并沒有在 LLaMA-Factory 外面再包一個(gè)復(fù)雜編排系統(tǒng),而是聚焦于替換訓(xùn)練層,并僅在需要時(shí)對(duì)數(shù)據(jù)加載等模塊做最小擴(kuò)展。

對(duì)用戶來(lái)說,這接近一種「即插即用」的增強(qiáng):已有的模型、數(shù)據(jù)集、訓(xùn)練參數(shù)配置都可以保留,只需要增加 DataFlex 相關(guān)配置,就能切換到以數(shù)據(jù)為中心的動(dòng)態(tài)訓(xùn)練模式。

此外,DataFlex 還統(tǒng)一封裝了數(shù)據(jù)中心方法普遍依賴的模型中間信號(hào),比如 embedding 提取、模型推理、梯度計(jì)算等。很多數(shù)據(jù)選擇和數(shù)據(jù)加權(quán)方法真正難落地,不是因?yàn)樗枷霃?fù)雜,而是因?yàn)樗鼈円蕾嚨闹虚g信號(hào)獲取成本高、工程耦合重。DataFlex 把這類共享能力抽象出來(lái),降低了實(shí)現(xiàn)和擴(kuò)展門檻,也為后續(xù)大規(guī)模訓(xùn)練提供了基礎(chǔ)。

核心功能

1.三個(gè)核心訓(xùn)練器

對(duì)應(yīng)當(dāng)前數(shù)據(jù)中心訓(xùn)練中典型的三種優(yōu)化方向,DataFlex 支持三類核心訓(xùn)練器:

  • 動(dòng)態(tài)樣本選擇訓(xùn)練器(Dynamic Select Trainer):在訓(xùn)練過程中動(dòng)態(tài)篩選更有價(jià)值的訓(xùn)練樣本,減少低價(jià)值或冗余樣本對(duì)訓(xùn)練預(yù)算的消耗,從而提升訓(xùn)練效率。
  • 動(dòng)態(tài)數(shù)據(jù)混合訓(xùn)練器(Dynamic Mix Trainer):面向多來(lái)源、多領(lǐng)域訓(xùn)練數(shù)據(jù)場(chǎng)景,在訓(xùn)練過程中動(dòng)態(tài)調(diào)整不同數(shù)據(jù)源的采樣比例,使模型能夠根據(jù)當(dāng)前學(xué)習(xí)狀態(tài)更合理地分配訓(xùn)練注意力。
  • 動(dòng)態(tài)樣本加權(quán)訓(xùn)練器(Dynamic Weight Trainer):針對(duì)不同樣本賦予不同訓(xùn)練權(quán)重,使模型能夠?qū)ΩP(guān)鍵、更困難或更具代表性的樣本進(jìn)行更有效學(xué)習(xí),從而改善模型性能與泛化能力。

2.算法集成與可擴(kuò)展性

DataFlex 為三類訓(xùn)練器集成了 LESS、DoReMi、ODM、Loss Reweighting 等代表性方法。所有方法都以可插拔組件的形式,在統(tǒng)一接口下實(shí)現(xiàn),從而能夠在受控條件下進(jìn)行公平比較。

科研上許多極具代表性的動(dòng)態(tài)訓(xùn)練方法,要么缺乏官方倉(cāng)庫(kù),要么其官方實(shí)現(xiàn)存在難以復(fù)現(xiàn)的問題。DataFlex 通過系統(tǒng)化的重構(gòu),讓這些處于「失聯(lián)」或「半停滯」?fàn)顟B(tài)的算法重新具備了工業(yè)級(jí)生產(chǎn)力。



三類訓(xùn)練器分工不同,但背后遵循的是同一種數(shù)據(jù) — 模型交互邏輯:先觀察當(dāng)前模型狀態(tài),再給出新的數(shù)據(jù)決策,隨后把這一決策反饋到后續(xù)訓(xùn)練中。

DataFlex 正是把這種共性的交互模式抽象成統(tǒng)一接口,從而讓不同算法能夠共享訓(xùn)練流程、基礎(chǔ)能力以及擴(kuò)展方式。 DataFlex 的配置文件繼續(xù)沿用了 LLaMA-Factory 的基于 YAML 的格式,用于指定模型、數(shù)據(jù)集和訓(xùn)練超參數(shù)。

唯一新增的是一個(gè)簡(jiǎn)短的 dataflex 配置段,用于告訴框架要采用哪種數(shù)據(jù)中心策略,以及如何對(duì)其進(jìn)行調(diào)度。



使用方式

DataFlex 完全兼容 LlamaFactory 的配置和使用方式:

  • 配置兼容:在 LlamaFactory 配置基礎(chǔ)上添加 DataFlex 參數(shù);
  • 命令一致:使用 dataflex-cli 替代 llamafactory-cli;
  • 功能保持:支持所有 LlamaFactory 的原有功能;
  • 無(wú)縫切換:可以通過 train_type: static 回退到原始訓(xùn)練模式。

環(huán)境配置、參數(shù)說明以及自定義組件接入方式,可進(jìn)一步參考官方文檔。除此之外,我們還提供了兩期視頻教程,分別演示了動(dòng)態(tài)數(shù)據(jù)混合與動(dòng)態(tài)數(shù)據(jù)選擇的具體操作流程,便于初次上手的用戶快速理解。

  • 官方文檔:https://opendcai.github.io/DataFlex-Doc/
  • Github 倉(cāng)庫(kù):https://github.com/OpenDCAI/DataFlex
  • 視頻教程:

- 自動(dòng)數(shù)據(jù)選擇與動(dòng)態(tài)訓(xùn)練:https://b23.tv/BV1pHrKBoE6s

- 自動(dòng)優(yōu)化數(shù)據(jù)配比:https://b23.tv/LYYx1hG

實(shí)驗(yàn)效果

為了驗(yàn)證 DataFlex 的有效性,團(tuán)隊(duì)圍繞樣本選擇、數(shù)據(jù)混合和系統(tǒng)效率三方面進(jìn)行了系統(tǒng)實(shí)驗(yàn),覆蓋 7 種數(shù)據(jù)選擇、2 種數(shù)據(jù)混合和 1 種數(shù)據(jù)重加權(quán)方法。整體結(jié)果表明,DataFlex 不僅能夠統(tǒng)一復(fù)現(xiàn)不同數(shù)據(jù)中心方法,還能在模型效果和訓(xùn)練效率上帶來(lái)穩(wěn)定提升。

數(shù)據(jù)選擇與樣本加權(quán):動(dòng)態(tài)方法整體優(yōu)于靜態(tài)訓(xùn)練



在 Open-Hermes-2.5 子集上的實(shí)驗(yàn)顯示,無(wú)論是在 Mistral-7B 還是 Llama-3.2-3B 上,大多數(shù)動(dòng)態(tài)數(shù)據(jù)中心方法都優(yōu)于靜態(tài)全量訓(xùn)練基線。這表明在模型容量有限的情況下,能夠?qū)崟r(shí)感知模型狀態(tài)的動(dòng)態(tài)選擇策略對(duì)于達(dá)到性能上限至關(guān)重要 。

3.2 數(shù)據(jù)混合:動(dòng)態(tài)配比優(yōu)于默認(rèn)配比



在 SlimPajama 的 6B 和 30B 設(shè)置下,DoReMi 和 ODM 兩種數(shù)據(jù)混合算法都表現(xiàn)出了明顯優(yōu)勢(shì)。在 6B token 規(guī)模下,動(dòng)態(tài)數(shù)據(jù)混合方法已經(jīng)展現(xiàn)出明顯優(yōu)勢(shì):ODM 在通用能力評(píng)測(cè)中的準(zhǔn)確率高于默認(rèn)靜態(tài)配比,而 DoReMi 則在整體困惑度上進(jìn)一步取得更優(yōu)結(jié)果,說明動(dòng)態(tài)調(diào)整不同數(shù)據(jù)域的配比,確實(shí)能夠帶來(lái)更好的訓(xùn)練收益。

系統(tǒng)效率:統(tǒng)一框架不僅易用,而且高效



除了效果提升,DataFlex 在效率上也有不錯(cuò)表現(xiàn)。以 LESS 為例,在單卡設(shè)置下,DataFlex 在多個(gè)采樣比例上都實(shí)現(xiàn)了更低訓(xùn)練耗時(shí),例如在 1.0 比例下,訓(xùn)練時(shí)間從 30,239 秒降到 28,734 秒,同時(shí)準(zhǔn)確率從 40.38% 提升到 42.37%。進(jìn)一步在 8 張 H20 GPU 上,訓(xùn)練時(shí)間減少了 57.13%。



對(duì)于 TSDS 這類離線選擇方法,DataFlex 的重實(shí)現(xiàn)也在不同數(shù)據(jù)規(guī)模下取得了穩(wěn)定的 1%—3.5% 提速。

構(gòu)筑 AI 時(shí)代的數(shù)據(jù)生態(tài)

當(dāng)大模型技術(shù)演進(jìn)跨越了架構(gòu)探索的初級(jí)階段,行業(yè)的角逐核心已躍遷至「數(shù)據(jù)應(yīng)用」的深水區(qū)。

團(tuán)隊(duì)(PKU-DCAI)致力于在 Data-Centric AI(以數(shù)據(jù)為中心的 AI)浪潮中,構(gòu)筑支撐下一代 AI 應(yīng)用的數(shù)據(jù)基礎(chǔ)設(shè)施。本次開源的 DataFlex 與團(tuán)隊(duì)另一核心工作 DataFlow(3k+ Stars),共同為 AI 時(shí)代的數(shù)據(jù)應(yīng)用確立了從源頭到閉環(huán)的全新范式。

Github 倉(cāng)庫(kù):

  • https://github.com/OpenDCAI/DataFlow
  • https://github.com/OpenDCAI/DataFlex

面向 AI 時(shí)代海量且混沌的真實(shí)世界信息,DataFlow 的使命是打造「高智力密度」的數(shù)據(jù)提煉工場(chǎng)。承接 DataFlow 提煉的高階數(shù)據(jù),DataFlex 真正將「數(shù)據(jù)應(yīng)用」的觸角深入到了模型訓(xùn)練的原子層。它不僅是在加速模型的收斂,更是在系統(tǒng)層面控制模型的泛化能力與知識(shí)吸收軌跡,確保數(shù)據(jù)的潛在價(jià)值被極致地變現(xiàn)為 AI 的頂尖實(shí)戰(zhàn)能力。



作者信息

作者是來(lái)自北京大學(xué)的 DCAI 團(tuán)隊(duì),深耕于 AI 數(shù)據(jù)側(cè)的底層革新與系統(tǒng)落地,擁有該領(lǐng)域最前沿的算法儲(chǔ)備與工程經(jīng)驗(yàn)。

梁昊:北京大學(xué)大數(shù)據(jù)科學(xué)研究中心博士,開源項(xiàng)目 DataFlow leader,第一作者 / 共同第一作者發(fā)表 9 篇 CCF-A 論文。

趙正陽(yáng):北京大學(xué)大數(shù)據(jù)科學(xué)研究中心博士,開源項(xiàng)目 DataFlow 核心開發(fā)者,元樞智匯高級(jí)算法研究員。

強(qiáng)美伊:北京大學(xué)軟件與微電子學(xué)院碩士,開源項(xiàng)目 DataFlow 核心開發(fā)者,發(fā)表期刊 / CCF-A 論文 7 篇。

大家堅(jiān)信,大模型競(jìng)爭(zhēng)的終點(diǎn)不在于單一算法的博弈,而在于構(gòu)建一套統(tǒng)一、高效、且可復(fù)現(xiàn)的數(shù)據(jù)中心化基礎(chǔ)設(shè)施。

開源只是起點(diǎn),生態(tài)需要共建。歡迎學(xué)術(shù)界與工業(yè)界的同仁關(guān)注、使用 OpenDCAI 系列開源項(xiàng)目,并與團(tuán)隊(duì)進(jìn)行深度的技術(shù)探討。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
被以色列激怒之后,又一中東強(qiáng)國(guó)要威脅參戰(zhàn):這才是真正的狠角色

被以色列激怒之后,又一中東強(qiáng)國(guó)要威脅參戰(zhàn):這才是真正的狠角色

清歡百味
2026-04-15 13:15:35
蘋果憋了10年的折疊屏,靠一瓶膠水干掉了折痕

蘋果憋了10年的折疊屏,靠一瓶膠水干掉了折痕

碳基打工人
2026-04-14 08:48:22
剛通知!2026有線電視8類費(fèi)用全免,家里有機(jī)頂盒的趕緊自查

剛通知!2026有線電視8類費(fèi)用全免,家里有機(jī)頂盒的趕緊自查

叮當(dāng)當(dāng)科技
2026-04-15 19:16:17
負(fù)債百億!昔日越野王者轟然破產(chǎn)!這款國(guó)產(chǎn)車,將徹底退出中國(guó)

負(fù)債百億!昔日越野王者轟然破產(chǎn)!這款國(guó)產(chǎn)車,將徹底退出中國(guó)

青眼財(cái)經(jīng)
2026-04-14 22:52:57
沒被抓,也跑不了!刪合影、切股權(quán)、王石夫婦海外通道只挖了一半

沒被抓,也跑不了!刪合影、切股權(quán)、王石夫婦海外通道只挖了一半

大魚簡(jiǎn)科
2026-04-15 19:55:30
簽約,中國(guó)和俄羅斯談成了

簽約,中國(guó)和俄羅斯談成了

太陽(yáng)來(lái)
2026-04-15 09:27:18
91年我想請(qǐng)假相親,女上司不批,她瞪著我嘀咕:“你敢去試試”

91年我想請(qǐng)假相親,女上司不批,她瞪著我嘀咕:“你敢去試試”

人間百態(tài)大全
2026-04-15 06:45:03
孫儷在上?;ㄕ贡蝗伺牧?,就一張側(cè)臉,沒開美顏,也沒找角度

孫儷在上?;ㄕ贡蝗伺牧耍鸵粡垈?cè)臉,沒開美顏,也沒找角度

老吳教育課堂
2026-04-14 17:57:55
你們都是什么時(shí)候?qū)δ信麻_竅的?網(wǎng)友:果然還是攔不住有心人

你們都是什么時(shí)候?qū)δ信麻_竅的?網(wǎng)友:果然還是攔不住有心人

夜深愛雜談
2026-02-21 21:37:02
千萬(wàn)網(wǎng)紅劉雨鑫帶火莫氏雞煲,曬出自己的支出,90天吃掉37萬(wàn)

千萬(wàn)網(wǎng)紅劉雨鑫帶火莫氏雞煲,曬出自己的支出,90天吃掉37萬(wàn)

新游戲大妹子
2026-04-15 12:40:59
北青:邵佳一大概率會(huì)出席亞洲杯抽簽,然后根據(jù)對(duì)手來(lái)備戰(zhàn)

北青:邵佳一大概率會(huì)出席亞洲杯抽簽,然后根據(jù)對(duì)手來(lái)備戰(zhàn)

懂球帝
2026-04-15 16:30:59
越南人認(rèn)為:丟掉廣東、廣西,就像沒了大門,為此感嘆了千年

越南人認(rèn)為:丟掉廣東、廣西,就像沒了大門,為此感嘆了千年

慕名而來(lái)只為你
2026-04-15 10:48:03
2026北京車展丨新車前瞻

2026北京車展丨新車前瞻

新浪財(cái)經(jīng)
2026-04-15 11:12:01
白人女性與黑人女性的體味差異,網(wǎng)友真實(shí)分享引發(fā)熱議

白人女性與黑人女性的體味差異,網(wǎng)友真實(shí)分享引發(fā)熱議

特約前排觀眾
2025-12-22 00:20:06
沒想到,鄭麗文前腳返臺(tái),雷軍竟因西班牙首相的舉動(dòng)贏足全球目光

沒想到,鄭麗文前腳返臺(tái),雷軍竟因西班牙首相的舉動(dòng)贏足全球目光

愛看劇的阿峰
2026-04-15 18:18:13
安達(dá)曼海發(fā)生船只傾覆事故約250人失蹤

安達(dá)曼海發(fā)生船只傾覆事故約250人失蹤

財(cái)聯(lián)社
2026-04-14 23:20:07
這6家央企低調(diào)到?jīng)]人知道!待遇不輸煙草電網(wǎng),雙非生也能撿漏!

這6家央企低調(diào)到?jīng)]人知道!待遇不輸煙草電網(wǎng),雙非生也能撿漏!

優(yōu)墨出品
2026-04-14 19:06:28
年輕男性睪酮暴跌:一場(chǎng)被忽視的生理危機(jī)

年輕男性睪酮暴跌:一場(chǎng)被忽視的生理危機(jī)

字節(jié)漫游指南
2026-04-15 08:58:14
0-4出局 斯洛特宣布今夏大清洗:2.4億歐雙星被擺上貨架 繼續(xù)砸錢

0-4出局 斯洛特宣布今夏大清洗:2.4億歐雙星被擺上貨架 繼續(xù)砸錢

風(fēng)過鄉(xiāng)
2026-04-15 06:51:33
小鵬GX開啟預(yù)售,預(yù)售價(jià)39.98萬(wàn)元

小鵬GX開啟預(yù)售,預(yù)售價(jià)39.98萬(wàn)元

財(cái)聞
2026-04-15 20:48:22
2026-04-15 21:52:49
機(jī)器之心Pro incentive-icons
機(jī)器之心Pro
專業(yè)的人工智能媒體
12772文章數(shù) 142628關(guān)注度
往期回顧 全部

科技要聞

ChatGPT十億用戶又怎樣?Anthropic直接貼臉

頭條要聞

伊朗總統(tǒng)發(fā)表講話質(zhì)問美國(guó)和以色列:憑什么攻擊伊朗

頭條要聞

伊朗總統(tǒng)發(fā)表講話質(zhì)問美國(guó)和以色列:憑什么攻擊伊朗

體育要聞

三球準(zhǔn)絕殺戴大金鏈:轟30+10自我救贖

娛樂要聞

謝娜現(xiàn)身環(huán)球影城,牽手女兒溫馨有愛

財(cái)經(jīng)要聞

業(yè)績(jī)失速的Lululemon:"健康"人設(shè)崩塌?

汽車要聞

空間絲毫不用妥協(xié) 小鵬GX首發(fā)評(píng)測(cè)

態(tài)度原創(chuàng)

家居
本地
教育
游戲
公開課

家居要聞

簡(jiǎn)而不減 暖居之道

本地新聞

12噸巧克力有難,全網(wǎng)化身超級(jí)偵探添亂

教育要聞

最新!市教委公布24項(xiàng)中小學(xué)生市級(jí)活動(dòng)名單

離譜!玩家白金獎(jiǎng)杯遭被清空 背后真相令人意外

公開課

李玫瑾:為什么性格比能力更重要?

無(wú)障礙瀏覽 進(jìn)入關(guān)懷版