亚洲中文字幕乱码亚洲-蜜桃成熟视频在线观看-免费中文字幕视频在线-中国五十路熟妇洗澡视频-亚洲av伊人啪啪c-国产精品成人一区二区-国产自拍视频一区在线观看-成人一区不卡二区三区四区-亚洲情精品中文字幕99在线

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

北大聯(lián)合Llama-Factory推出DataFlex:工業(yè)級數(shù)據(jù)動態(tài)訓練系統(tǒng)

0
分享至



當大模型訓練進入深水區(qū),競爭的關(guān)鍵已經(jīng)不再只是「模型參數(shù)怎么調(diào)」,而逐漸轉(zhuǎn)向一個更核心、也更難系統(tǒng)解決的問題:模型在訓練過程中究竟看到了什么數(shù)據(jù)、以什么比例看到、哪些樣本應該被更頻繁地學習。

這些因素正在越來越直接地決定訓練效率、泛化能力以及最終模型性能。

圍繞數(shù)據(jù)選擇、數(shù)據(jù)混合和樣本重加權(quán),學術(shù)界已經(jīng)提出了不少方法。但長期以來,這些方法大多分散在彼此獨立的代碼倉庫中:接口不統(tǒng)一、訓練流程不一致、復現(xiàn)門檻高、橫向比較困難。

更重要的是,很多方法依賴 embedding、模型打分、梯度或中間推理信號,真正難的從來不是「提出一個方法」,而是把這些方法穩(wěn)定、可復現(xiàn)地接入主流訓練流程,并納入一套統(tǒng)一的訓練閉環(huán)。

近日,北京大學張文濤教授、鄂維南院士團隊,聯(lián)合 LLaMA-Factory Team、OpenDataLab、上海 AI Lab 等機構(gòu),推出了面向大模型訓練過程的數(shù)據(jù)中心動態(tài)訓練框架 DataFlex。

它并不是單一算法或若干腳本的簡單堆疊,而是一套建立在 LLaMA-Factory 之上的統(tǒng)一訓練基礎設施:將動態(tài)樣本選擇、動態(tài)數(shù)據(jù)混合、動態(tài)樣本加權(quán)三類核心能力真正納入訓練過程,使「數(shù)據(jù)如何參與訓練」從經(jīng)驗式配置,升級為可控制、可優(yōu)化、可復現(xiàn)的系統(tǒng)能力。

換句話說,DataFlex 試圖解決的,并不只是某一個訓練技巧是否有效,而是一個更底層的系統(tǒng)問題:如何讓數(shù)據(jù)像模型參數(shù)一樣,成為訓練過程中可以持續(xù)調(diào)度和優(yōu)化的核心對象。

這使它既可以作為研究平臺,用于系統(tǒng)比較不同數(shù)據(jù)中心訓練算法;也可以作為實用系統(tǒng),直接服務于大模型預訓練、后訓練和領(lǐng)域適配等場景。

DataFlex 發(fā)布后,在 Hugging Face Daily Papers 榜單中迅速獲得廣泛關(guān)注并拿到了月榜第一。這種關(guān)注背后所反映的,本質(zhì)上是社區(qū)對「數(shù)據(jù)中心動態(tài)訓練」從理論走向工程閉環(huán)的里程碑式認可。





DataFlex 不只是一個算法倉庫,而是一套數(shù)據(jù)中心訓練基礎設施

  • 可復現(xiàn)的研究平臺:在統(tǒng)一訓練框架下系統(tǒng)比較動態(tài)數(shù)據(jù)混合、樣本選擇和樣本加權(quán)等數(shù)據(jù)中心訓練方法,覆蓋在線與離線場景,顯著降低研究復現(xiàn)與方法對比成本;
  • 面向真實訓練的優(yōu)化系統(tǒng):將數(shù)據(jù)選擇、數(shù)據(jù)配比和樣本權(quán)重調(diào)節(jié)真正接入訓練閉環(huán),使數(shù)據(jù)從「靜態(tài)輸入」變成「可持續(xù)調(diào)度的優(yōu)化對象」,從而提升訓練效率與最終模型效果。

  • 技術(shù)報告:https://arxiv.org/abs/2603.26164
  • 官方文檔:https://opendcai.github.io/DataFlex-Doc/
  • Github 倉庫:https://github.com/OpenDCAI/DataFlex

DataFlex:大模型工業(yè)化數(shù)據(jù)調(diào)用的最后一塊拼圖

設計哲學:告別靜態(tài)投喂,把「數(shù)據(jù)調(diào)度」變成開箱即用的系統(tǒng)能力



1.核心概念:Data-Centric Dynamic Training System

DataFlex 的核心,不僅僅是再發(fā)一遍「數(shù)據(jù)很重要」的老生常談,而是直擊行業(yè)的最痛點:如何把「模型看什么數(shù)據(jù)、按什么比例看、優(yōu)先強化哪些樣本」這種玄學經(jīng)驗,真正固化為可配置、可調(diào)度、可復現(xiàn)的標準化系統(tǒng)能力。它不僅僅關(guān)注參數(shù)的梯度更新,更死死盯住了數(shù)據(jù)在每一步訓練中的真實參與度。

1.1從「填鴨式靜態(tài)輸入」到「數(shù)據(jù)主動調(diào)度」

傳統(tǒng)的大模型訓練中,數(shù)據(jù)往往被視為預先準備好的靜態(tài)輸入:數(shù)據(jù)集先確定,采樣方式先寫死,訓練過程中主要被持續(xù)優(yōu)化的是模型參數(shù)本身。但當訓練數(shù)據(jù)規(guī)模越來越大、來源越來越復雜時,真正決定效果的,已經(jīng)不只是「有沒有更多數(shù)據(jù)」,而是「訓練時能否更聰明地使用數(shù)據(jù)」。

Data-centric dynamic training 的核心思想,是把數(shù)據(jù)從「被動輸入」提升為「主動調(diào)度對象」。系統(tǒng)不僅要決定模型看哪些數(shù)據(jù),還要動態(tài)決定不同數(shù)據(jù)源如何配比、哪些樣本應被優(yōu)先學習、哪些樣本應被降低權(quán)重。

DataFlex 的價值,正是在于把這種原本零散、分散在不同方法和代碼中的能力,推進為統(tǒng)一、標準化的訓練機制。

1.2零成本遷移的統(tǒng)一框架

好的系統(tǒng)不應成為開發(fā)者的負擔。在動態(tài)調(diào)度之外,DataFlex 更進一步解決的是系統(tǒng)層問題:如何把原本分散的數(shù)據(jù)選擇、數(shù)據(jù)配比和數(shù)據(jù)重加權(quán)方法,統(tǒng)一納入同一套訓練基礎設施。

一方面,DataFlex 建立在 LLaMA-Factory 之上,盡量復用已有的模型管理、數(shù)據(jù)處理和訓練組件;另一方面,它在訓練層引入統(tǒng)一的數(shù)據(jù)中心控制能力,使不同數(shù)據(jù)策略能夠在同一個訓練閉環(huán)中被實現(xiàn)、比較和擴展。

因此,DataFlex 不是若干數(shù)據(jù)算法的簡單集合,而是一套面向大模型訓練過程的統(tǒng)一數(shù)據(jù)中心動態(tài)訓練系統(tǒng)。

2.三個設計原則

  • 統(tǒng)一性:系統(tǒng)將數(shù)據(jù)中心訓練中的三個代表性范式統(tǒng)一納入了同一訓練框架;
  • 兼容性:系統(tǒng)能夠融入現(xiàn)有的大規(guī)模模型訓練基礎設施,而不是額外引入一套工作流;
  • 可擴展性:研究者可以以較低的工程成本實現(xiàn)并比較新的數(shù)據(jù)中心算法。

整體架構(gòu)



DataFlex 延續(xù)了 LLaMA-Factory 易用、清晰的設計思路,但在整體架構(gòu)上做了關(guān)鍵升級。其在不破壞現(xiàn)有訓練生態(tài)的前提下,把數(shù)據(jù)中心訓練真正做成了一套統(tǒng)一、可擴展、可復現(xiàn)、可落地的系統(tǒng)能力。整個系統(tǒng)大致可以分為三層:

  • 基礎層(Base Layer):這一層繼承自 LLaMA-Factory,負責模型管理、數(shù)據(jù)處理、優(yōu)化器等通用訓練能力。系統(tǒng)在盡量保持原有訓練流程與使用習慣的同時,把擴展重點集中在數(shù)據(jù)中心訓練本身,降低了用戶從現(xiàn)有訓練流程遷移到 DataFlex 的門檻。
  • 訓練器層(Trainer Layer):它沒有沿用單一的原始 trainer,而是將訓練過程抽象為三種數(shù)據(jù)中心訓練模式,分別對應數(shù)據(jù)選擇、數(shù)據(jù)混合和樣本加權(quán)。這一層把訓練器從只負責參數(shù)更新,擴展為同時負責數(shù)據(jù)決策與參數(shù)優(yōu)化。
  • 策略組件層(Component Layer):這里掛載的是具體算法組件,例如不同的 selector、mixer 和 weighter。它們各自封裝了不同方法的策略邏輯,并對訓練器暴露了統(tǒng)一接口。

這種架構(gòu)實現(xiàn)了輕量替換,而不是重構(gòu)一切。DataFlex 并沒有在 LLaMA-Factory 外面再包一個復雜編排系統(tǒng),而是聚焦于替換訓練層,并僅在需要時對數(shù)據(jù)加載等模塊做最小擴展。

對用戶來說,這接近一種「即插即用」的增強:已有的模型、數(shù)據(jù)集、訓練參數(shù)配置都可以保留,只需要增加 DataFlex 相關(guān)配置,就能切換到以數(shù)據(jù)為中心的動態(tài)訓練模式。

此外,DataFlex 還統(tǒng)一封裝了數(shù)據(jù)中心方法普遍依賴的模型中間信號,比如 embedding 提取、模型推理、梯度計算等。很多數(shù)據(jù)選擇和數(shù)據(jù)加權(quán)方法真正難落地,不是因為思想復雜,而是因為它們依賴的中間信號獲取成本高、工程耦合重。DataFlex 把這類共享能力抽象出來,降低了實現(xiàn)和擴展門檻,也為后續(xù)大規(guī)模訓練提供了基礎。

核心功能

1.三個核心訓練器

對應當前數(shù)據(jù)中心訓練中典型的三種優(yōu)化方向,DataFlex 支持三類核心訓練器:

  • 動態(tài)樣本選擇訓練器(Dynamic Select Trainer):在訓練過程中動態(tài)篩選更有價值的訓練樣本,減少低價值或冗余樣本對訓練預算的消耗,從而提升訓練效率。
  • 動態(tài)數(shù)據(jù)混合訓練器(Dynamic Mix Trainer):面向多來源、多領(lǐng)域訓練數(shù)據(jù)場景,在訓練過程中動態(tài)調(diào)整不同數(shù)據(jù)源的采樣比例,使模型能夠根據(jù)當前學習狀態(tài)更合理地分配訓練注意力。
  • 動態(tài)樣本加權(quán)訓練器(Dynamic Weight Trainer):針對不同樣本賦予不同訓練權(quán)重,使模型能夠?qū)ΩP(guān)鍵、更困難或更具代表性的樣本進行更有效學習,從而改善模型性能與泛化能力。

2.算法集成與可擴展性

DataFlex 為三類訓練器集成了 LESS、DoReMi、ODM、Loss Reweighting 等代表性方法。所有方法都以可插拔組件的形式,在統(tǒng)一接口下實現(xiàn),從而能夠在受控條件下進行公平比較。

科研上許多極具代表性的動態(tài)訓練方法,要么缺乏官方倉庫,要么其官方實現(xiàn)存在難以復現(xiàn)的問題。DataFlex 通過系統(tǒng)化的重構(gòu),讓這些處于「失聯(lián)」或「半停滯」狀態(tài)的算法重新具備了工業(yè)級生產(chǎn)力。



三類訓練器分工不同,但背后遵循的是同一種數(shù)據(jù) — 模型交互邏輯:先觀察當前模型狀態(tài),再給出新的數(shù)據(jù)決策,隨后把這一決策反饋到后續(xù)訓練中。

DataFlex 正是把這種共性的交互模式抽象成統(tǒng)一接口,從而讓不同算法能夠共享訓練流程、基礎能力以及擴展方式。 DataFlex 的配置文件繼續(xù)沿用了 LLaMA-Factory 的基于 YAML 的格式,用于指定模型、數(shù)據(jù)集和訓練超參數(shù)。

唯一新增的是一個簡短的 dataflex 配置段,用于告訴框架要采用哪種數(shù)據(jù)中心策略,以及如何對其進行調(diào)度。



使用方式

DataFlex 完全兼容 LlamaFactory 的配置和使用方式:

  • 配置兼容:在 LlamaFactory 配置基礎上添加 DataFlex 參數(shù);
  • 命令一致:使用 dataflex-cli 替代 llamafactory-cli;
  • 功能保持:支持所有 LlamaFactory 的原有功能;
  • 無縫切換:可以通過 train_type: static 回退到原始訓練模式。

環(huán)境配置、參數(shù)說明以及自定義組件接入方式,可進一步參考官方文檔。除此之外,我們還提供了兩期視頻教程,分別演示了動態(tài)數(shù)據(jù)混合與動態(tài)數(shù)據(jù)選擇的具體操作流程,便于初次上手的用戶快速理解。

  • 官方文檔:https://opendcai.github.io/DataFlex-Doc/
  • Github 倉庫:https://github.com/OpenDCAI/DataFlex
  • 視頻教程:

- 自動數(shù)據(jù)選擇與動態(tài)訓練:https://b23.tv/BV1pHrKBoE6s

- 自動優(yōu)化數(shù)據(jù)配比:https://b23.tv/LYYx1hG

實驗效果

為了驗證 DataFlex 的有效性,團隊圍繞樣本選擇、數(shù)據(jù)混合和系統(tǒng)效率三方面進行了系統(tǒng)實驗,覆蓋 7 種數(shù)據(jù)選擇、2 種數(shù)據(jù)混合和 1 種數(shù)據(jù)重加權(quán)方法。整體結(jié)果表明,DataFlex 不僅能夠統(tǒng)一復現(xiàn)不同數(shù)據(jù)中心方法,還能在模型效果和訓練效率上帶來穩(wěn)定提升。

數(shù)據(jù)選擇與樣本加權(quán):動態(tài)方法整體優(yōu)于靜態(tài)訓練



在 Open-Hermes-2.5 子集上的實驗顯示,無論是在 Mistral-7B 還是 Llama-3.2-3B 上,大多數(shù)動態(tài)數(shù)據(jù)中心方法都優(yōu)于靜態(tài)全量訓練基線。這表明在模型容量有限的情況下,能夠?qū)崟r感知模型狀態(tài)的動態(tài)選擇策略對于達到性能上限至關(guān)重要 。

3.2 數(shù)據(jù)混合:動態(tài)配比優(yōu)于默認配比



在 SlimPajama 的 6B 和 30B 設置下,DoReMi 和 ODM 兩種數(shù)據(jù)混合算法都表現(xiàn)出了明顯優(yōu)勢。在 6B token 規(guī)模下,動態(tài)數(shù)據(jù)混合方法已經(jīng)展現(xiàn)出明顯優(yōu)勢:ODM 在通用能力評測中的準確率高于默認靜態(tài)配比,而 DoReMi 則在整體困惑度上進一步取得更優(yōu)結(jié)果,說明動態(tài)調(diào)整不同數(shù)據(jù)域的配比,確實能夠帶來更好的訓練收益。

系統(tǒng)效率:統(tǒng)一框架不僅易用,而且高效



除了效果提升,DataFlex 在效率上也有不錯表現(xiàn)。以 LESS 為例,在單卡設置下,DataFlex 在多個采樣比例上都實現(xiàn)了更低訓練耗時,例如在 1.0 比例下,訓練時間從 30,239 秒降到 28,734 秒,同時準確率從 40.38% 提升到 42.37%。進一步在 8 張 H20 GPU 上,訓練時間減少了 57.13%。



對于 TSDS 這類離線選擇方法,DataFlex 的重實現(xiàn)也在不同數(shù)據(jù)規(guī)模下取得了穩(wěn)定的 1%—3.5% 提速。

構(gòu)筑 AI 時代的數(shù)據(jù)生態(tài)

當大模型技術(shù)演進跨越了架構(gòu)探索的初級階段,行業(yè)的角逐核心已躍遷至「數(shù)據(jù)應用」的深水區(qū)。

團隊(PKU-DCAI)致力于在 Data-Centric AI(以數(shù)據(jù)為中心的 AI)浪潮中,構(gòu)筑支撐下一代 AI 應用的數(shù)據(jù)基礎設施。本次開源的 DataFlex 與團隊另一核心工作 DataFlow(3k+ Stars),共同為 AI 時代的數(shù)據(jù)應用確立了從源頭到閉環(huán)的全新范式。

Github 倉庫:

  • https://github.com/OpenDCAI/DataFlow
  • https://github.com/OpenDCAI/DataFlex

面向 AI 時代海量且混沌的真實世界信息,DataFlow 的使命是打造「高智力密度」的數(shù)據(jù)提煉工場。承接 DataFlow 提煉的高階數(shù)據(jù),DataFlex 真正將「數(shù)據(jù)應用」的觸角深入到了模型訓練的原子層。它不僅是在加速模型的收斂,更是在系統(tǒng)層面控制模型的泛化能力與知識吸收軌跡,確保數(shù)據(jù)的潛在價值被極致地變現(xiàn)為 AI 的頂尖實戰(zhàn)能力。



作者信息

作者是來自北京大學的 DCAI 團隊,深耕于 AI 數(shù)據(jù)側(cè)的底層革新與系統(tǒng)落地,擁有該領(lǐng)域最前沿的算法儲備與工程經(jīng)驗。

梁昊:北京大學大數(shù)據(jù)科學研究中心博士,開源項目 DataFlow leader,第一作者 / 共同第一作者發(fā)表 9 篇 CCF-A 論文。

趙正陽:北京大學大數(shù)據(jù)科學研究中心博士,開源項目 DataFlow 核心開發(fā)者,元樞智匯高級算法研究員。

強美伊:北京大學軟件與微電子學院碩士,開源項目 DataFlow 核心開發(fā)者,發(fā)表期刊 / CCF-A 論文 7 篇。

大家堅信,大模型競爭的終點不在于單一算法的博弈,而在于構(gòu)建一套統(tǒng)一、高效、且可復現(xiàn)的數(shù)據(jù)中心化基礎設施。

開源只是起點,生態(tài)需要共建。歡迎學術(shù)界與工業(yè)界的同仁關(guān)注、使用 OpenDCAI 系列開源項目,并與團隊進行深度的技術(shù)探討。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點推薦
1969年蘇聯(lián)要扔原子彈,毛主席:你敢扔我國8億軍民就敢反擊

1969年蘇聯(lián)要扔原子彈,毛主席:你敢扔我國8億軍民就敢反擊

老范談史
2026-04-15 09:28:00
打了45天,伊朗終于發(fā)現(xiàn)最大敵人不是美國,不是以色列,而是他們

打了45天,伊朗終于發(fā)現(xiàn)最大敵人不是美國,不是以色列,而是他們

天天熱點見聞
2026-04-15 05:15:06
特朗普快要崩潰了!內(nèi)塔尼亞胡手握核彈:以色列叫囂重啟對伊打擊

特朗普快要崩潰了!內(nèi)塔尼亞胡手握核彈:以色列叫囂重啟對伊打擊

普覽
2026-04-15 21:30:56
范志毅任上海足協(xié)副主席,和上綜藝賺錢兩不誤,3婚與嬌妻很幸福

范志毅任上海足協(xié)副主席,和上綜藝賺錢兩不誤,3婚與嬌妻很幸福

君笙的拂兮
2026-04-14 22:57:41
機器人切除腫瘤不徹底,時隔18天二次手術(shù),兩年后患者去世;鑒定認為醫(yī)院擔主責

機器人切除腫瘤不徹底,時隔18天二次手術(shù),兩年后患者去世;鑒定認為醫(yī)院擔主責

大風新聞
2026-04-15 13:32:16
18億大關(guān)失守!雙色球獎池持續(xù)走低,15億返獎線即將到來

18億大關(guān)失守!雙色球獎池持續(xù)走低,15億返獎線即將到來

好笑娛樂君每一天
2026-04-15 19:13:55
想走圓潤風,奈何長了張“知性臉”!

想走圓潤風,奈何長了張“知性臉”!

飛娛日記
2026-04-02 11:21:51
美霸權(quán)攪局能源,中國豈能袖手旁觀

美霸權(quán)攪局能源,中國豈能袖手旁觀

烽火瞭望者
2026-04-15 06:12:59
劉雨鑫吃了6000家餐廳、走遍幾十個國家,他的錢其實就3個來源

劉雨鑫吃了6000家餐廳、走遍幾十個國家,他的錢其實就3個來源

老吳教育課堂
2026-04-14 07:44:56
NFC、FC、HPP……哪種才是100%真果汁?

NFC、FC、HPP……哪種才是100%真果汁?

混知
2026-03-24 17:07:26
心源性猝死的人越來越多?醫(yī)生強調(diào):寧可打打牌,建議別做這7事

心源性猝死的人越來越多?醫(yī)生強調(diào):寧可打打牌,建議別做這7事

醫(yī)學原創(chuàng)故事會
2026-03-29 23:50:13
別再傳“蒙古國防中國”了!南邊連草都不長,讓人怎么?。?>
    </a>
        <h3>
      <a href=別再傳“蒙古國防中國”了!南邊連草都不長,讓人怎么住? 起喜電影
2026-04-15 18:57:22
外交部:藏南地區(qū)是中國領(lǐng)土,中方從不承認所謂“阿魯納恰爾邦”

外交部:藏南地區(qū)是中國領(lǐng)土,中方從不承認所謂“阿魯納恰爾邦”

江西地名研究
2026-04-15 22:51:52
男子花20萬在小姐身上,聽到小姐和別人纏綿后,2011年將小姐殺死

男子花20萬在小姐身上,聽到小姐和別人纏綿后,2011年將小姐殺死

漢史趣聞
2026-04-13 14:28:43
不再搞形式!機關(guān)事業(yè)單位這些公務開支全部叫停

不再搞形式!機關(guān)事業(yè)單位這些公務開支全部叫停

王姐懶人家常菜
2026-04-15 14:06:32
邁阿密官宣換帥:41歲小馬哥辭職 曾率隊首奪美職聯(lián)冠軍 新帥公布

邁阿密官宣換帥:41歲小馬哥辭職 曾率隊首奪美職聯(lián)冠軍 新帥公布

我愛英超
2026-04-15 05:07:02
伊朗稱一艘貨輪成功突破美國封鎖,通過霍爾木茲海峽

伊朗稱一艘貨輪成功突破美國封鎖,通過霍爾木茲海峽

山河路口
2026-04-15 22:38:32
青澀的愛:那時候的我們,連牽手都要鼓起勇氣

青澀的愛:那時候的我們,連牽手都要鼓起勇氣

疾跑的小蝸牛
2026-04-15 20:43:41
越南人認為:丟掉廣東、廣西,就像沒了大門,為此感嘆了千年

越南人認為:丟掉廣東、廣西,就像沒了大門,為此感嘆了千年

慕名而來只為你
2026-04-15 10:48:03
海峽被封,特朗普給了中國兩條路,中方二話不說,馬上給俄發(fā)邀請

海峽被封,特朗普給了中國兩條路,中方二話不說,馬上給俄發(fā)邀請

數(shù)字化看世界
2026-04-15 13:23:28
2026-04-15 23:31:00
機器之心Pro incentive-icons
機器之心Pro
專業(yè)的人工智能媒體
12772文章數(shù) 142628關(guān)注度
往期回顧 全部

科技要聞

ChatGPT十億用戶又怎樣?Anthropic直接貼臉

頭條要聞

豫劇團下鄉(xiāng)演出臺下觀眾痛哭流涕:觀眾超千人一半落淚

頭條要聞

豫劇團下鄉(xiāng)演出臺下觀眾痛哭流涕:觀眾超千人一半落淚

體育要聞

三球準絕殺戴大金鏈:轟30+10自我救贖

娛樂要聞

謝娜現(xiàn)身環(huán)球影城,牽手女兒溫馨有愛

財經(jīng)要聞

業(yè)績失速的Lululemon:"健康"人設崩塌?

汽車要聞

空間絲毫不用妥協(xié) 小鵬GX首發(fā)評測

態(tài)度原創(chuàng)

家居
教育
本地
游戲
公開課

家居要聞

簡而不減 暖居之道

教育要聞

千城百縣看中國|山東定陶:創(chuàng)意滿格大課間

本地新聞

12噸巧克力有難,全網(wǎng)化身超級偵探添亂

任天堂第一方獨占IGN 7分:無法導入、分享也是抽象

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進入關(guān)懷版