无主之地2配置高吗|看真人裸体BBBBB|秋草莓丝瓜黄瓜榴莲色多多|真人強奷112分钟|精品一卡2卡3卡四卡新区|日本成人深夜苍井空|八十年代动画片

網易首頁 > 網易號 > 正文 申請入駐

結構化策略初始化加速大規模離散動作空間離線強化學習

0
分享至

IMPROVING AND ACCELERATING OFFLINE RL INLARGE DISCRETE ACTION SPACES WITH STRUCTUREDPOLICY INITIALIZATION

結構化策略初始化加速大規模離散動作空間離線強化學習

https://arxiv.org/pdf/2601.04441



摘要

在離散組合動作空間中進行強化學習,需搜索指數級數量的聯合動作,以同時選擇多個能形成協調組合的子動作?,F有方法要么通過假設子動作相互獨立來簡化策略學習,但這常導致不協調或無效的動作;要么嘗試聯合學習動作結構與控制,但這往往緩慢且不穩定。我們提出了結構化策略初始化(SPIN),這是一種兩階段框架:首先預訓練動作結構模型(ASM)以捕捉有效動作的流形,隨后凍結該表示,并訓練輕量級策略頭用于控制。在具有挑戰性的離散DM Control基準測試中,SPIN較當前最優方法將平均回報最高提升了39%,同時將收斂時間最多縮短至原來的1/12.8(即提速12.8倍)。

1 引言

許多現實世界的問題需要在高維離散動作空間中進行決策,包括醫療保?。↙iu et al., 2020)、機器人裝配(Driess et al., 2020)、推薦系統(Zhao et al., 2018)以及網約車(Lin et al., 2018)等領域的應用。在這些領域中,在線探索(online exploration)可能代價高昂或不安全,這使得離線強化學習(RL)(Lange et al., 2012; Levine et al., 2020)成為一個極具吸引力的框架。然而,標準的離線RL方法(Fujimoto et al., 2019; Agarwal et al., 2020; Fu et al., 2020; Kumar et al., 2020; Kostrikov et al., 2021)并非專為大型離散動作空間設計,因為它們需要在整個離散動作集上最大化Q函數或對策略進行參數化——隨著動作空間隨
呈指數級擴展,這些操作將變得難以處理(intractable),其中 A 是子動作維度的數量,是每個維度的可選數量。

在這些復雜場景中進行學習需要解決兩個相關問題:(i)在指數級數量的聯合動作中進行搜索,以及(ii)確保所選子動作形成協調一致的組合。針對此類組合空間設計的方法傳統上通過施加強結構先驗(例如假設子動作間條件獨立)來簡化策略學習(Tang et al., 2022; Beeson et al., 2024)。然而,這犧牲了表示能力,致使模型無法捕捉有效控制所需的交互作用。其他方法嘗試同時學習動作表示與優化策略(Zhang et al., 2018; Landers et al., 2024; 2025),但這種目標耦合往往導致學習過程緩慢且不穩定。

我們提出了結構化策略初始化(Structured Policy Initialization, SPIN),這是一個將表示學習與控制解耦的兩階段框架。在第一階段,通過自監督訓練一個動作結構模型(Action Structure Model, ASM),以學習一個表示函數;該函數以狀態 s s 為條件,在子動作上誘導產生一個特征空間,其中結構上連貫的聯合動作集中在一個低維流形上。隨后,在第二階段凍結該動作空間表示,此時控制問題簡化為針對下游強化學習(RL)任務,在動作流形上學習輕量級策略頭。通過先學習結構再學習策略,SPIN 允許智能體利用底層的動作幾何結構,而不是在原始組合空間中進行搜索。這帶來了更快的訓練速度和提升的策略性能(圖 1)。在數據集大小和質量、動作維度以及動作基數各異的多樣化基準測試中,SPIN 相比當前最先進方法(state of the art)將平均回報最高提升了 39%,并將達到最先進性能所需的訓練時間最多縮短了 12.8 倍。

我們的貢獻如下:

  • 我們將離散結構化動作空間中的離線強化學習(RL)重新構建為一個表示問題,將動作結構學習與控制分離開來。
  • 我們提出了 SPIN,這是一個兩階段框架,通過預訓練并凍結動作空間表示來加速并改進策略學習。
  • 我們展示了 SPIN 在具有挑戰性的基準測試中實現了最先進(SOTA)的性能,在顯著更快的同時優于現有方法。
  • 我們分析了學習到的表示,以證明在離散組合動作空間中進行有效策略學習時,捕捉動作結構至關重要。

2 相關工作

大離散動作空間中的強化學習。 針對路由(Nazari et al., 2018; Delarue et al., 2020)和資源分配(Chen et al., 2024)等領域的組合動作空間,已開發出多種強化學習方法,但這些方法通常依賴于特定任務的知識。研究也引入了通用方法(Dulac-Arnold et al., 2015; Tavakoli et al., 2018; Farquhar et al., 2020; Van de Wiele et al., 2020; Zhao et al., 2023),但它們通常面向在線學習設計,難以直接適應離線數據集的約束條件。在離線強化學習中,現有方法通常對策略或 Q 函數進行分解(factorize)(Tang et al., 2022; Beeson et al., 2024)。然而,這種分解強制子動作之間滿足條件獨立性,從而限制了模型的表征能力,并在子動作存在強依賴關系時失效。其他方法則顯式地捕捉依賴關系——例如 BraVE(Landers et al., 2024)對跨維度交互進行建模,但其計算復雜度隨動作規模擴大而急劇增加(擴展性差);而自回歸策略(Zhang et al., 2018)則強加了固定的動作順序,破壞了排列不變性。最近,SAINT(Landers et al., 2025)引入了一種基于 Transformer 的策略,通過自注意力機制捕捉子動作間的依賴關系,但其聯合學習動作結構與控制策略的方式,導致了訓練緩慢且不穩定。另一條相關研究線致力于為大規模但平坦(flat)的動作空間學習表征。其中最相關的是 MERLION(Gu et al., 2022),它為離線強化學習學習了一種基于偽度量(pseudometric)的動作表征。然而,MERLION 的策略執行需要在每個時間步對整個枚舉動作集進行最近鄰搜索,這在我們所考慮的組合場景中計算上是不可行的。此外,其架構將動作視為原子實體,并未對其底層的組合結構進行建模。相比之下,SPIN 專為這種組合設定設計,其結構化策略逐維度生成聯合動作,而非枚舉完整的組合動作集。

強化學習中的自監督預訓練。 強化學習中的自監督預訓練已呈現多種形式,包括作為表征塑造(representation shaping)的輔助目標(Jaderberg et al., 2016; Shelhamer et al., 2016)、對比與預測編碼器(Laskin et al., 2020; Schwarzer et al., 2021; Stooke et al., 2021; Liu & Abbeel, 2021b;a)以及世界模型建模(Ha & Schmidhuber, 2018)。其他研究探索了掩碼決策建?;蜍壽E建模(Cai et al., 2023; Liu et al., 2022; Wu et al., 2023; Sun et al., 2023)。大規模行為預訓練已催生出通用策略(generalist policies)與視覺-語言-動作模型(VLA models)(Brohan et al., 2022; Zitkovich et al., 2023; O’Neill et al., 2024; Kim et al., 2024; Team et al., 2024; Tirinzoni et al., 2025),并配套了預訓練后的快速適應方法(Sikchi et al., 2025)。這些方法大多以狀態或軌跡為中心,且通常預設了在線交互或多任務微調的場景。相比之下,SPIN 預訓練了一個能夠捕捉動作組合規律的動作結構模型(ASM),從而在無需任何在線交互的情況下,為組合動作空間中的策略學習提供結構化初始化。

3 預備知識






4 結構化策略初始化 (SPIN)

結構化策略初始化(Structured Policy INitialization, SPIN)是一個針對結構化動作空間中離線強化學習的兩階段框架,它顯式地將表示學習與控制解耦。在第一階段,通過自監督訓練一個動作結構模型(Action Structure Model, ASM),以學習一個表示函數;該函數以狀態 s 為條件,在子動作上誘導產生一個特征空間,其中結構上連貫的聯合動作集中在一個低維流形上。在第二階段,該表示被凍結,策略學習簡化為在誘導出的動作流形上訓練輕量級頭(heads),以用于下游的強化學習任務。

4.1 動作結構建模 (ASM)


ASM 的預訓練過程總結在算法 1 中。我們在附錄 C 中通過實證驗證了這一目標,展示了它優于強大的生成式和判別式替代方案。


4.2 基于凍結表示的策略學習

在第二階段,SPIN 在 ASM 提供的凍結表示上執行策略學習。策略網絡 π θ 僅更新輕量級組件,如查詢向量和輸出頭,而 ASM 保持固定。這種分離保留了學習到的動作結構,并保持策略優化的可處理性(tractability)。






5 實驗評估


為了隔離架構選擇的影響,所有方法均使用 IQL(Kostrikov et al., 2021)目標進行訓練。為了評估魯棒性,我們在附錄 D 中也報告了使用替代目標(包括 AWAC (Nair et al., 2020) 和 BCQ (Fujimoto et al., 2019))的結果。為了驗證 SPIN 在運動(locomotion)之外的泛化能力,我們在 Maze(Beeson et al., 2024)上評估了其性能,結果見附錄 E。為了證明 SPIN 的有效性歸因于其以動作為中心(action-centric)的預訓練目標,而非僅僅源于預訓練本身,我們在附錄 F 中將其性能與一種以軌跡為中心(trajectory-centric)的預訓練方法進行了比較。在所有這些設置中,SPIN 在性能和效率上均一致優于基線方法。

所有實驗均使用 Python 3.9 和 PyTorch 2.6 在單塊 NVIDIA A40 GPU 上運行。報告的結果是五個隨機種子的平均值, ± ± 值表示跨種子的一個標準差。

5.1 漸近性能與訓練效率

表 1 報告了跨環境和數據集質量的最終性能與訓練效率(完整的學習曲線見附錄 A)。SPIN 取得了比所有基線方法 consistently 更高的回報,并且比所有基線方法用更少的掛鐘時間(wall-clock time)達到了目標性能。

SPIN 達到了最高的總體平均回報 594.1,超過了次優基線 SAINT 的 572.1。這種提升在整個基準測試套件中是系統性的,而非集中在個別環境中。這種優勢在異構的 medium-expert(中等 - 專家)和 random-medium-expert(隨機 - 中等 - 專家)數據集中最為顯著,它們代表了最現實且具有挑戰性的基準設置。在 random-medium-expert 數據集上,SPIN 實現了 499.2 的平均回報,比次優方法 SAINT(438.9)提升了超過 13%。

我們還測量了每種方法達到 F-IQL 漸近性能 95% 所需的掛鐘時間(以分鐘為單位報告)。F-IQL 是結構化動作空間中廣泛采用的最先進(state-of-the-art)基線(Tang et al., 2022; Beeson et al., 2024; Landers et al., 2024),在各環境中均提供了可處理性(tractability)和穩定的收斂性。使用 F-IQL 作為目標使得收斂到不同回報水平的方法之間能夠進行公平比較,避免了因在次優性能處提前終止而產生的誤導性優勢。我們采用 95% 的閾值而不是 100%,是因為有些方法永遠無法達到 F-IQL 的漸近性能。直接處理這些情況——無論是通過排除運行次數還是報告完整運行時間——都會使結果產生偏差,而 95% 的標準提供了一致且可比的度量。

每個環境的到達目標時間(time-to-target)完整結果報告在附錄 B 中。總計,SPIN 在 223.3 分鐘內達到目標性能,大約比 F-IQL 本身快 2.5 倍,比 SAINT 快 3.8 倍。這種加速在 medium-expert 數據集中尤為明顯,SPIN 僅需 62 分鐘的訓練時間,而所有其他方法則需要超過 250 分鐘。SPIN 的所有運行時間均包含 ASM 預訓練階段的全過程。

這些發現表明,在專用的預訓練階段顯式地對動作結構進行建模,使得表示層能夠捕捉連貫動作的流形。在策略學習期間凍結該表示保留了這種結構,使得輕量級頭(heads)能夠高效地適應下游任務。與 Factored(因子化)和 Autoregressive(自回歸)方法相比(它們要么丟棄跨維度依賴關系,要么對其施加強制性的剛性結構),SPIN 在保留靈活性的同時沒有犧牲可處理性。與試圖聯合學習動作結構和控制的 SAINT 不同,SPIN 的解耦設計實現了更高的漸近性能和更快的收斂速度。

5.2 對動作基數的魯棒性


結果總結在表 2 中。SPIN 在每個基數下都取得了最高的平均回報,且相對于基線的差距隨著動作空間的增大而增加。在三個區間時,SPIN 略微優于最強的基線 SAINT。在三十個區間時,SPIN 達到了 703.9 的平均回報,相比之下 SAINT 為 562.5,提升幅度超過 25%。AR-IQL 表現出不穩定的性能,從三個區間時的 526.5 下降到十個區間時的 457.4,而 F-IQL 則未顯示出從增加粒度中獲益,停留在 480 左右。


訓練效率遵循相同的趨勢。即使在最大的動作空間中,SPIN 始終需要更少的掛鐘時間(wall-clock time)來達到目標性能(完整運行時間結果見附錄 B)。這些結果表明,隨著組合復雜性的增長,將結構學習與控制分離開來日益有益,因為智能體可以在學習到的低維流形上行動,而端到端(end-to-end)的方法仍然受制于原始聯合空間的規模。

6 SPIN 有效性的底層機制

第 5 節的實驗表明,SPIN 在學習速度和最終性能上均優于現有方法。我們現在考察這些提升背后的機制。

6.1 表示質量對策略性能的影響

為了評估 ASM 預訓練的貢獻,我們在 medium-expert(中等 - 專家)數據集上將 ASM 表示訓練了 10–100 個 epoch。隨后,將每個表示函數凍結,并用于初始化一個新的策略,該策略隨后在控制任務上訓練至收斂。

圖 2 顯示,下游回報(return)通常隨著更多的 ASM 預訓練而提升,其中前 20 個 epoch 的增益最為陡峭。在 20 個 epoch 之后,策略在所有任務上均超過了完全收斂的 F-IQL 參考值。由未訓練的 ASM(Epoch 0)初始化的策略表現不佳。這些結果表明,最終策略性能在很大程度上取決于預訓練動作表示的質量;一旦學習到了連貫的表示,控制優化就會變得 substantially 更容易。

6.2 量化表示質量

圖 2 中隨機初始化(epoch 0)與預訓練智能體之間的巨大差距,可能是由于預訓練僅提供了方便的初始化而未編碼結構,也可能是由于預訓練學習到了能夠賦能下游性能的表示。我們通過測試 ASM 表示是否使用線性探針(linear probe)捕捉聯合動作依賴關系來直接評估這一點,線性探針是自監督表示的標準診斷工具(Chen et al., 2020; He et al., 2020)。


在本實驗中,ASM 表示被凍結——無論是預訓練了 100 個 epoch 還是隨機初始化——并在其嵌入上訓練一個輕量級線性分類器,以根據狀態預測數據集動作。為此探針(probe)學習了新的動作查詢和線性頭。分析是在 dog-trot 環境中進行的,該環境擁有 38 個子動作維度,被離散化為 30 個區間(bins),從而產生了 DM Control 套件中最大且最具挑戰性的組合動作空間。


6.3 分離學習到的表示的貢獻



訓練后,學生網絡被凍結,并作為下游策略的輕量級、無注意力機制的特征提取器發揮作用。表 3 報告了該實驗的結果。


SPIN-Distill 與完整 SPIN 模型的漸近性能相差無幾,并且顯著優于所有其他基線方法,同時速度比 SAINT 快近 8 倍。這些結果提供了強有力的證據,表明 SPIN 的性能提升歸因于預訓練表示本身的質量,而非策略網絡的具體架構。

6.4 涌現的快速適應

在確立了預訓練和表示質量的重要性之后,我們接下來考察學習動態。表 4 報告了在 10,000 個梯度步之后達到的 F-IQL 漸近性能的百分比,這僅相當于總訓練預算的 1%。在幾乎所有環境中,SPIN 學習到的策略都能達到至少 90% 的目標性能,而基線方法的提升則緩慢得多。這種效應在異構數據集上最為顯著。在使用 medium-expert 數據集的人形機器人(humanoid)任務中,SPIN 達到了目標性能的 93.4%,而次優方法 SAINT 僅達到了 9.3%。在 random-medium-expert 數據集上,在此期間,SPIN 在 cheetah 和 humanoid 任務中均超過了 F-IQL 漸近性能的 100%。


這種快速學習也闡明了 SPIN 的掛鐘時間效率(表 1)。下游 RL 階段的計算開銷主要由 Actor-Critic 循環占據,該循環需要在每個梯度步對 Actor、Critic 和目標網絡進行重復評估,以及進行貝爾曼備份(Bellman backups)。相比之下,ASM 預訓練階段是一個應用于掩碼子動作的、穩定的、單次遍歷(single-pass)的監督目標。因此,其相對成本極低:在 medium-expert 數據集上,預訓練僅占 cheetah 總掛鐘時間的 5.6%,finger 的 1.4%,以及 humanoid 和 quadruped 的 1.6%。

綜上所述,這些結果表明 ASM 提供了一個強有力的結構先驗,極大地簡化了下游學習。端到端基線方法必須聯合發現動作結構和控制,導致初始進展緩慢,而 SPIN 則利用連貫的表示開始策略學習,從而實現了高效的早期適應并減少了整體訓練時間。

7 討論與結論

在離散組合動作空間中進行強化學習,需要在指數級數量的組合動作中進行搜索,同時確保所選子動作構成連貫的動作組合。一些方法通過忽略動作結構來簡化策略學習(Tang et al., 2022; Beeson et al., 2024),但代價是丟棄了關鍵的子動作依賴關系。其他方法嘗試同時捕捉結構并求解控制問題(Zhang et al., 2018; Landers et al., 2024; 2025),但通常計算開銷極大且不穩定。相比之下,SPIN 采用兩階段過程將表示學習與策略學習分離。在第一階段,動作結構模型(ASM)學習一個表示函數,該函數以狀態 s s 為條件,在子動作上誘導一個特征空間,其中結構連貫的聯合動作位于一個低維流形上。隨后,該表示被凍結并在第二階段重用,此時控制問題簡化為在預訓練 ASM 之上訓練輕量級策略頭。

在數據集大小和質量、動作維度以及動作基數各異的基準測試中,SPIN 相比當前最優方法將平均回報最高提升了 39%,并將達到強基線性能所需的時間最多縮短了 12.8 倍。這些收益在具有挑戰性且更貼近現實的 medium-expert(中等-專家)和 random-medium-expert(隨機-中等-專家)數據集中最為顯著。

針對性分析闡明了 SPIN 的有效性。最終性能隨著學習到的表示質量的提升而提高,證實了控制問題的瓶頸在于結構發現。一旦該結構可用,策略便能快速學習,在極小的訓練比例內即可達到其最終回報的大部分。線性探針進一步表明,學習到的表示在生成完全協調的動作方面比隨機基線有效 45 倍,為下游智能體的成功提供了直接且定量的解釋。

盡管 SPIN 展現了強大的性能,但仍存在若干未來工作方向。將 SPIN 擴展至 CQL 等值正則化方法是一個有前景的方向。一個自然的下一步是開發混合目標,將 SPIN 的“表示優先”設計與溫和的保守正則化相結合——例如,將懲罰限制在 ASM 提議的候選聯合動作上,或應用于子動作級別,從而避免在完整組合空間上進行難以處理的全局操作。將 SPIN 適配于具有除排列等變性以外結構假設的動作空間(例如有序或基于序列的子動作)是另一個未來方向。最后,與所有離線方法一樣,SPIN 的泛化能力最終取決于數據集的覆蓋范圍,在稀疏或有偏數據下提高魯棒性仍然是一個重要的開放挑戰。

SPIN 為結構化動作空間中的控制引入了一種“表示優先”的視角。通過首先學習合理動作的流形,隨后重用表示函數進行下游決策,它將復雜的組合問題簡化為可處理的策略學習任務。這種解耦為高維、結構化領域的強化學習提供了一個原則性框架。

原文鏈接:https://arxiv.org/pdf/2601.04441

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
日本爆發大規模抗議,高市終于低頭,中國外交部冷言:不糾錯免談

日本爆發大規模抗議,高市終于低頭,中國外交部冷言:不糾錯免談

貴州霖霖
2026-05-17 09:30:17
英國250萬穆斯林中,1/3年輕人正放棄約會:Halal Marriage為何成新選擇

英國250萬穆斯林中,1/3年輕人正放棄約會:Halal Marriage為何成新選擇

時光慢郵啊
2026-05-17 01:29:56
美退役軍官曾宣稱:中國殲16D電子戰機,簡直是美國海軍的噩夢!

美退役軍官曾宣稱:中國殲16D電子戰機,簡直是美國海軍的噩夢!

華史談
2026-05-17 08:57:13
在泰華人目擊“火車撞公交致8死32傷”:看著火車駛來懷疑它能否剎住,公交被拖行數十米起火,殃及多輛摩托車和私家車

在泰華人目擊“火車撞公交致8死32傷”:看著火車駛來懷疑它能否剎住,公交被拖行數十米起火,殃及多輛摩托車和私家車

極目新聞
2026-05-17 13:09:18
海風:聽到特朗普這句話,臺灣當局該醒了

海風:聽到特朗普這句話,臺灣當局該醒了

環球網資訊
2026-05-16 17:37:05
三位美女你喜歡哪位我看中右邊,頗為賢惠、穩重大方,氣質美滿

三位美女你喜歡哪位我看中右邊,頗為賢惠、穩重大方,氣質美滿

科學發掘
2026-05-17 15:56:57
活塞G7傷情報告出爐,哈登迎來尷尬里程碑,阿特金森該變陣了

活塞G7傷情報告出爐,哈登迎來尷尬里程碑,阿特金森該變陣了

世界體育圈
2026-05-17 13:16:49
馬斯克黃仁勛在空軍一號熱聊照曝光,喝了可樂,皮衣黃疑似用三星

馬斯克黃仁勛在空軍一號熱聊照曝光,喝了可樂,皮衣黃疑似用三星

譯言
2026-05-16 10:38:32
空軍一號飛機即將起飛返航時,現場工作人員有人直接倒地!

空軍一號飛機即將起飛返航時,現場工作人員有人直接倒地!

阿龍聊軍事
2026-05-17 06:43:05
老板娘問我她屁股大不大?我該怎么回答?

老板娘問我她屁股大不大?我該怎么回答?

太急張三瘋
2026-03-28 12:35:10
44%進度,慢就是快

44%進度,慢就是快

閃存獵手
2026-05-16 04:52:09
特斯拉國內新品上架,全球最低價來了!

特斯拉國內新品上架,全球最低價來了!

XCiOS俱樂部
2026-05-17 16:32:44
斯維托麗娜奪得羅馬冠軍后,孟菲爾斯為妻子寫下溫情告白

斯維托麗娜奪得羅馬冠軍后,孟菲爾斯為妻子寫下溫情告白

網球之家
2026-05-17 13:29:52
霍爾木茲海峽,突傳大消息

霍爾木茲海峽,突傳大消息

第一財經資訊
2026-05-17 10:43:53
特朗普剛訪華,美媒察覺不對:最強殲20已部署,解放軍劍指臺海

特朗普剛訪華,美媒察覺不對:最強殲20已部署,解放軍劍指臺海

時光流轉追夢人
2026-05-17 02:41:07
訪華已經結束,特朗普回到白宮,用6句話談中國之行,措辭不尋常

訪華已經結束,特朗普回到白宮,用6句話談中國之行,措辭不尋常

阿校談史
2026-05-17 15:12:43
蘋果防線全線血崩!Mythos5天攻破最強硬件,全球20億臺設備危了

蘋果防線全線血崩!Mythos5天攻破最強硬件,全球20億臺設備危了

新智元
2026-05-15 12:33:48
這場頂級晚宴,真正的主角不是馬斯克、黃仁勛,而是一方中式桌面

這場頂級晚宴,真正的主角不是馬斯克、黃仁勛,而是一方中式桌面

魔都姐姐雜談
2026-05-15 00:53:47
固態電池一旦上車,最先被淘汰的不是燃油車,而是現在的新能源車

固態電池一旦上車,最先被淘汰的不是燃油車,而是現在的新能源車

老特有話說
2026-05-17 13:11:49
國宴待了32年的老國貨礦泉水!喝一次,娃哈哈農夫山泉都不香了

國宴待了32年的老國貨礦泉水!喝一次,娃哈哈農夫山泉都不香了

老特有話說
2026-05-17 13:15:19
2026-05-17 17:11:00
CreateAMind incentive-icons
CreateAMind
CreateAMind.agi.top
1406文章數 19關注度
往期回顧 全部

科技要聞

三大運營商即將免月租?多方回應

頭條要聞

女子的奔馳4S店不愿回收 丈夫:賭100萬 找專業機構查

頭條要聞

女子的奔馳4S店不愿回收 丈夫:賭100萬 找專業機構查

體育要聞

生死戰只拿3分的核心,還有留的必要嗎?

娛樂要聞

《主角》劉浩存上線,死別猝不及防

財經要聞

OpenAI和蘋果的“聯盟”即將破裂

汽車要聞

大五座SUV卷王!樂道L80上市 租電15.68萬元起

態度原創

游戲
時尚
親子
本地
軍事航空

驚了!地平線6還未正式發售 在線數就已打破前作記錄

5.22沙龍報名|何寬×黃競歐×王如菲:「二手知識,一手思考」

親子要聞

媳婦睡懶覺不起床,閨女花式叫床服務,媳婦立馬乖乖起床了

本地新聞

用蘇繡的方式,打開江西婺源

軍事要聞

黎以停火再延長 空襲卻未停止

無障礙瀏覽 進入關懷版