網易首頁 > 網易號 > 正文 申請入駐

波恩大學研究團隊造出"三鏡頭實時自由視角"系統

0
分享至


這項由德國波恩大學計算機科學系領導的研究,以預印本形式于2026年4月發布,論文編號為arXiv:2604.11211,有興趣深入了解的讀者可通過該編號查詢完整論文。研究團隊提出了一套名為"3DTV"的實時自由視角合成系統,用僅僅三臺攝像機的畫面,在不超過25毫秒的時間內生成任意角度的新視角圖像,幀率達到每秒40幀,完全滿足直播、電競轉播、遠程臨場、AR/VR等場景對低延遲互動渲染的需求。

一、當你想"換個角度看世界"時,計算機面臨什么難題

體育賽事直播時,你有沒有想過:"要是能隨時切換到自己最想看的角度就好了"?足球比賽中一腳精彩吊射,攝像機卻偏偏拍到了對面的球員背影;演唱會上歌手的表情變化,遠處的觀眾席根本捕捉不到。自由視角技術的目標,就是讓觀眾能夠自主選擇任何一個"虛擬攝像機位置",而不受現場實體攝像機數量和位置的限制。

問題在于,憑空生成一個從未拍攝過的角度,本質上是一道極其困難的數學題。你手里只有幾張從固定位置拍的照片,卻要推斷出站在另一個位置的人會看到什么畫面。這不僅需要理解場景的三維結構,還要處理遮擋、光影和細節紋理等一系列復雜因素。

現有方案走了兩條路,但各有明顯缺陷。一條路是"慢工出細活":用神經輻射場(NeRF)或三維高斯潑濺(3D Gaussian Splatting)這類方法,對每個場景單獨訓練一個神經網絡模型,花上幾分鐘甚至更長時間,才能生成高質量新視角。這就好比每次換一道菜,廚師都要從零開始學做這道菜,顯然來不及上菜。另一條路是"快餐式處理":拿通用模型直接推算,速度夠快,但精度和穩定性往往令人頭疼,尤其在只有少量攝像機的情況下,圖像中會出現重影、漂浮雜塊和幾何扭曲等明顯瑕疵。

3DTV的目標是在這兩條路之間另辟蹊徑:既不需要針對每個場景重新訓練,也能在實時約束下生成穩定、高質量的新視角圖像。

二、用"三角測量"鎖定最優的三臺攝像機

解決這道題的第一步,是決定"看哪三臺攝像機的畫面"。

現場可能架設了幾十臺攝像機,但并非所有攝像機對合成目標視角都同樣有用。距離太近的攝像機看到的畫面幾乎一模一樣,提供不了新信息;選擇不當的組合可能導致目標視角落在三臺攝像機"視野三角"的邊緣,合成質量急劇下降。

研究團隊引入了一個來自幾何學的經典概念——德勞內三角剖分(Delaunay Triangulation)。這個名字聽起來復雜,但核心思路非常直觀:把所有攝像機的位置投影到一個二維平面上,然后用三角形把這些點連接起來,要求每個三角形盡可能"接近等邊三角形"——避免出現細長的尖角三角形。這樣一來,當你指定一個目標視角時,系統只需要找到包含該目標視角點的那個三角形,三角形的三個頂點就是最優的三臺源攝像機。

為了讓這套方案適配現實中常見的"環形攝像機陣列"(攝像機圍繞被攝主體布置成一圈),研究團隊設計了一套兩步投影流程。第一步是把攝像機位置投影到一個擬合好的圓柱面上,消除攝像機在徑向距離上的差異帶來的偏差;第二步再從一個"原點"出發,把圓柱面上的點透視投影到一個水平面上,從而得到適合做二維三角剖分的坐標。最終在這個二維平面上算好三角網格,反投影回三維空間,就得到了覆蓋整個場景的"攝像機三角網"。

當目標視角確定后,系統用一種叫做穆勒-特朗博爾射線-三角形相交(Moller–Trumbore algorithm)的算法,快速找到包含目標點的三角形,鎖定三臺源攝像機。這個過程的實際效果是:無論目標視角落在哪里,選出的三臺攝像機總能從三個方向均勻包圍它,而不會出現"三臺攝像機都擠在同一側"的糟糕情況。研究人員還專門對這套算法的超參數進行了系統測試,發現將"原點"設在圓柱軸線向下偏移1米、投影平面設在圓柱頂端向上1米的位置,能得到最接近等邊三角形的剖分結果,顯著減少了細長三角形的出現。

三、像剝洋蔥一樣,從粗到細估算深度

選好三臺攝像機之后,真正的計算工作開始了。核心任務是:對目標視角的每一個像素點,估算出它距離攝像機的深度值。有了深度,才能把三臺源攝像機的畫面內容"搬運"到正確的目標位置。

研究團隊用了一種"粗到細"的金字塔式深度估算策略,這個思路可以用剝洋蔥來理解。先在最外層(也就是分辨率最低的縮略圖層面)快速給出一個粗略的深度估計,然后一層一層剝進去,每一層都在上一層結果的基礎上做局部修正,最終在最內層(原始分辨率)得到精細的深度圖。

具體來說,系統共設置7個金字塔層級,從最粗的第7層(圖像分辨率最低)到最細的第1層(接近原始分辨率)逐層推進。在第7層,系統在0.5米到8.5米的范圍內均勻設置32個深度候選值,覆蓋常見室內拍攝場景的深度范圍。到了更細的層級,搜索范圍會縮小到上一層預測值周圍的一個小窗口內,窗口大小隨層級按2的冪次遞減。這意味著越到細節層,系統只需要在很小的深度范圍內精細搜索,計算量大幅降低,同時精度卻得到提升。

在每一個層級,系統會針對每個深度候選值,把三臺源攝像機的特征圖像通過單應矩陣(homography,一種數學工具,描述平面到平面的映射關系,可以簡單理解為"把一張圖按照特定的透視規則搬到另一個角度")投影到目標視角,然后計算不同攝像機之間投影結果的相似度。相似度高的深度候選值,就更可能是真實的深度。這個計算過程借鑒了立體視覺領域的"分組相關體積"方法:把特征通道分成若干組,分組計算相關性,既保留了豐富的匹配信息,又避免了單一相關性指標可能帶來的偏差。

此外,系統還設計了一個"先驗引導"機制。來自上一層融合模塊的中間特征(叫做"潛變量")會被向上傳遞,作為當前層深度估算的額外參考依據。這就像你在解一道數學題時,先草稿紙上算出一個大概答案,然后再在這個基礎上仔細核算,效率和精度都更高。

四、"幽靈骨架"特征提取器:用廉價操作替代昂貴運算

在進行上述深度估算之前,系統首先需要從三臺攝像機的圖像中提取"特征"——可以理解為圖像中蘊含的結構信息的壓縮版本,類似于把一張復雜的地圖簡化成關鍵地標和道路網絡。

研究團隊選用了GhostNet和GhostNetV2架構作為特征提取骨干網絡。"幽靈網絡"這個名字來自它的核心思路:在普通卷積網絡里,很多特征圖(feature map,可以理解為對圖像不同方面的描述層)其實是彼此高度相似的"幽靈"——用一個通道就能推導出另一個通道。幽靈網絡的做法是,先用普通卷積生成少量"基礎特征圖",然后用計算成本極低的深度可分離卷積(一種只在單個通道內做卷積、不跨通道混合的操作)來生成剩余的"幽靈特征圖"。這樣一來,生成同樣數量的特征圖,計算成本大幅下降。

骨干網絡對每臺攝像機生成7個層級的特征金字塔,與深度估算的7個層級一一對應。每個層級的空間分辨率是上一層級的一半,特征通道數則隨層級加深而增加。在每個處理模塊內,還嵌入了一個輕量的通道注意力機制,通過全局平均池化對不同通道的重要性進行加權,以極低的額外計算成本增強全局上下文感知能力。

在特征金字塔最深處(分辨率最低的層級),還額外加入了一個叫做L-ASPP的模塊。這個模塊的作用是在最粗粒度的特征圖上,同時用多個不同"視野范圍"的卷積核掃描圖像,捕捉從近到遠、從局部到全局的多尺度上下文信息,彌補反復下采樣導致的空間細節損失。

五、把三張圖的信息"疊加融合"成一張新視角圖

有了深度圖,就可以把三臺攝像機的特征圖像按照深度信息"搬運"到目標視角的坐標系中。但三臺攝像機的貢獻并不是簡單平均的——離目標視角更近、角度更合適的攝像機應該獲得更高的權重,被遮擋區域的攝像機貢獻應該被壓低。

研究團隊設計了一個"置信度預測網絡"來處理這件事。對每臺攝像機,網絡會根據投影后的特征圖以及每臺攝像機相對于目標視角的方位信息(方位角和仰角),預測一張"置信度圖",圖中每個像素的值在0到1之間,代表這臺攝像機在該位置的可信程度。三臺攝像機的特征圖按各自的置信度加權求和,得到融合后的特征表示。

圖像合成同樣采用金字塔式的層級解碼器。在每個層級,解碼器接收融合特征、當前層的深度圖、透明度圖(alpha map,用于分離前景和背景)以及來自上一層的潛變量特征,輸出新的潛變量。這種"下一層為上一層提供上下文"的反饋機制,確保了粗粒度估計的整體結構信息能夠約束細粒度層級的高頻細節合成,避免在局部細節層面出現與整體結構矛盾的錯誤。最終在第1層(最細粒度),潛變量通過一個輕量的精化頭(refinement head)直接輸出最終的RGB圖像。

六、七種損失函數組成的"質量評分卡"

訓練這套網絡,需要告訴它什么叫"好"、什么叫"差"。研究團隊設計了七種損失函數,從不同維度衡量網絡輸出的質量,并在訓練的不同階段動態調整各項權重。

像素級重建質量用L1損失來衡量,也就是逐像素比較預測圖和真實圖的絕對差值。為了讓中間層級的特征圖也對齊真實圖像,還設計了一個金字塔RGB損失,對各層級潛變量的前三個通道(對應RGB)與對應分辨率的真實圖像做L1比較。

幾何一致性方面,深度損失用帶前景掩碼(mask,只在有主體的區域計算,排除黑色背景的干擾)的L1比較預測深度和真實深度;偏移損失則對每個層級的深度殘差進行約束,如果殘差超出該層級預設的搜索窗口范圍,就給予額外懲罰,防止網絡"跳出"金字塔設計的合理搜索空間。透明度圖用L2損失(均方誤差)與真實前景掩碼對齊。

感知質量方面引入了兩項來自圖像風格遷移領域的經典損失。VGG感知損失通過比較預測圖和真實圖在VGG-19網絡各層的中間特征激活值的L1距離,捕捉人眼感知層面的相似性,克服純像素損失導致的過度平滑問題。風格損失則比較兩張圖在VGG各層特征的"格拉姆矩陣"(Gram matrix,描述不同特征通道之間共現關系的矩陣,能夠捕捉紋理和風格信息)的L2距離,進一步約束紋理細節的還原。

在訓練安排上,前25個訓練輪次(epoch)不啟用感知損失,讓網絡先學會基本的幾何和色彩重建;第26輪到第100輪啟用VGG感知損失;第101輪之后才加入風格損失,同時適當降低深度損失和偏移損失的權重,讓網絡更多關注視覺質量而非幾何精度。整個訓練分兩個階段:先在512×512分辨率下訓練100輪(約4天),再在1024×1024分辨率下微調25輪(約36小時),均在單張NVIDIA A40顯卡上完成。

七、合成數據"造廠":24753個樣本從零開始

由于網絡訓練需要配對的真實深度圖,而現實中的多視角視頻數據集很難提供精確深度標注,研究團隊選擇用合成數據訓練。

他們從Poly Haven、Sketchfab等平臺下載了357個三維資產,涵蓋沙發、化學實驗臺等各類室內物體,并將場景縮放到大約[-2m, 2m] × [-2m, 2m] × [0m, 2m]的體積內,與真實拍攝舞臺的尺度相近。另外使用HumanGenerator3D插件在Blender中生成了各種姿勢和服裝的虛擬人物。為了增加深度估算難度,還專門制作了由隨機形變立方體組成的場景,立方體表面貼上不同紋理圖片,以訓練模型在相鄰像素深度不連續時的判斷能力。光照方面,使用了Poly Haven提供的真實環境貼圖(HDRI),覆蓋寬泛的自然和人工光照條件。

攝像機布置也完全隨機化:隨機選取攝像機數量和圓柱面上的位置,通過德勞內三角剖分選出三臺源攝像機,目標視角則在三角形內以隨機重心坐標采樣,并在深度方向加±20厘米的隨機抖動,確保目標視角不總是落在源攝像機所在平面上。最終生成了24753個訓練樣本,每個樣本包含三張源視角圖像、一張目標視角圖像及對應的深度圖和前景掩碼。

為了讓模型在真實場景下也能正常工作,數據增強環節精心模擬了真實采集中可能出現的各種噪聲和失真。色彩抖動模擬不同攝像機的色溫和曝光差異;對背景區域(深度值為0的像素)單獨注入高斯噪聲,模擬真實場景中背景的復雜性;3×3高斯模糊模擬鏡頭虛焦;顏色量化模擬壓縮偽影;隨機縮放裁剪增加尺度變化的魯棒性。整個模型以BFloat16精度訓練,以便與后續TensorRT部署的精度保持一致,避免因精度轉換帶來的性能下降。

八、與現有方法的正面對比:質量和速度兩手抓

研究團隊在六個公開數據集上進行了評測,分別是RIFTCast、DNA Rendering、LLFF(Local Light Field Fusion)、MVHumanNet、THuman2.1和ZJUMoCap,涵蓋了室內表演捕獲、高保真人體渲染、真實自然場景等多種類型。

對比的基準方法分為兩類:需要對每個場景單獨優化的"離線方法"(Nerfacto-big、Splatfacto-big、FrugalNeRF),以及直接推斷不需要訓練的"在線方法"(ENeRF、GPS-Gaussian、GPS-Gaussian+、RIFTCast)。評測指標采用圖像質量研究中的三項標準:PSNR(峰值信噪比,越高越好)、SSIM(結構相似性,越高越好)、LPIPS(感知圖像塊相似度,越低越好)。

在人體捕獲類數據集上,3DTV的表現相當亮眼。以MVHumanNet為例,3DTV取得PSNR 25.4、SSIM 0.938、LPIPS 0.074,超過了同樣使用少量視角的GPS-Gaussian(PSNR 24.8)、GPS-Gaussian+(PSNR 23.8)和FrugalNeRF(PSNR 22.6),與ENeRF(PSNR 25.2)基本持平。在THuman2.1上,3DTV以PSNR 26.7表現最佳,超過ENeRF的26.1和GPS-Gaussian的25.7。在ZJUMoCap上,3DTV取得PSNR 24.1、SSIM 0.930,顯著優于GPS-Gaussian(PSNR 21.4)和GPS-Gaussian+(PSNR 20.9)。

在RIFTCast數據集上,3DTV達到PSNR 25.7、SSIM 0.941,超過ENeRF的24.9,也明顯優于兩個GPS-Gaussian變體。DNA Rendering上,各方法表現較為接近,3DTV以PSNR 25.9、SSIM 0.952略勝GPS-Gaussian+的24.9。

LLFF數據集作為一個"壓力測試"被專門包含進來——這個數據集里的場景是戶外自然景觀,深度范圍遠超室內舞臺,與3DTV的訓練分布差異很大,相當于讓一個只見過室內場景的人去判斷山地風景的深度。3DTV在LLFF上的PSNR僅為10.3,明顯低于ENeRF的21.3,但這個結果本身就是預期之中的——研究團隊明確指出,LLFF是分布外場景,主要用于驗證系統在極端條件下的魯棒性。值得注意的是,GPS-Gaussian+在LLFF上僅得11.8,與3DTV接近,而RIFTCast方法根本不適用于該數據集。

九、速度與內存:40幀每秒、僅需2.2GB顯存

在運行效率上,3DTV的優勢更為突出。未經優化的PyTorch版本在1024×1024分辨率下推理時間為117毫秒(約每秒8.5幀),內存占用7.1GB。經過TensorRT優化的部署版本(OursRT),推理時間壓縮到24.5毫秒(每秒40.8幀),峰值顯存占用降至2.2GB,實現了真正意義上的實時運行。

對比來看,GPS-Gaussian和GPS-Gaussian+的推理時間分別為73.7毫秒和72.4毫秒,雖然快于3DTV的未優化版本,但遠不及TensorRT優化后的3DTV。ENeRF的推理時間高達97.3毫秒,遠未達到實時。RIFTCast雖然達到47.3毫秒,但它需要使用所有可用攝像機(35臺)及完整的前景掩碼集,而3DTV只需3臺攝像機。當分辨率提升到2048×2048時,TensorRT版本的3DTV將推理時間控制在109.5毫秒,而ENeRF則需要233.7毫秒,進一步拉大差距。

研究團隊將TensorRT部署的完整配置連同模型權重一并開源,以確保研究結果的可重復性,這一點在實際工程落地中有相當重要的參考價值。

十、消融實驗:拆解每個設計選擇的貢獻

為了驗證各個設計組件的必要性,研究團隊在DNA Rendering和RIFTCast兩個數據集上做了系統的消融實驗(即逐一去掉某個組件,觀察性能變化)。

把三視角輸入減少到兩視角時,PSNR在DNA Rendering上從25.9降至23.6,SSIM從0.952降至0.913,說明第三臺攝像機提供的額外視角信息對減少深度歧義有實質性貢獻。

特征通道數減半后,推理速度幾乎不變(41.3幀每秒),但PSNR下降約1個單位(至24.9),高頻紋理細節明顯變差。通道數加倍則僅帶來微小的質量提升(PSNR 26.1),但幀率降至32.6,說明基礎配置已經是效率與質量的較優平衡點。

金字塔層級從7層減少到3層時,PSNR急劇下降至22.8,LPIPS升至0.112,這是因為淺金字塔迫使系統在較粗的層級就覆蓋很大的深度搜索范圍,導致深度估算不穩定。6層金字塔(PSNR 25.8)已經接近7層的性能,說明最后一層的邊際貢獻相對較小。

去掉殘差深度更新機制后,PSNR跌至21.5,是所有消融配置中降幅最大的,定性觀察到明顯的"閃爍"(shimmering)偽影,訓練過程也變得不穩定。這說明殘差式逐層修正是整個系統穩定運行的核心支柱。去掉融合模塊的殘差連接(投影器加法),PSNR從25.9降至25.2,影響相對溫和但可見。去掉來自融合層的先驗引導后,PSNR降至23.8,幀率因減少了特征傳遞而微升至46.7幀每秒,但質量代價較高。

這套消融結果清晰地勾勒出3DTV設計的"價值地圖":殘差深度是最不可缺少的,三視角輸入次之,金字塔深度是第三,其余組件則在質量和速度之間提供了可調節的余量。

十一、局限性與尚未解決的問題

研究團隊對這套系統的邊界條件做了坦誠的分析。

在幀率方面,TensorRT優化后的40幀每秒對于視頻流媒體足夠,但要達到游戲級的60幀每秒或更高,還需要進一步的量化壓縮(如INT8精度)或架構層面的精簡。

在場景適用范圍上,3DTV目前的訓練數據局限于室內有界場景,深度范圍約在0.5米到8.5米之間。對于開放戶外環境或大尺度場景(如LLFF數據集中的自然景觀),深度范圍遠超訓練分布,系統只能捕捉粗略的幾何結構,無法還原高頻細節。

在視角外推上,系統的設計邏輯是在三臺源攝像機形成的三角形內部進行"插值"——目標視角總是被三臺源攝像機從三個方向包圍。一旦目標視角落在這個三角形外部(外推場景),系統的穩定性和質量會顯著下降,這是未來需要解決的方向。

在遮擋復雜場景中,當多個人物前后疊加時,深度估算容易混淆,導致前景人物和背景人物的特征互相"滲透",產生模糊的"溶合"現象。研究團隊展示了一個典型的失敗案例,即兩人前后站立時,后方人物的細節被洗掉。針對這類問題,增加特征圖密度或引入時序特征傳播(利用視頻前后幀信息)是潛在的改進方向。

歸根結底,3DTV做的事情可以這樣概括:用三臺攝像機、一個輕量網絡、不到25毫秒,生成你想看的任何角度的畫面。它把幾何學的經典工具(三角剖分)和現代深度學習(多尺度深度估算、幽靈網絡)拼在一起,找到了一條在實時約束下穩定運行的路。訓練完全在合成數據上進行,卻能在真實的人體捕獲數據集上取得與專門針對人體設計的方法相當甚至更好的結果,這說明它學到的是真正通用的幾何投影規律,而不是對特定數據集的記憶。

對于普通觀眾來說,這項研究意味著未來的體育賽事、演唱會、電競直播或遠程會議,有望以極低的帶寬和設備成本實現真正的自由視角體驗,而不再依賴龐大的攝像機陣列或漫長的后期處理。對于研究者和工程師來說,它提供了一套從幾何選點、特征提取、深度估算到圖像合成的完整流水線,每個模塊都有清晰的設計邏輯和量化的消融結論,是一份難得的工程參考。

完整論文可通過arXiv編號arXiv:2604.11211查閱,研究團隊承諾在論文錄用后公開全部代碼和訓練模型。

Q&A

Q1:3DTV系統只用三臺攝像機為什么就夠了?

A:3DTV通過德勞內三角剖分從現有多臺攝像機中挑選出最優的三臺,確保目標視角被這三臺攝像機從三個方向均勻包圍。實驗結果顯示,與兩臺相比,第三臺攝像機提供的額外視角能顯著減少深度估算的歧義,PSNR指標提升約2個單位。三臺是在攝像機數量、計算成本和合成質量之間的最優平衡點。

Q2:3DTV的訓練數據全是合成的,在真實視頻上效果會差嗎?

A:研究團隊通過系統的數據增強來彌補合成與真實之間的差異,包括模擬色彩偏差、背景噪聲、鏡頭模糊和壓縮偽影等真實采集中的常見問題。在多個真實人體捕獲數據集(MVHumanNet、ZJUMoCap、THuman2.1)上的測試結果顯示,3DTV的性能與專門在真實數據上訓練的方法相當甚至更好,說明模型學到的幾何規律具有較好的遷移能力。

Q3:3DTV對室外大場景或開放環境適用嗎?

A:目前不適用。3DTV的訓練數據深度范圍約在0.5米到8.5米之間,適合室內有界場景。在LLFF戶外自然景觀數據集上的測試中,系統只能捕捉粗略幾何,PSNR僅為10.3,遠低于室內場景的表現。研究團隊將擴展到大尺度場景列為未來工作方向之一。

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
重磅警告!埃爾多安再不收手,土耳其或遭以色列突襲,下場會更慘

重磅警告!埃爾多安再不收手,土耳其或遭以色列突襲,下場會更慘

民間胡扯老哥
2026-04-25 13:22:07
麻六記進軍日本市場 首店落戶東京新宿

麻六記進軍日本市場 首店落戶東京新宿

東京在線
2026-04-25 20:24:42
事態升級,中方開打第二波反擊,高市或突然辭職,石破茂已扛旗

事態升級,中方開打第二波反擊,高市或突然辭職,石破茂已扛旗

易昂楊
2026-04-25 09:43:06
張凌赫被喊話赴臺,本人發聲

張凌赫被喊話赴臺,本人發聲

新民周刊
2026-04-25 18:57:43
一天4大瓜!出軌、插足、塌房,陳曉反擊陳妍希,一個比一個離譜

一天4大瓜!出軌、插足、塌房,陳曉反擊陳妍希,一個比一個離譜

好賢觀史記
2026-04-24 11:18:26
創紀錄!伊朗斷網54天:拔掉8500萬人網線,是在防誰?

創紀錄!伊朗斷網54天:拔掉8500萬人網線,是在防誰?

花顏蘊韻
2026-04-24 12:35:40
1979年打越南,高層其實吵翻了天?葉劍英粟裕為何反對出兵?

1979年打越南,高層其實吵翻了天?葉劍英粟裕為何反對出兵?

鶴羽說個事
2026-04-22 22:36:00
快訊!美國傳來新消息!

快訊!美國傳來新消息!

達文西看世界
2026-04-25 13:38:56
連院子里的樹都被貼了封條,山東臨沂納稅狀元變“黑老大”

連院子里的樹都被貼了封條,山東臨沂納稅狀元變“黑老大”

有戲
2026-04-16 18:23:20
4-0 4-2中超悲喜夜!蓉城海港大勝,津門虎力克國安,積分榜更新

4-0 4-2中超悲喜夜!蓉城海港大勝,津門虎力克國安,積分榜更新

阿晞體育
2026-04-25 22:35:27
火箭0-3觸發百分百出局定律:本季加時賽9戰8敗 三少83分仍輸球

火箭0-3觸發百分百出局定律:本季加時賽9戰8敗 三少83分仍輸球

醉臥浮生
2026-04-25 11:04:57
河北偷狗女子社會性死亡:人被拘了,名聲臭了,更惡心的還在后面

河北偷狗女子社會性死亡:人被拘了,名聲臭了,更惡心的還在后面

社會日日鮮
2026-04-25 19:02:51
妻子升副局長跟我離婚,半年后我去開會,見她在門口等我2小時

妻子升副局長跟我離婚,半年后我去開會,見她在門口等我2小時

千秋文化
2026-03-25 21:49:57
張天愛太大膽了穿這么敢去沙灘玩

張天愛太大膽了穿這么敢去沙灘玩

阿廢冷眼觀察所
2026-04-14 12:42:56
全線跳水,近10萬人爆倉!

全線跳水,近10萬人爆倉!

每日經濟新聞
2026-04-25 21:57:11
深圳女子公交站臺勸滅煙時起沖突,當事人:涉事男子已道歉,事發地點是禁煙場所

深圳女子公交站臺勸滅煙時起沖突,當事人:涉事男子已道歉,事發地點是禁煙場所

封面新聞
2026-04-25 18:52:13
爺爺是萬里,前男友是李云迪,赴美卻只能擠地下室,名媛萬寶寶的人生究竟有多生猛?

爺爺是萬里,前男友是李云迪,赴美卻只能擠地下室,名媛萬寶寶的人生究竟有多生猛?

史海孤雁
2026-04-24 22:24:12
1999年,69歲禹作敏獄中難耐孤寂,死前曾向李瑞環提出:我想回家

1999年,69歲禹作敏獄中難耐孤寂,死前曾向李瑞環提出:我想回家

華人星光
2026-04-20 09:59:15
瞞不住!大S死因曝光,赴日行程是妹妹發起,老公約妹后小S坦白了

瞞不住!大S死因曝光,赴日行程是妹妹發起,老公約妹后小S坦白了

娛樂團長
2026-04-22 21:15:30
中國減持美債加速,美聯儲拋售3000億,中國接盤引質疑

中國減持美債加速,美聯儲拋售3000億,中國接盤引質疑

舊窗老街
2026-04-25 22:15:45
2026-04-25 22:56:49
科技行者 incentive-icons
科技行者
科技正在如何變革商業世界
8130文章數 563關注度
往期回顧 全部

科技要聞

DeepSeek V4發布!黃仁勛預言的"災難"降臨

頭條要聞

臺媒:毛里求斯表態戳破臺當局謊言

頭條要聞

臺媒:毛里求斯表態戳破臺當局謊言

體育要聞

那一刻開始,兩支球隊的命運悄然改變了

娛樂要聞

《我們的爸爸2》第一季完美爸爸翻車了

財經要聞

90%訂單消失,中東旺季沒了

汽車要聞

2026款樂道L90亮相北京車展 樂道L80正式官宣

態度原創

旅游
教育
數碼
親子
時尚

旅游要聞

珠海夢幻水城今日開園,五一“濕身”派對提前鎖定

教育要聞

吳欣歆:整本書閱讀的五種基本策略

數碼要聞

支持三臺4K屏!這款多接口擴展塢上線眾籌

親子要聞

媽媽曝瑤一瑤有多動癥!5歲女兒坐不住愛亂摸,做挑釁表情不禮貌

這些穿搭適合春天!外套彩色內搭白色、褲子穿基礎款,舒適大方

無障礙瀏覽 進入關懷版