亚洲中文字幕乱码亚洲-蜜桃成熟视频在线观看-免费中文字幕视频在线-中国五十路熟妇洗澡视频-亚洲av伊人啪啪c-国产精品成人一区二区-国产自拍视频一区在线观看-成人一区不卡二区三区四区-亚洲情精品中文字幕99在线

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

【技術(shù)】基于深度學(xué)習(xí)的遙感影像建筑物變化檢測方法

0
分享至

摘要:

在遙感影像建筑物變化檢測研究中,非相關(guān)目標干擾和雙時相特征交互不足等問題長期制約著檢測精度的提升。為解決該技術(shù)難題,本文提出了一種基于深度學(xué)習(xí)的遙感影像建筑物變化檢測方法。該方法的核心在于多尺度特征融合機制的構(gòu)建,其結(jié)構(gòu)由3 個關(guān)鍵部分組成:用于多層次特征獲取的特征提取模塊、負責(zé)特征差異分析的計算模塊以及執(zhí)行特征重建的上采樣模塊。首先,設(shè)計了一種兼顧計算效率和模型簡潔度的特征提取方案,在保持特征表征能力的同時優(yōu)化了計算資源的使用;其次,將時間維度特征交互與空間維度特征聚合相結(jié)合,形成時空特征協(xié)同機制,不僅降低了非相關(guān)目標的影響,還促進了雙時相特征的深度整合;最后,設(shè)計一種漸進式多尺度差異特征掩膜上采樣技術(shù),提升變化區(qū)域的重建質(zhì)量。為評估方法的性能,研究選取了大規(guī)模地球視覺圖像變化識別建筑物變化檢測數(shù)據(jù)集(LEVIR-CD)和武漢大學(xué)變化檢測數(shù)據(jù)集(WHU-CD)兩個公開基準數(shù)據(jù)集進行驗證。結(jié)果表明,所提出的方法在LEVIR-CD 數(shù)據(jù)集的F1值達到了92.15%,在WHU-CD 數(shù)據(jù)集上達到了90.47%,均優(yōu)于現(xiàn)有主流方法,有力證實了該方法的價值和實際應(yīng)用前景。

關(guān)鍵詞:遙感影像;建筑物變化檢測;多尺度特征融合;差異特征掩膜

引言

在城鄉(xiāng)空間構(gòu)成中,建筑物扮演著不可或缺的角色,是人類生活環(huán)境中的核心要素。為了有效監(jiān)測建筑物的動態(tài)變化,對其進行變化檢測是重要手段之一。隨著遙感技術(shù)的發(fā)展,影像數(shù)據(jù)在空間分辨率、光譜特征和時間維度等方面取得了顯著進步,為地表覆蓋變化的精確監(jiān)測奠定了堅實基礎(chǔ)[1-2]。從技術(shù)發(fā)展的脈絡(luò)來看,傳統(tǒng)變化檢測方法包括基于像素和對象的分析方法[3-4]。前者雖然具有算法實現(xiàn)簡便的優(yōu)勢,但其逐像素運算模式不僅計算效率低下,而且檢測結(jié)果中常出現(xiàn)離散噪聲點,制約了識別準確度的提高。相較而言,后者以影像分割后的對象為基本處理單元,能夠充分挖掘影像的上下文信息,有效降低了由單一像素光譜變異導(dǎo)致的誤判風(fēng)險。但這種方法的檢測效果與圖像分割質(zhì)量密切相關(guān),當面對建筑物等具有復(fù)雜結(jié)構(gòu)的場景時,其應(yīng)用性能往往會受到一定制約。

隨著人工智能技術(shù)的發(fā)展,深度學(xué)習(xí)在自動化數(shù)據(jù)處理領(lǐng)域取得了突破性進展,特別是在降低人工標注成本和提升學(xué)習(xí)效率方面表現(xiàn)出色[5-6]。在遙感變化檢測領(lǐng)域,文獻[7]提出了一種網(wǎng)絡(luò)架構(gòu),該架構(gòu)充分利用了時序影像間的關(guān)聯(lián)特性,設(shè)計出具有權(quán)重共享機制的雙分支網(wǎng)絡(luò)模型。這種基于卷積神經(jīng)網(wǎng)絡(luò)的設(shè)計不僅確保了特征提取的有效性,還通過參數(shù)共享機制顯著降低了計算復(fù)雜度,從而提高了模型訓(xùn)練效率。針對遙感影像中復(fù)雜背景等難題,文獻[8]提出一種基于變換器(Transformer)技術(shù)的解決方法,該方法通過對時間序列影像執(zhí)行語義分割操作,旨在生成差異特征圖;文獻[9]將視覺幾何群16 層網(wǎng)絡(luò)(visual geometry group 16,VGG16)深度網(wǎng)絡(luò)組件整合進處理流程,顯著提升了時序影像在細節(jié)特征提取中的能力。當前,在變化檢測研究領(lǐng)域,研究者正面臨若干亟待解決的關(guān)鍵問題,主要包括雙時態(tài)特征提取過程復(fù)雜、特征交互受限以及非目標對象干擾等。為應(yīng)對這些挑戰(zhàn),本文設(shè)計了一種基于類U型網(wǎng)絡(luò)(U shape network,U-Net)框架的多尺度特征融合方法,重點解決建筑物變化檢測問題,并為檢測流程的各個環(huán)節(jié)提供解決方法。在特征提取環(huán)節(jié),采用經(jīng)過預(yù)訓(xùn)練的移動翻轉(zhuǎn)瓶頸卷積(mobile inverted bottleneck convolution,MBConv)模塊作為基礎(chǔ)單元,該設(shè)計顯著提升了特征提取效能并降低了計算成本。在差異特征提取方面,結(jié)合了分組卷積(group convolution,GConv)和通道混洗(channel shuffle,CS),通過時間注意力機制的引入,有效增強了真實差異特征的識別精度。為了更有效地削弱非目標元素的干擾,通過引入十字交叉注意力機制(criss-cross attention,CCA),從而保證了全局上下文信息的緊密連接。在特征提升階段,通過構(gòu)建特征掩碼并與原始輸入特征進行逐級融合,最終借助解碼器完成分類,并輸出檢測結(jié)果[10]。為驗證所提模型及各模塊的有效性,本文設(shè)計并實施對比實驗和消融實驗,同時結(jié)合模型可視化技術(shù)進行了深入分析與討論。

模型結(jié)構(gòu)與方法

01

基準模型


孿生式U 形網(wǎng)絡(luò)(SiamUnet)特征在于采用雙分支編碼器-解碼器結(jié)構(gòu),并實現(xiàn)了對稱參數(shù)共享機制[11]。首先,利用特征提取模塊提取初步特征;其次,通過下采樣模塊,特征逐漸由局部細節(jié)擴展至全局結(jié)構(gòu),實現(xiàn)了特征維度的提升;再次,這些分階段獲取的雙時態(tài)特征被傳遞至解碼器,以精確區(qū)分兩者間的微小差異;最后,利用上采樣模塊將差異信息從微觀層面整合至宏觀層面,得到最終的變化檢測結(jié)果[12-13]。

02

本文方法


本文提出的變化檢測算法包含了差異特征提取、模型訓(xùn)練及結(jié)果評價,技術(shù)路線如圖1所示。


圖1 本文技術(shù)路線

SiamUnet 在編碼階段對復(fù)雜語義分割模型的過度應(yīng)用,造成計算資源浪費,同時在解碼階段引入復(fù)雜差異特征提取模塊,導(dǎo)致模型結(jié)構(gòu)復(fù)雜化[14]。因此,本文對SiamUnet 架構(gòu)進行重構(gòu),將其劃分為雙時態(tài)特征提取、差異特征分析及解碼器三大核心模塊。

圖2 直觀地展示了該網(wǎng)絡(luò)的運行步驟,首要操作是利用移動翻轉(zhuǎn)瓶頸卷積技術(shù),從雙時態(tài)影像數(shù)據(jù)中提取多尺度特征信息。為了增強差異特征的辨識力,專門設(shè)計一個模塊來加深雙時態(tài)特征間的關(guān)聯(lián)性,并融合了空間特征聚合(spatial fusion,SF)模塊,以提升目標識別的精確度。在上采樣階段,根據(jù)最高維度特征,逐步融合各階段的差異特征,實現(xiàn)了從全局到局部的多層次差異特征提取。


圖2 本文模型網(wǎng)絡(luò)結(jié)構(gòu)

2.1 特征提取模塊

在深度學(xué)習(xí)領(lǐng)域,VGG16 和Transformer 等預(yù)訓(xùn)練模型因其出色的特征提取能力而得到廣泛應(yīng)用。這類模型通常采用增加網(wǎng)絡(luò)層級和擴展通道數(shù)量的方式提升性能表現(xiàn)[15]。然而,研究揭示了網(wǎng)絡(luò)架構(gòu)設(shè)計中的一個關(guān)鍵現(xiàn)象:當網(wǎng)絡(luò)在深度或?qū)挾热我痪S度持續(xù)擴展時,其性能增益呈現(xiàn)邊際遞減效應(yīng),因此提出高效網(wǎng)絡(luò)(EfficientNet)結(jié)構(gòu),該架構(gòu)在模型復(fù)雜度與性能表現(xiàn)之間實現(xiàn)了優(yōu)化平衡。

2.2 差異特征生成模塊

本文構(gòu)建的差異特征生成模塊包含3個關(guān)鍵環(huán)節(jié)。

1)雙時態(tài)語義差異引導(dǎo)??紤]變化檢測任務(wù)與圖像語義分割任務(wù)的差異,特別關(guān)注從不同時相影像中有效抽取差異目標的語義信息。為此,設(shè)計一種基于自注意力機制的雙時態(tài)關(guān)聯(lián)模塊,該模塊能夠顯著提高雙時態(tài)影像在語義差異層面的交互能力,確保時間維度上的差異信息能夠準確傳遞。

在特征提取階段,首先從原始數(shù)據(jù)中獲取兩個時態(tài)特征和,并將其整合至輸入特征值V中。為構(gòu)建關(guān)鍵特征表示,采用平均池化方法對和進行融合處理,所得結(jié)果與權(quán)重矩陣Wk進行矩陣運算,從而生成關(guān)鍵字K,同時,分別對和實施平均池化操作。其次通過權(quán)重矩陣和的線性變換,得到對應(yīng)的查詢向量Q1和Q2。為了提升特征的表達能力,引入基于多層感知器(multilayer perceptron,MLP)的自注意力機制評估通道間的相關(guān)性,并將這些相關(guān)性權(quán)重與輸入特征的對應(yīng)通道進行逐通道乘法運算。最后獲得優(yōu)化后的雙時態(tài)特征和,計算公式為


式中,C1、C2均為通道權(quán)重向量。

2)雙時態(tài)特征融合。針對雙時態(tài)特征在差異提取前的相互獨立難題,本文提出了一種雙時態(tài)特征融合模塊,其核心在于實現(xiàn)特征的高效與精確整合,從而提升差異信息的提取能力。此模塊融合了改良的分組卷積和混洗模塊,盡管分組卷積通過分割通道提升了計算速度,但也可能導(dǎo)致特征間聯(lián)系減弱。為解決這一問題,引入通道混洗策略,它在減少模型參數(shù)和計算量的同時,確保了特征的高質(zhì)量表達。在實際操作中,首先根據(jù)時態(tài)信息對通道執(zhí)行分組卷積,然后通過通道混洗對特征進行重組,以獲得融合的特征。這兩種卷積操作的計算公式為


式中,flops1 為分組卷積操作1;flops2 為分組卷積操作2;H1、W1分別為高度、寬度;C1為分組卷積操作1 通道數(shù);C2為分組卷積操作2 通道數(shù);k 為卷積核大小。通過對式(1)、式(2)對比分析可以發(fā)現(xiàn),在相同輸入輸出條件下,傳統(tǒng)卷積的計算量是分組卷積的兩倍。本模塊采用3層級聯(lián)的分組卷積結(jié)構(gòu),并通過通道混洗實現(xiàn)特征連接,從而實現(xiàn)了特征的高效融合。

3)空間特征聚合。針對雙時態(tài)特征中存在的冗余信息問題,建立高效的空間特征交互機制對提高目標檢測精度尤為重要[16]。本文設(shè)計一種基于十字交叉注意力機制的特征融合方法,該機制依據(jù)距離度量準則,在水平和垂直方向構(gòu)建十字形信息通道,實現(xiàn)了特征的高效整合??臻g特征聚合模塊由雙層十字交叉注意力結(jié)構(gòu)組成。與傳統(tǒng)方法需要逐像素建立全局關(guān)聯(lián)不同,本方法僅通過兩次十字交叉操作即可為每個像素構(gòu)建完整的空間關(guān)聯(lián)網(wǎng)絡(luò),在保證計算效率的同時顯著提升了特征融合效果。

2.3 上采樣模塊

在模型設(shè)計上,本文設(shè)計一個輕量級上采樣模塊,該模塊接收特征數(shù)據(jù)后,首先,利用3×3 卷積將特征圖尺寸擴大一倍,并進行批量歸一化處理;其次,通過1×1 卷積的逐點操作,將通道數(shù)減半,對處理后的特征與差異特征掩碼進行逐點相乘操作;最后,上采樣后的特征被遞送給分類器,以產(chǎn)生最終的檢測結(jié)果。該設(shè)計在維持檢測性能的同時,顯著降低了參數(shù)數(shù)量和計算負荷。

實驗與設(shè)計

01

實驗數(shù)據(jù)及預(yù)處理


本研究選取LEVIR-CD 和WHU-CD 兩個公開數(shù)據(jù)集進行驗證,以評估所提方法在建筑物變化檢測中的性能,其中,LEVIR-CD 數(shù)據(jù)集包含637 組RGB 影像,空間分辨率為0.5 m,單幅影像尺寸為1 024×1 024像素。考慮計算效率,將原始影像裁剪為16 個256×256 像素的子圖像。按照標準實驗設(shè)置,將7 120 對子圖像(占總樣本70%)用于訓(xùn)練,1 024對(10%)用于驗證,2 048對(20%)用于測試。

WHU-CD數(shù)據(jù)集包含一對高分辨率多光譜影像,涵蓋紅、綠、藍三個波段,空間分辨率為0.2 m,影像尺寸為32 507×15 354 像素。原始影像被裁剪為512×512像素的子圖像,共包含1 260對訓(xùn)練樣本和690 對測試樣本。此外,每幅512×512 像素圖像被進一步劃分為4 個無重疊的256×256 像素子區(qū)域。同時,隨機從訓(xùn)練集中抽取了10%的樣本構(gòu)建驗證集。經(jīng)過上述處理,最終得到了一個包含4 536對訓(xùn)練樣本、504對驗證樣本和2 760對測試樣本的數(shù)據(jù)集。

02

實驗參數(shù)


實驗均在PyTorch 框架下完成,具體實驗參數(shù)如表1所示。

表1 參數(shù)設(shè)置


在優(yōu)化模型的過程中,本研究選用交叉熵損失函數(shù)(cross entropy,CE)作為評估指標,表示為[17]


式中,L()為交叉熵損失函數(shù);G為實際變化區(qū)域;為模型預(yù)測區(qū)域;Gi為實際變化結(jié)果;?為預(yù)測變化結(jié)果;N為預(yù)測像元數(shù)量。

03

評價指標


為全面評估模型性能,本文采用4 項核心指標:精確度P、召回率R、F1值和交并比(intersection over union,IoU)UIo。分別表示為[18]


式中,TP、FP分別為正確劃分、錯誤劃分的變化像素數(shù)量;FN為錯誤劃分的未變化像素數(shù)量。

04

對比模型


為評估模型性能,本研究選取了4 種網(wǎng)絡(luò)模型進行對比分析[19-20]。

1)全卷積早期融合(fully convolutional early fusion,F(xiàn)C-EF)模型。該模型采用早期融合策略,將雙時相影像融合后輸入U-Net 的編碼器-解碼器結(jié)構(gòu)進行處理。

2)時空注意力神經(jīng)網(wǎng)絡(luò)(spatial-temporal attention neural network,STANet)模型。該模型結(jié)合度量學(xué)習(xí),利用孿生全卷積網(wǎng)絡(luò)優(yōu)化特征提取。

3)智能融合網(wǎng)絡(luò)(intelligent fusion network,IFN)模型。該模型整合多源遙感影像信息,增強圖像分析的準確性和細節(jié)表現(xiàn)。

4)大遷移(big transfer,BiT)模型。該模型通過深度監(jiān)督機制有效提升變化檢測的精度和魯棒性。

結(jié)果分析

01

定量分析


根據(jù)表2 和表3 的量化結(jié)果,本文提出的方法在LEVIR-CD 數(shù)據(jù)集上展現(xiàn)了出色的性能,F(xiàn)1值和IoU 指標分別達到了91.15%和83.66%。與FC-EF、STANet、IFN 和BiT 模型進行對比分析,F(xiàn)1值分別取得了7.64%、3.78%、1.51%和0.89%的提升。在WHU-CD 數(shù)據(jù)集上,其F1值和IoU 分別達到了89.47%和81.88%,優(yōu)于對比模型。實驗結(jié)果表明,本文方法在2 個數(shù)據(jù)集上均取得了最優(yōu)性能。IFN 模型雖具有較高的精確度,但其召回率偏低;STANet 模型的召回率雖略高,但精確度不足。相比之下,本文方法在精確度和召回率之間實現(xiàn)了更好的平衡,獲得了最高的F1值。在對比模型中,基于Transformer 的BiT 模型表現(xiàn)較好,而FC-EF模型的整體性能相對較弱。

表2 LEVIR-CD數(shù)據(jù)集檢測精度


表3 WHU-CD數(shù)據(jù)集檢測精度


02

定性分析


圖3 為LEVIR-CD 數(shù)集的檢測結(jié)果,圖4 為WHU-CD 數(shù)據(jù)集的檢測結(jié)果。分析圖3 和圖4 發(fā)現(xiàn):在建筑物變化檢測任務(wù)中,本文提出方法表現(xiàn)出色,檢測結(jié)果與真實情況高度一致,能夠精確繪制建筑物邊界,顯著降低誤檢和漏檢率。


圖3 LEVIR-CD數(shù)據(jù)集檢測結(jié)果


圖4 WHU-CD數(shù)據(jù)集檢測結(jié)果

FC-EF 模型檢測性能存在顯著不足,易受偽變化因素的干擾,頻繁引發(fā)誤報和漏報。STANet和IFN 模型由于視野范圍的限制,難以精確識別建筑物的細微變化特征。盡管BiT 模型在檢測性能方面與本文方法相當,但其上采樣過程中的特征圖尺寸縮減導(dǎo)致了中低層細節(jié)信息的丟失。綜上所述,本文提出的方法能夠準確預(yù)測建筑物在不同尺寸的變化,成功解決了大尺寸建筑物檢測中的碎片化與不完整性挑戰(zhàn)。在檢測精確度和輪廓細節(jié)的表達上,本文方法相較于其他對比方法表現(xiàn)出明顯的優(yōu)越性。

03

消融實驗


為系統(tǒng)評估特征提取模塊、差異特征生成模塊、上采樣模塊對網(wǎng)絡(luò)性能的影響機制,基于LEVIR-CD 數(shù)據(jù)集,設(shè)計5 組對照實驗,實驗設(shè)計中,“×”標記表示禁用相應(yīng)模塊,“√”標記則表示啟用該模塊。同時,為建立可靠的性能參照系,本文構(gòu)建了一個未包含上述3 個模塊的基礎(chǔ)網(wǎng)絡(luò)(SiamUnet),實驗結(jié)果如表4 所示。

表4 消融實驗定量結(jié)果


實驗數(shù)據(jù)表明,特征提取模塊、差異特征生成模塊、上采樣模塊的引入均顯著提升了SiamUnet 的性能。當任意模塊被移除時,模型的檢測精度均出現(xiàn)不同程度的下降。需要注意的是,由于SiamUnet未包含上述3個模塊,其精度指標明顯低于其他實驗組,該結(jié)果有力證實了這些模塊對模型性能提升的重要貢獻。

深入分析消融實驗結(jié)果發(fā)現(xiàn),差異特征生成模塊的缺失對模型性能影響最為顯著,導(dǎo)致F1值和IoU 值分別下降1.19%和1.98%。這一現(xiàn)象凸顯了差異特征生成模塊在模型中的核心作用,其通過促進雙時態(tài)影像間真實差異部分的提取,顯著提升了不同尺度建筑物的變化檢測精度。特征提取模塊的移除則使F1值和IoU 值分別降低1.14%和1.90%,其影響程度僅次于差異特征生成模塊,表明特征提取模塊通過預(yù)訓(xùn)練的移動翻轉(zhuǎn)瓶頸卷積模塊,對變化檢測效果的優(yōu)化具有重要作用。上采樣模塊的移除導(dǎo)致F1值和IoU值分別下降0.46%和0.76%,雖然影響相對較小,但仍證實了該模塊在提升特征提取效果的價值。實驗結(jié)果表明,3 個模塊在提升建筑物變化檢測性能方面均發(fā)揮著重要作用,為后續(xù)網(wǎng)絡(luò)優(yōu)化提供了重要的理論依據(jù)和實踐指導(dǎo)。

結(jié)束語

針對深度學(xué)習(xí)在遙感影像建筑物變化檢測任務(wù)中存在的復(fù)雜難題,本文提出一種變化檢測模型。為驗證模型性能,研究選取了兩個公開的遙感數(shù)據(jù)集進行系統(tǒng)性實驗評估。實驗結(jié)果表明,相較于現(xiàn)有模型,本文方法在建筑物變化區(qū)域的識別精度和定位準確性方面均取得了顯著突破,尤其在應(yīng)對復(fù)雜多變的實際場景以及處理多尺度建筑物變化檢測任務(wù)時表現(xiàn)出優(yōu)異的性能。通過消融實驗的定量分析,進一步驗證了模型各功能模塊的有效性?;诋斍把芯砍晒罄m(xù)研究將著重探索更優(yōu)化的模型結(jié)構(gòu)設(shè)計,以持續(xù)提升模型的實際應(yīng)用價值和技術(shù)潛力。

來源:北京測繪雜志社

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點推薦
法國全票通過“文物歸還法案” 接下來呢?

法國全票通過“文物歸還法案” 接下來呢?

看看新聞Knews
2026-04-15 22:44:05
快船被淘汰誰最開心?保羅第一時間更新社媒:曬知名梗圖嘲諷舊主

快船被淘汰誰最開心?保羅第一時間更新社媒:曬知名梗圖嘲諷舊主

羅說NBA
2026-04-16 13:40:47
搶劫殺害網(wǎng)紅“羅大美”主犯余金生被執(zhí)行死刑

搶劫殺害網(wǎng)紅“羅大美”主犯余金生被執(zhí)行死刑

新京報
2026-04-16 14:19:06
烏克蘭4年獲捐35.8億美元,都花在了哪里?

烏克蘭4年獲捐35.8億美元,都花在了哪里?

網(wǎng)易新聞出品
2026-04-16 15:44:52
再獲天量援助,烏克蘭穩(wěn)了

再獲天量援助,烏克蘭穩(wěn)了

名人茍或
2026-04-16 14:47:07
善惡有報,許家印認罪僅1天,子女近況被扒,原來大兒子早有布局

善惡有報,許家印認罪僅1天,子女近況被扒,原來大兒子早有布局

八斗小先生
2026-04-15 17:47:57
“見過最廉價的兜底”,一份山姆燒雞,讓低認知母子淪為全網(wǎng)笑柄

“見過最廉價的兜底”,一份山姆燒雞,讓低認知母子淪為全網(wǎng)笑柄

妍妍教育日記
2026-04-15 09:30:09
順峰餐廳北京門店全部關(guān)閉:司法糾紛不斷,消費者上萬儲值打水漂?

順峰餐廳北京門店全部關(guān)閉:司法糾紛不斷,消費者上萬儲值打水漂?

北京商報
2026-04-15 20:03:10
美民主黨對防長赫格塞思發(fā)起彈劾

美民主黨對防長赫格塞思發(fā)起彈劾

界面新聞
2026-04-16 07:08:40
秘魯發(fā)生6.0級地震

秘魯發(fā)生6.0級地震

大象新聞
2026-04-01 20:05:03
炸穿臺灣政壇!蔣友松強行遷走兩蔣懸棺,半世紀漂泊終要歸鄉(xiāng)

炸穿臺灣政壇!蔣友松強行遷走兩蔣懸棺,半世紀漂泊終要歸鄉(xiāng)

陳漎侃故事
2026-04-14 17:28:18
第6艘船出事,美軍艦攔截成功,難題已拋給中國,俄政府準備救場

第6艘船出事,美軍艦攔截成功,難題已拋給中國,俄政府準備救場

共工之錨
2026-04-16 13:45:22
“牢A”身份曝光:遭遇教培斬殺線、00后人設(shè)造假?

“牢A”身份曝光:遭遇教培斬殺線、00后人設(shè)造假?

虔青
2026-04-16 11:04:43
國家網(wǎng)信辦持續(xù)整治網(wǎng)上金融信息亂象

國家網(wǎng)信辦持續(xù)整治網(wǎng)上金融信息亂象

界面新聞
2026-04-16 17:03:01
采訪了100個娶了小三的男人,他們幾乎都說了同一句話,讓人恍然

采訪了100個娶了小三的男人,他們幾乎都說了同一句話,讓人恍然

千秋文化
2026-04-15 20:18:32
71.5%!歷史性暴跌,以貸養(yǎng)貸的泡沫崩了

71.5%!歷史性暴跌,以貸養(yǎng)貸的泡沫崩了

月滿大江流
2026-04-16 13:54:38
“高三學(xué)生學(xué)習(xí)困難測出智障”當事人回應(yīng):智力測試69分不是最終診斷,我被ADHD困擾、正在努力調(diào)整,不要用“智障”標簽定義我

“高三學(xué)生學(xué)習(xí)困難測出智障”當事人回應(yīng):智力測試69分不是最終診斷,我被ADHD困擾、正在努力調(diào)整,不要用“智障”標簽定義我

大風(fēng)新聞
2026-04-16 16:28:09
鄭麗文這回麻煩大了!

鄭麗文這回麻煩大了!

小熊看國際
2026-04-16 11:11:58
稱“新冠病毒是對人類懲罰”的石正麗,一直在國內(nèi),現(xiàn)在怎么樣了

稱“新冠病毒是對人類懲罰”的石正麗,一直在國內(nèi),現(xiàn)在怎么樣了

李昕言溫度空間
2026-04-15 22:24:50
牛肉頂多注個水豬肉頂多催個肥,唯有三文魚全程cosplay

牛肉頂多注個水豬肉頂多催個肥,唯有三文魚全程cosplay

富貴說
2026-04-14 23:15:09
2026-04-16 17:16:49
測繪之家 incentive-icons
測繪之家
有測繪的地方,就有測繪之家!
6760文章數(shù) 3571關(guān)注度
往期回顧 全部

科技要聞

趙明:智駕之戰(zhàn),看誰在大模型上少犯錯

頭條要聞

高三學(xué)生學(xué)習(xí)困難在醫(yī)院測出自己是智障 當事人發(fā)聲

頭條要聞

高三學(xué)生學(xué)習(xí)困難在醫(yī)院測出自己是智障 當事人發(fā)聲

體育要聞

很快,亞洲籃球要有自己的NCAA了?

娛樂要聞

絲芭傳媒創(chuàng)始人王子杰去世,享年63歲

財經(jīng)要聞

一季度GDP,5.0%!

汽車要聞

空間大五個乘客都滿意?體驗嵐圖泰山X8

態(tài)度原創(chuàng)

數(shù)碼
時尚
本地
健康
軍事航空

數(shù)碼要聞

榮耀MagicBook 14/16 2026款筆記本發(fā)布,國補價5949.15元起

上新|| 這條漂亮小裙子,好穿到不想脫

本地新聞

12噸巧克力有難,全網(wǎng)化身超級偵探添亂

干細胞抗衰4大誤區(qū),90%的人都中招

軍事要聞

封鎖霍爾木茲海峽后 美釋放雙重信號

無障礙瀏覽 進入關(guān)懷版