<tt id="vwe5b"></tt>
      1. <tfoot id="vwe5b"><progress id="vwe5b"></progress></tfoot><abbr id="vwe5b"></abbr>

      2. 91人人妻,99偷拍,碰碰免费视频,亚洲中文字幕AV,丝袜a片,91纯肉动漫,中文无码日,伊人福利导航

        基于深度學習和影像組學的多任務框架在孕早期超聲中對胎兒解剖結構的檢測與分類

        《Scientific Reports》:A multi-task deep learning and radiomics framework for fetal anatomical structure detection and classification in ultrasound imaging

        【字體: 時間:2026年03月03日 來源:Scientific Reports 3.9

        編輯推薦:

          本研究致力于解決孕早期超聲篩查中胎兒解剖結構評估主觀、耗時的難題。研究人員開發(fā)了一個整合YOLOv11/Swin Transformer定位模型與TabTransformer分類器的多任務管道,利用來自9個中心的4532例超聲掃描,融合影像組學特征與深度特征。結果顯示,該框架在外部測試集上達到了96.1%的分類準確率和96.89%的AUC,其高重復性和泛化能力為胎兒異常的早期、客觀篩查提供了有力工具。

          
        孕早期的超聲檢查是胎兒發(fā)育篩查的第一道重要關口,醫(yī)生需要通過超聲圖像觀察胎兒大腦、面部等關鍵解剖結構的發(fā)育情況,以期盡早發(fā)現(xiàn)潛在的出生缺陷。然而,傳統(tǒng)的評估方法很大程度上依賴于超聲醫(yī)師的經(jīng)驗和主觀判斷,這不僅可能導致診斷結果在不同觀察者之間存在差異,也使得大規(guī)模篩查工作繁重且難以標準化。如何能夠快速、準確、客觀地對超聲圖像中的胎兒結構進行定位和識別,成為提升產(chǎn)前篩查質(zhì)量與效率、實現(xiàn)早期干預的關鍵。
        為了回答這一臨床挑戰(zhàn),來自國內(nèi)多所醫(yī)學中心的研究團隊在《Scientific Reports》上發(fā)表了一項研究。他們開發(fā)并驗證了一個將深度學習與影像組學(radiomics)深度融合的多任務框架,旨在實現(xiàn)對孕早期超聲圖像中九種關鍵胎兒腦與顱面解剖結構的自動檢測與精確分類。該研究最大的亮點在于,它不僅利用先進的目標檢測模型來“找到”結構,更通過提取并融合影像的定量特征與深度語義特征,來“讀懂”并“判斷”結構的類別,最終構建了一個端到端的智能化分析管道。這項工作的成功,意味著向自動化、高精度的早期胎兒畸形篩查邁出了堅實的一步。
        研究人員采用了幾個關鍵技術方法來實現(xiàn)這一目標。首先,他們構建了一個大規(guī)模、多樣化的數(shù)據(jù)集,該數(shù)據(jù)集回顧性收集了來自九個不同醫(yī)療中心的共4532例孕11-14周的胎兒超聲掃描,確保了模型的泛化能力。其次,在技術路線上,他們并行訓練了兩個先進的目標檢測模型——YOLOv11和Swin Transformer,專門用于在圖像中精確定位九種目標解剖結構。接著,從每個被檢測出的區(qū)域內(nèi),他們系統(tǒng)性地提取了215個定量影像組學特征和1792個源自深度網(wǎng)絡的深度特征。為確保特征的穩(wěn)定與可靠,研究團隊進行了嚴格的篩選,包括計算組內(nèi)相關系數(shù)(Intra-class Correlation Coefficient, ICC,閾值≥0.75)、皮爾遜相關性分析以及LASSO回歸。最后,他們將篩選出的穩(wěn)健特征輸入一個專為表格數(shù)據(jù)設計的基于Transformer的模型(TabTransformer),訓練其根據(jù)超聲表現(xiàn)將解剖結構分類到預定義的臨床類別中。模型的性能在訓練集、內(nèi)部驗證集和外部測試集上,通過準確率(Accuracy)、受試者工作特征曲線下面積(Area Under the Receiver Operating Characteristic Curve, AUC)和靈敏度(Sensitivity)等指標進行了全面評估。
        研究結果
        檢測模型性能比較:在胎兒解剖結構的定位任務中,基于滑動窗口的Transformer(Swin Transformer)模型表現(xiàn)優(yōu)于YOLOv11模型。Swin Transformer取得了更高的交并比(Intersection over Union, IoU)值,最高可達0.97,同時其F1分數(shù)也≥0.94,顯示出卓越的定位精度和召回率。
        特征穩(wěn)定性與可重復性:通過對提取的影像組學特征和深度特征進行嚴格的ICC分析,研究證實了所選特征在不同中心和不同觀察者間具有高度可重復性,穩(wěn)定性水平保持在75%以上。這為模型在不同醫(yī)療機構間的可靠應用奠定了基礎。
        多模態(tài)特征融合的優(yōu)勢:研究比較了僅使用影像組學特征、僅使用深度特征以及兩者融合的模型性能。結果顯示,融合了影像組學特征和深度特征的模型在檢測和分類任務上均一致地超越了任何單一模態(tài)的模型。這證明兩種特征提供了互補的信息,融合能更全面地描述解剖結構的本質(zhì)。
        分類模型的診斷性能:基于TabTransformer的分類器在外部獨立測試集上展現(xiàn)出了強大的診斷能力。其整體分類準確率達到了96.1%,對于關鍵解剖結構的分類,AUC值最高可達96.89%,靈敏度(Sensitivity)超過95%。這表明該模型不僅能高精度區(qū)分不同結構,也對目標結構具有很高的識別能力。
        模型的泛化性與魯棒性:TabTransformer分類器在來自不同中心的外部測試數(shù)據(jù)上表現(xiàn)穩(wěn)健,成功驗證了該框架良好的泛化能力。模型能夠有效利用融合特征空間進行高精度分類,克服了單一中心數(shù)據(jù)可能帶來的偏差。
        結論與討論
        本研究成功構建并驗證了一個完全集成的、基于深度學習和影像組學的多任務分析框架。該框架能夠自動化地完成從孕早期超聲圖像中檢測再到分類關鍵胎兒解剖結構的全過程。核心結論在于,融合了定量影像組學特征與深度語義特征的模型,其性能顯著優(yōu)于依賴單一信息源的模型;同時,基于Transformer的先進架構(包括Swin Transformer用于檢測和TabTransformer用于分類)在此任務中表現(xiàn)出了卓越的效能。
        這項研究的重要意義體現(xiàn)在多個層面。在方法論上,它提供了一套可復現(xiàn)、標準化的全流程解決方案,將目標檢測、特征工程與分類建模無縫銜接,為醫(yī)學圖像分析領域提供了新的技術范式。在臨床上,其高達96.1%的外部驗證準確率和強大的泛化能力,表明該工具具備轉(zhuǎn)化為實際臨床應用的巨大潛力。它能夠輔助超聲醫(yī)生進行快速、客觀的評估,減少主觀差異,有望提升孕早期胎兒異常篩查的效率和準確性,從而實現(xiàn)更早的發(fā)現(xiàn)與干預。此外,研究所采用的多中心大數(shù)據(jù)策略,有效增強了模型的魯棒性和普遍適用性,為人工智能在真實世界醫(yī)療環(huán)境中的部署樹立了良好范例。總之,這項工作為實現(xiàn)智能化、精準化的早期產(chǎn)前篩查邁出了關鍵一步,具有重要的科研價值與廣闊的臨床前景。
        相關新聞
        生物通微信公眾號
        微信
        新浪微博

        知名企業(yè)招聘

        熱點排行

          今日動態(tài) | 人才市場 | 新技術專欄 | 中國科學人 | 云展臺 | BioHot | 云講堂直播 | 會展中心 | 特價專欄 | 技術快訊 | 免費試用

          版權所有 生物通

          Copyright© eBiotrade.com, All Rights Reserved

          聯(lián)系信箱:

          粵ICP備09063491號