用來3D MRI和CT掃描的深度學習模型總結
醫(yī)學成像信息與其余咱們平常圖片的最大差別之一是它們許多全是3D的,例如在處置DICOM系列信息時特別這樣。DICOM圖片由許多的2D切片構成了1個掃描或肌體的特定部分。
那么怎樣為這種信息建立深度學習解決計劃呢?在本文中將向您簡介6種神經網絡架構,可以應用它們來訓練3D醫(yī)療信息上的深度學習模型。3 d U-Net
U-Net系統(tǒng)構造是一類強大的醫(yī)學圖片分割模型。3D U-Net將經典的U-Net模型擴展到3D分割。它由編碼(下采樣)路徑妥協(xié)碼(上采樣)路徑構成。
編碼路徑捕捉輸入圖片中的上下文,而解碼路徑容許準確定位。3D U-Net在處置體積圖片的3D特征方面十分有效。
V-Net架構是另一類用來體積圖片分割的3D卷積神經網絡。與U-Net相似,V-Net有1個編碼器-解碼器架構,但它應用全辨別率3D卷積,因此它比U-Net計算本錢更高。
它應用一系列帶有殘差連通的3D卷積層。該模型是端到端訓練的,可以一次處置全部3D圖片。
EfficientNet3D
這是對EfficientNet架構的3D改善,它不像U-Net或V-Net那樣常用來3D分割,但假設計算資源有限,它是可以參考的,由于它在計算本錢和功能之間的優(yōu)良衡量。
這是U-Net的一類變體,它含蓋了1個注重力體制,容許網絡將注重力集中在與手頭任務更有關的圖片的某類部分。
這是1個應用雙路徑的3D CNN,1個是常態(tài)辨別率,另1個是下采樣輸入,如此可以結合局部和更大的上下文數據。
總結
本文中,咱們簡介了醫(yī)學成像領域在處置3D MRI和CT掃描時應用的許多深度學習模型。這類神經網絡被設計拿來接收3D信息作為輸入,以學習DICOM系列肌體特定部位的高難性。
下列是本文一切模型設計的論文,假設你感興致,可以直接查閱論文了解更全面的數據
[1] 3D U-Net: Learning Dense Volumetric Segmentation from Sparse Annotation
[2] V-Net: Fully Convolutional Neural Networks for Volumetric Medical Image Segmentation
[3] Deep learning-based metal artifact reduction in PET/CT imaging
[4] A modified 3D EfficientNet for the classification of Alzheimer’s disease using structural magnetic resonance images
[5] Attention U-Net: Learning Where to Look for the Pancreas
[6] DeepMedic for Brain Tumor Segmentation
作家:Nour Islam Mokhtari