文獻標識碼: A
DOI:10.16157/j.issn.0258-7998.181514
中文引用格式: 周進凡,張榮芬,,馬治楠,,等. 基于深度學習的胸部X光影像分析系統(tǒng)[J].電子技術(shù)應(yīng)用,2018,,44(11):29-32.
英文引用格式: Zhou Jinfan,,Zhang Rongfen,Ma Zhinan,,et al. Chest X-ray image analysis system based on deep learning[J]. Application of Electronic Technique,,2018,44(11):29-32.
0 引言
胸腔積液是臨床常見的胸膜病變,也是多種疾病的伴隨表現(xiàn),據(jù)統(tǒng)計有50多種疾病可直接或間接引起胸腔積液[1],。在胸部異常改變的68例白血病患者中,,白血病胸部X線表現(xiàn)為浸潤性改變49例,占72%[2],。此外肺氣腫,、氣胸以及肺不張也是某些嚴重疾病的癥狀。由于個體差異,,在疾病前期或者發(fā)生之前這些癥狀并不一定很明顯,,醫(yī)院放射科室傳統(tǒng)的診斷方式可能并不能及時、準確地檢測出相應(yīng)的癥狀為醫(yī)生提供決策依據(jù),,導(dǎo)致患者不能及早得到相應(yīng)的治療而錯過最佳治療時間,。
傳統(tǒng)的計算機輔助胸部X光醫(yī)學影像識別主要是針對特定任務(wù)建立識別規(guī)則,手動提取特征并進行特征訓練,,該方案依然脫離不了人工標注這一過程,。人工標注因為主觀性問題,所以識別準確率存在比較大的波動,。2017年11月斯坦福大學吳恩達團隊提出了一種名為CheXNet的新技術(shù),,該技術(shù)利用卷積神經(jīng)網(wǎng)絡(luò)在NIH(美國國立衛(wèi)生研究院)胸部X光影像數(shù)據(jù)集上進行訓練、測試,,得到了浸潤檢測準確率88.31%,、胸腔積液檢測準確率72.04%、肺氣腫92.60%,、氣胸89.32%,、肺不張82.09%的優(yōu)良效果,該準確率高于擁有多年從業(yè)經(jīng)驗的放射科醫(yī)生檢測的準確率,,但是該方法在進行訓練時使用了121層卷積神經(jīng)網(wǎng)絡(luò),,由于使用了深層次神經(jīng)網(wǎng)絡(luò)使得訓練過程對計算機設(shè)備硬件要求高,而且訓練時間長,,訓練好的模型較大,,不利于移植到嵌入式平臺進行識別。本文提出一種在GPU服務(wù)器利用輕量級卷積神經(jīng)網(wǎng)絡(luò)MobileNets對胸部X光影像數(shù)據(jù)進行訓練,,并將訓練好的網(wǎng)絡(luò)模型移植到嵌入式Jetson TX2核心板,,在嵌入式平臺下實現(xiàn)對胸部X光影像數(shù)據(jù)進行分析的方法。該方法在識別準確率高于吳恩達團隊提出檢測方法的同時縮短了對X光影像數(shù)據(jù)分析所需要的時間,。
1 胸部X光分析系統(tǒng)總體設(shè)計
本文的胸部X光影像分析系統(tǒng)主要由訓練模塊,、識別模塊、網(wǎng)絡(luò)傳輸模塊這三部分組成,,整個系統(tǒng)的嵌入式平臺在NVIDIA公司生產(chǎn)的Jetson TX2核心板上進行搭建,,并通過該平臺實現(xiàn)對整個系統(tǒng)的協(xié)調(diào)控制,。訓練模塊是在GPU服務(wù)器上利用深度學習技術(shù)建立卷積神經(jīng)網(wǎng)絡(luò)模型,然后利用該模型對標注好的X光影像數(shù)據(jù)集進行訓練,,將訓練好的神經(jīng)網(wǎng)絡(luò)模型移植到Jetson TX2核心板。識別模塊是在嵌入式平臺下利用移植到Jetson TX2核心板的神經(jīng)網(wǎng)絡(luò)模型對接收到的來自X光機的胸部X光影像數(shù)據(jù)進行分析,,得到正常,、胸腔積液、浸潤,、肺氣腫,、氣胸以及肺不張六個類別的分類結(jié)果。網(wǎng)絡(luò)傳輸模塊主要分為兩個部分,,一部分為通過以太網(wǎng)模塊將X光機拍攝的胸部X光影像傳輸?shù)角度胧狡脚_,,另一部分是通過WiFi模塊將嵌入式平臺接收到的胸部X光影像信息以及嵌入式平臺對該影像數(shù)據(jù)的分析結(jié)果上傳到醫(yī)院云平臺進行數(shù)據(jù)的存儲與分發(fā),為相應(yīng)科室的醫(yī)生提供疾病診斷的決策依據(jù),。胸部X光影像分析系統(tǒng)具體設(shè)計框圖如圖1所示,。
2 胸部X光分析系統(tǒng)硬件設(shè)計
嵌入式核心板Jetson TX2配備以太網(wǎng)模塊、WiFi模塊等核心功能模塊共同構(gòu)建了胸部X光影像分析系統(tǒng)的硬件平臺,。Jetson TX2核心板以Tegra Parker處理器作為載體,,搭載Ubuntu 16.04操作系統(tǒng),然后與以太網(wǎng)模塊,、WiFi模塊協(xié)同作用,,在嵌入式平臺下實現(xiàn)胸部X光影像分析、數(shù)據(jù)傳輸?shù)裙δ堋?/p>
胸部X光影像分析系統(tǒng)網(wǎng)絡(luò)通信模塊主要由兩個部分構(gòu)成:第一部分為X光機與嵌入式平臺之間的網(wǎng)絡(luò)傳輸,,該部分通過以太網(wǎng)模塊設(shè)計實現(xiàn),,主要實現(xiàn)在醫(yī)院局域網(wǎng)內(nèi)將拍攝到的胸部X光影像數(shù)據(jù)通過以太網(wǎng)傳輸?shù)絁etson TX2核心板的功能,以太網(wǎng)通信模塊的外圍電路圖如圖2所示,;第二部分為嵌入式平臺與醫(yī)院云平臺之間的通信功能,,該部分通過WiFi模塊設(shè)計實現(xiàn),主要實現(xiàn)將Jetson TX2核心板接收到的X光影像數(shù)據(jù)以及數(shù)據(jù)分析結(jié)果上傳到醫(yī)院云平臺的功能,,WiFi通信模塊的外圍電路圖如圖3所示,。
3 胸部X光分析系統(tǒng)軟件設(shè)計
胸部X光分析系統(tǒng)軟件設(shè)計由GPU服務(wù)器端程序設(shè)計與嵌入式端程序設(shè)計兩部分組成。GPU服務(wù)器端程序設(shè)計主要是在Keras深度學習框架之下,使用TensorFlow作為后端,,采用Python語言進行編程對胸部X光醫(yī)學影像數(shù)據(jù)集中的圖片尺寸進行歸一化處理,,然后利用MobileNets卷積神經(jīng)網(wǎng)絡(luò)對該數(shù)據(jù)集進行訓練,并將訓練好的神經(jīng)網(wǎng)絡(luò)模型移植到嵌入式平臺,。嵌入式平臺程序設(shè)計主要是在嵌入式平臺配置深度學習所需要的運行環(huán)境,,采用Python高級編程語言,在嵌入式平臺上對GPU服務(wù)器上訓練好的神經(jīng)網(wǎng)絡(luò)模型進行讀取,,并在該模型下對接收到的胸部X光影像數(shù)據(jù)進行分類識別,。胸部X光影像分析系統(tǒng)軟件設(shè)計流程如圖4所示,。
4 基于MobileNets網(wǎng)絡(luò)的胸部X光影像分析
MobileNets網(wǎng)絡(luò)是由Google公司提供的一款輕量級的深層卷積神經(jīng)網(wǎng)絡(luò),主要用于手機和嵌入式設(shè)備,。該神經(jīng)網(wǎng)絡(luò)是基于流線型的高效網(wǎng)絡(luò)架構(gòu),,它使用深度可分離卷積來構(gòu)建輕量級深層卷積神經(jīng)網(wǎng)絡(luò)。MobileNets卷積神經(jīng)網(wǎng)絡(luò)可以將標準卷積分解成一個深度卷積和一個點卷積(1×1)以此來減少計算量,,降低模型的大小,。具體分解步驟如圖5所示,其中M代表輸入的通道數(shù)量,,DK代表卷積核的寬和高,,DF代表輸入特征圖的寬和高,N代表輸出通道數(shù)量,。
從圖5可以得出,,標準卷積的計算成本為:
通過標準卷積和深度可分離卷積的計算成本對比可以得出,MobileNets網(wǎng)絡(luò)通過對卷積核的靈活應(yīng)用,,減少了網(wǎng)絡(luò)模型參數(shù)量,,使其計算成本得到了很大程度的減少。
MobileNets共有28層網(wǎng)絡(luò),,除最后的全連接層以外,,每一層網(wǎng)絡(luò)之后都通過BN算法對每個神經(jīng)元做歸一化處理,提高網(wǎng)絡(luò)的訓練速度,。
在Ubuntu 16.04系統(tǒng)之下編寫一個shell腳本程序從NIH胸部X光影像數(shù)據(jù)集中提取其中的正常,、胸腔積液、浸潤,、肺氣腫,、氣胸以及肺不張六個類別共計81 200張圖像作為本系統(tǒng)的數(shù)據(jù)集,將提取出來的數(shù)據(jù)集命名為X-ray,,X-ray數(shù)據(jù)集中共包含有60 384張正常圖像,、9 551張浸潤圖像、3 959張胸腔積液圖像,、895張肺氣腫圖像,、2 199張氣胸圖像以及4 212張肺不張圖像。在對模型進行訓練之前,,首先對數(shù)據(jù)集中圖像進行預(yù)處理,,將每張圖片分辨率歸一化為128×128,然后將該數(shù)據(jù)分為訓練集和測試集兩部分,,訓練集占比75%,,測試集占比25%。數(shù)據(jù)集訓練過程中,,使用ADM算法對網(wǎng)絡(luò)進行優(yōu)化,,對數(shù)損失函數(shù)作為整個網(wǎng)絡(luò)的損失函數(shù),,并用sigmoid函數(shù)作為激活函數(shù),設(shè)置迭代次數(shù)為4 000次,。本實驗中訓練結(jié)束的標志主要從兩個方面進行考察,,第一個方面為整個訓練達到設(shè)置的迭代次數(shù)的上限以后訓練結(jié)束,第二方面為loss(損失函數(shù))值收斂不再減小,,此時可以認為當前狀態(tài)下此網(wǎng)絡(luò)已基本達到最優(yōu)化,,訓練結(jié)束。訓練結(jié)束后將得到的網(wǎng)絡(luò)移植到Jetson TX2核心板在嵌入式平臺下對胸部X光影像數(shù)據(jù)進行分析,。
5 系統(tǒng)結(jié)果分析
本實驗采用MobileNets卷積神經(jīng)網(wǎng)絡(luò)對81 200張胸部X光影像中隨機選取的60 900張(占比75%)胸部X光影像進行訓練得到可以識別胸腔積液和浸潤兩種癥狀的神經(jīng)網(wǎng)絡(luò)。在進行模型訓練時,,設(shè)置每一個Epoch代表迭代200次,,當Epoch=13時,即迭代次數(shù)達到2 600次時,,loss值收斂,,此時網(wǎng)絡(luò)達到基本最優(yōu)化,整個訓練結(jié)束,,大約用時90 min,,該方法所用時間低于吳恩達團隊利用121層卷積網(wǎng)絡(luò)進行訓練所需時間。訓練過程中l(wèi)oss值變化的過程如圖6所示,。
訓練結(jié)束后,,將該模型移植到嵌入式平臺,利用剩余的20 300張(占比25%)胸部X光影像作為測試集,,驗證整個模型對胸腔積液,、浸潤兩個類別的平均識別率,得到91.01%的平均正確率,,其中正常類別識別準確率達到了98.68%,。將本文中提及的胸部X光影像分析系統(tǒng)命名為ML-XNet。表1表示專業(yè)放射科醫(yī)生,、吳恩達團隊提出的CheXNet技術(shù)和ML-XNet對胸腔積液,、浸潤、肺氣腫,、氣胸以及肺不張的識別準確率,。
從表1可以看出,本文所使用的方法在對胸腔積液,、浸潤,、肺氣腫、氣胸以及肺不張五種常見癥狀的識別效果上,,更優(yōu)于放射科醫(yī)生以及CheXNet方法,。
隨機傳輸4張胸部X光影像數(shù)據(jù)進行測試,,識別所需時間為30 s左右,遠低于目前放射科醫(yī)生檢測所需時間,,測試結(jié)果如圖7所示,,其中Reality為圖片對應(yīng)癥狀的真實值,Prediction為利用本文所述方法進行分析得到的預(yù)測值,,Pneumothrax代表氣胸,,Infiltration代表浸潤,Atelectasis代表肺不張,。從圖中可以看出通過本系統(tǒng)對4張胸部X光影像的預(yù)測結(jié)果均與真實結(jié)果一致,。
6 結(jié)論
本系統(tǒng)通過在Jetson TX2核心板上移植GPU服務(wù)器上訓練好的MobileNets卷積神經(jīng)網(wǎng)絡(luò)模型,在嵌入式平臺下實現(xiàn)對胸部X光影像的分析,。隨著X光機的發(fā)展,,可以將本系統(tǒng)中的嵌入式識別平臺與X光機結(jié)合,生產(chǎn)出既能拍攝胸部X光影像又能對胸部X光影像進行分析的一體機,,使胸部X光影像的分析正確率更高,、操作更簡單。
參考文獻
[1] 李翔云,,李薇,,張澤明.結(jié)核性、惡性胸腔積液的鑒別診斷的研究進展[J].中國繼續(xù)醫(yī)學教育,,2018,,10(11):109-112.
[2] 尚延海,張淑香,,張志偉,,等.白血病胸部浸潤的臨床X線表現(xiàn)(附68例分析)[J].醫(yī)學影像學雜志,2002(6):449-451.
[3] 張巧麗,,趙地,,遲學斌.基于深度學習的醫(yī)學影像診斷綜述[J].計算機科學,2017,,44(S2):1-7.
[4] 羅濤,,牟軒沁.一種胸部X射線攝影圖像中結(jié)節(jié)檢測的多尺度匹配濾波器[J].西安交通大學學報,2011,,45(4):30-35.
[5] 薛迪秀.基于卷積神經(jīng)網(wǎng)絡(luò)的醫(yī)學圖像癌變識別研究[D].合肥:中國科學技術(shù)大學,,2017.
[6] HOWARD A G,ZHU M,,CHEN B,,et al.MobileNets:Efficient convolutional neural networks for mobile vision applications[J].avXiv:1704.04861[cs.CV].
[7] 何雪英,韓忠義,,魏本征.基于深度學習的乳腺癌病理圖像自動分類[J/OL].計算機工程與應(yīng)用,,2018(12).
作者信息:
周進凡,,張榮芬,馬治楠,,葛自立,,劉宇紅
(貴州大學 大數(shù)據(jù)與信息工程學院,貴州 貴陽550025)