文獻標識碼: A
DOI:10.16157/j.issn.0258-7998.181514
中文引用格式: 周進凡,,張榮芬,馬治楠,,等. 基于深度學(xué)習(xí)的胸部X光影像分析系統(tǒng)[J].電子技術(shù)應(yīng)用,,2018,44(11):29-32.
英文引用格式: Zhou Jinfan,,Zhang Rongfen,,Ma Zhinan,et al. Chest X-ray image analysis system based on deep learning[J]. Application of Electronic Technique,,2018,,44(11):29-32.
0 引言
胸腔積液是臨床常見的胸膜病變,,也是多種疾病的伴隨表現(xiàn),據(jù)統(tǒng)計有50多種疾病可直接或間接引起胸腔積液[1]。在胸部異常改變的68例白血病患者中,,白血病胸部X線表現(xiàn)為浸潤性改變49例,,占72%[2]。此外肺氣腫,、氣胸以及肺不張也是某些嚴重疾病的癥狀,。由于個體差異,在疾病前期或者發(fā)生之前這些癥狀并不一定很明顯,,醫(yī)院放射科室傳統(tǒng)的診斷方式可能并不能及時,、準確地檢測出相應(yīng)的癥狀為醫(yī)生提供決策依據(jù),導(dǎo)致患者不能及早得到相應(yīng)的治療而錯過最佳治療時間,。
傳統(tǒng)的計算機輔助胸部X光醫(yī)學(xué)影像識別主要是針對特定任務(wù)建立識別規(guī)則,,手動提取特征并進行特征訓(xùn)練,該方案依然脫離不了人工標注這一過程,。人工標注因為主觀性問題,,所以識別準確率存在比較大的波動。2017年11月斯坦福大學(xué)吳恩達團隊提出了一種名為CheXNet的新技術(shù),,該技術(shù)利用卷積神經(jīng)網(wǎng)絡(luò)在NIH(美國國立衛(wèi)生研究院)胸部X光影像數(shù)據(jù)集上進行訓(xùn)練、測試,,得到了浸潤檢測準確率88.31%,、胸腔積液檢測準確率72.04%、肺氣腫92.60%,、氣胸89.32%,、肺不張82.09%的優(yōu)良效果,該準確率高于擁有多年從業(yè)經(jīng)驗的放射科醫(yī)生檢測的準確率,,但是該方法在進行訓(xùn)練時使用了121層卷積神經(jīng)網(wǎng)絡(luò),,由于使用了深層次神經(jīng)網(wǎng)絡(luò)使得訓(xùn)練過程對計算機設(shè)備硬件要求高,而且訓(xùn)練時間長,,訓(xùn)練好的模型較大,,不利于移植到嵌入式平臺進行識別。本文提出一種在GPU服務(wù)器利用輕量級卷積神經(jīng)網(wǎng)絡(luò)MobileNets對胸部X光影像數(shù)據(jù)進行訓(xùn)練,,并將訓(xùn)練好的網(wǎng)絡(luò)模型移植到嵌入式Jetson TX2核心板,,在嵌入式平臺下實現(xiàn)對胸部X光影像數(shù)據(jù)進行分析的方法。該方法在識別準確率高于吳恩達團隊提出檢測方法的同時縮短了對X光影像數(shù)據(jù)分析所需要的時間,。
1 胸部X光分析系統(tǒng)總體設(shè)計
本文的胸部X光影像分析系統(tǒng)主要由訓(xùn)練模塊,、識別模塊、網(wǎng)絡(luò)傳輸模塊這三部分組成,,整個系統(tǒng)的嵌入式平臺在NVIDIA公司生產(chǎn)的Jetson TX2核心板上進行搭建,,并通過該平臺實現(xiàn)對整個系統(tǒng)的協(xié)調(diào)控制。訓(xùn)練模塊是在GPU服務(wù)器上利用深度學(xué)習(xí)技術(shù)建立卷積神經(jīng)網(wǎng)絡(luò)模型,然后利用該模型對標注好的X光影像數(shù)據(jù)集進行訓(xùn)練,,將訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型移植到Jetson TX2核心板,。識別模塊是在嵌入式平臺下利用移植到Jetson TX2核心板的神經(jīng)網(wǎng)絡(luò)模型對接收到的來自X光機的胸部X光影像數(shù)據(jù)進行分析,得到正常,、胸腔積液,、浸潤、肺氣腫,、氣胸以及肺不張六個類別的分類結(jié)果,。網(wǎng)絡(luò)傳輸模塊主要分為兩個部分,一部分為通過以太網(wǎng)模塊將X光機拍攝的胸部X光影像傳輸?shù)角度胧狡脚_,,另一部分是通過WiFi模塊將嵌入式平臺接收到的胸部X光影像信息以及嵌入式平臺對該影像數(shù)據(jù)的分析結(jié)果上傳到醫(yī)院云平臺進行數(shù)據(jù)的存儲與分發(fā),,為相應(yīng)科室的醫(yī)生提供疾病診斷的決策依據(jù)。胸部X光影像分析系統(tǒng)具體設(shè)計框圖如圖1所示,。
2 胸部X光分析系統(tǒng)硬件設(shè)計
嵌入式核心板Jetson TX2配備以太網(wǎng)模塊,、WiFi模塊等核心功能模塊共同構(gòu)建了胸部X光影像分析系統(tǒng)的硬件平臺。Jetson TX2核心板以Tegra Parker處理器作為載體,,搭載Ubuntu 16.04操作系統(tǒng),,然后與以太網(wǎng)模塊、WiFi模塊協(xié)同作用,,在嵌入式平臺下實現(xiàn)胸部X光影像分析,、數(shù)據(jù)傳輸?shù)裙δ堋?/p>
胸部X光影像分析系統(tǒng)網(wǎng)絡(luò)通信模塊主要由兩個部分構(gòu)成:第一部分為X光機與嵌入式平臺之間的網(wǎng)絡(luò)傳輸,該部分通過以太網(wǎng)模塊設(shè)計實現(xiàn),,主要實現(xiàn)在醫(yī)院局域網(wǎng)內(nèi)將拍攝到的胸部X光影像數(shù)據(jù)通過以太網(wǎng)傳輸?shù)絁etson TX2核心板的功能,,以太網(wǎng)通信模塊的外圍電路圖如圖2所示;第二部分為嵌入式平臺與醫(yī)院云平臺之間的通信功能,,該部分通過WiFi模塊設(shè)計實現(xiàn),,主要實現(xiàn)將Jetson TX2核心板接收到的X光影像數(shù)據(jù)以及數(shù)據(jù)分析結(jié)果上傳到醫(yī)院云平臺的功能,WiFi通信模塊的外圍電路圖如圖3所示,。
3 胸部X光分析系統(tǒng)軟件設(shè)計
胸部X光分析系統(tǒng)軟件設(shè)計由GPU服務(wù)器端程序設(shè)計與嵌入式端程序設(shè)計兩部分組成,。GPU服務(wù)器端程序設(shè)計主要是在Keras深度學(xué)習(xí)框架之下,使用TensorFlow作為后端,采用Python語言進行編程對胸部X光醫(yī)學(xué)影像數(shù)據(jù)集中的圖片尺寸進行歸一化處理,,然后利用MobileNets卷積神經(jīng)網(wǎng)絡(luò)對該數(shù)據(jù)集進行訓(xùn)練,,并將訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型移植到嵌入式平臺。嵌入式平臺程序設(shè)計主要是在嵌入式平臺配置深度學(xué)習(xí)所需要的運行環(huán)境,,采用Python高級編程語言,,在嵌入式平臺上對GPU服務(wù)器上訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型進行讀取,并在該模型下對接收到的胸部X光影像數(shù)據(jù)進行分類識別,。胸部X光影像分析系統(tǒng)軟件設(shè)計流程如圖4所示,。
4 基于MobileNets網(wǎng)絡(luò)的胸部X光影像分析
MobileNets網(wǎng)絡(luò)是由Google公司提供的一款輕量級的深層卷積神經(jīng)網(wǎng)絡(luò),,主要用于手機和嵌入式設(shè)備。該神經(jīng)網(wǎng)絡(luò)是基于流線型的高效網(wǎng)絡(luò)架構(gòu),,它使用深度可分離卷積來構(gòu)建輕量級深層卷積神經(jīng)網(wǎng)絡(luò),。MobileNets卷積神經(jīng)網(wǎng)絡(luò)可以將標準卷積分解成一個深度卷積和一個點卷積(1×1)以此來減少計算量,降低模型的大小,。具體分解步驟如圖5所示,,其中M代表輸入的通道數(shù)量,DK代表卷積核的寬和高,,DF代表輸入特征圖的寬和高,,N代表輸出通道數(shù)量。
從圖5可以得出,,標準卷積的計算成本為:
通過標準卷積和深度可分離卷積的計算成本對比可以得出,,MobileNets網(wǎng)絡(luò)通過對卷積核的靈活應(yīng)用,減少了網(wǎng)絡(luò)模型參數(shù)量,,使其計算成本得到了很大程度的減少,。
MobileNets共有28層網(wǎng)絡(luò),除最后的全連接層以外,,每一層網(wǎng)絡(luò)之后都通過BN算法對每個神經(jīng)元做歸一化處理,,提高網(wǎng)絡(luò)的訓(xùn)練速度。
在Ubuntu 16.04系統(tǒng)之下編寫一個shell腳本程序從NIH胸部X光影像數(shù)據(jù)集中提取其中的正常,、胸腔積液,、浸潤、肺氣腫,、氣胸以及肺不張六個類別共計81 200張圖像作為本系統(tǒng)的數(shù)據(jù)集,將提取出來的數(shù)據(jù)集命名為X-ray,,X-ray數(shù)據(jù)集中共包含有60 384張正常圖像,、9 551張浸潤圖像、3 959張胸腔積液圖像,、895張肺氣腫圖像,、2 199張氣胸圖像以及4 212張肺不張圖像。在對模型進行訓(xùn)練之前,,首先對數(shù)據(jù)集中圖像進行預(yù)處理,,將每張圖片分辨率歸一化為128×128,然后將該數(shù)據(jù)分為訓(xùn)練集和測試集兩部分,,訓(xùn)練集占比75%,,測試集占比25%。數(shù)據(jù)集訓(xùn)練過程中,,使用ADM算法對網(wǎng)絡(luò)進行優(yōu)化,,對數(shù)損失函數(shù)作為整個網(wǎng)絡(luò)的損失函數(shù),,并用sigmoid函數(shù)作為激活函數(shù),設(shè)置迭代次數(shù)為4 000次,。本實驗中訓(xùn)練結(jié)束的標志主要從兩個方面進行考察,,第一個方面為整個訓(xùn)練達到設(shè)置的迭代次數(shù)的上限以后訓(xùn)練結(jié)束,第二方面為loss(損失函數(shù))值收斂不再減小,,此時可以認為當前狀態(tài)下此網(wǎng)絡(luò)已基本達到最優(yōu)化,,訓(xùn)練結(jié)束。訓(xùn)練結(jié)束后將得到的網(wǎng)絡(luò)移植到Jetson TX2核心板在嵌入式平臺下對胸部X光影像數(shù)據(jù)進行分析,。
5 系統(tǒng)結(jié)果分析
本實驗采用MobileNets卷積神經(jīng)網(wǎng)絡(luò)對81 200張胸部X光影像中隨機選取的60 900張(占比75%)胸部X光影像進行訓(xùn)練得到可以識別胸腔積液和浸潤兩種癥狀的神經(jīng)網(wǎng)絡(luò),。在進行模型訓(xùn)練時,設(shè)置每一個Epoch代表迭代200次,,當Epoch=13時,,即迭代次數(shù)達到2 600次時,loss值收斂,,此時網(wǎng)絡(luò)達到基本最優(yōu)化,,整個訓(xùn)練結(jié)束,大約用時90 min,,該方法所用時間低于吳恩達團隊利用121層卷積網(wǎng)絡(luò)進行訓(xùn)練所需時間,。訓(xùn)練過程中l(wèi)oss值變化的過程如圖6所示。
訓(xùn)練結(jié)束后,,將該模型移植到嵌入式平臺,,利用剩余的20 300張(占比25%)胸部X光影像作為測試集,驗證整個模型對胸腔積液,、浸潤兩個類別的平均識別率,,得到91.01%的平均正確率,其中正常類別識別準確率達到了98.68%,。將本文中提及的胸部X光影像分析系統(tǒng)命名為ML-XNet,。表1表示專業(yè)放射科醫(yī)生、吳恩達團隊提出的CheXNet技術(shù)和ML-XNet對胸腔積液,、浸潤,、肺氣腫、氣胸以及肺不張的識別準確率,。
從表1可以看出,,本文所使用的方法在對胸腔積液、浸潤,、肺氣腫,、氣胸以及肺不張五種常見癥狀的識別效果上,更優(yōu)于放射科醫(yī)生以及CheXNet方法,。
隨機傳輸4張胸部X光影像數(shù)據(jù)進行測試,,識別所需時間為30 s左右,,遠低于目前放射科醫(yī)生檢測所需時間,測試結(jié)果如圖7所示,,其中Reality為圖片對應(yīng)癥狀的真實值,,Prediction為利用本文所述方法進行分析得到的預(yù)測值,Pneumothrax代表氣胸,,Infiltration代表浸潤,,Atelectasis代表肺不張。從圖中可以看出通過本系統(tǒng)對4張胸部X光影像的預(yù)測結(jié)果均與真實結(jié)果一致,。
6 結(jié)論
本系統(tǒng)通過在Jetson TX2核心板上移植GPU服務(wù)器上訓(xùn)練好的MobileNets卷積神經(jīng)網(wǎng)絡(luò)模型,,在嵌入式平臺下實現(xiàn)對胸部X光影像的分析。隨著X光機的發(fā)展,,可以將本系統(tǒng)中的嵌入式識別平臺與X光機結(jié)合,,生產(chǎn)出既能拍攝胸部X光影像又能對胸部X光影像進行分析的一體機,使胸部X光影像的分析正確率更高,、操作更簡單,。
參考文獻
[1] 李翔云,李薇,,張澤明.結(jié)核性,、惡性胸腔積液的鑒別診斷的研究進展[J].中國繼續(xù)醫(yī)學(xué)教育,2018,,10(11):109-112.
[2] 尚延海,,張淑香,張志偉,,等.白血病胸部浸潤的臨床X線表現(xiàn)(附68例分析)[J].醫(yī)學(xué)影像學(xué)雜志,,2002(6):449-451.
[3] 張巧麗,趙地,,遲學(xué)斌.基于深度學(xué)習(xí)的醫(yī)學(xué)影像診斷綜述[J].計算機科學(xué),,2017,44(S2):1-7.
[4] 羅濤,,牟軒沁.一種胸部X射線攝影圖像中結(jié)節(jié)檢測的多尺度匹配濾波器[J].西安交通大學(xué)學(xué)報,2011,,45(4):30-35.
[5] 薛迪秀.基于卷積神經(jīng)網(wǎng)絡(luò)的醫(yī)學(xué)圖像癌變識別研究[D].合肥:中國科學(xué)技術(shù)大學(xué),,2017.
[6] HOWARD A G,ZHU M,,CHEN B,,et al.MobileNets:Efficient convolutional neural networks for mobile vision applications[J].avXiv:1704.04861[cs.CV].
[7] 何雪英,韓忠義,,魏本征.基于深度學(xué)習(xí)的乳腺癌病理圖像自動分類[J/OL].計算機工程與應(yīng)用,,2018(12).
作者信息:
周進凡,,張榮芬,馬治楠,,葛自立,,劉宇紅
(貴州大學(xué) 大數(shù)據(jù)與信息工程學(xué)院,貴州 貴陽550025)