《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 人工智能 > 設(shè)計(jì)應(yīng)用 > 基于深度學(xué)習(xí)的視頻火焰識別方法
基于深度學(xué)習(xí)的視頻火焰識別方法
2020年信息技術(shù)與網(wǎng)絡(luò)安全第12期
蔡春兵,,吳翠平,,徐鯤鵬
中國礦業(yè)大學(xué)(北京) 化學(xué)與環(huán)境工程學(xué)院,北京100083
摘要: 針對傳統(tǒng)視頻火災(zāi)檢測方法依靠人工經(jīng)驗(yàn)提取火焰特征,,誤報率高,、魯棒性差的特點(diǎn),,提出一種基于深度學(xué)習(xí)的視頻火焰識別方法。該方法充分利用火焰的運(yùn)動特征和顏色信息,,先使用改進(jìn)的五幀差法和自適應(yīng)混合高斯建模法進(jìn)行運(yùn)動目標(biāo)提?。辉俨捎肦GB-HSV混合顏色空間模型篩選出圖像中可能的火焰像素區(qū)域,;最后將以上兩個步驟結(jié)合起來進(jìn)行疑似火焰區(qū)域提取,,并將疑似火焰區(qū)域圖像傳入預(yù)訓(xùn)練的AlexNet卷積神經(jīng)網(wǎng)絡(luò)模型進(jìn)行火與非火的精確識別。通過對多種場景下火焰視頻的測試結(jié)果表明,,提出的方法具有較高的召回率,、準(zhǔn)確率和較低的誤報率。
中圖分類號: TP391.4
文獻(xiàn)標(biāo)識碼: A
DOI: 10.19358/j.issn.2096-5133.2020.12.008
引用格式: 蔡春兵,,吳翠平,,徐鯤鵬. 基于深度學(xué)習(xí)的視頻火焰識別方法[J].信息技術(shù)與網(wǎng)絡(luò)安全,2020,,39(12):44-51.
Video flame recognition method based on deep learning
Cai Chunbing,,Wu Cuiping,Xu Kunpeng
College of Chemical and Environmental Engineering,,China University of Mining and Technology(Beijing),, Beijing 100083,China
Abstract: Aiming at the characteristics of traditional video fire detection methods that rely on manual experience to extract flame features, with high false alarm rate and low accuracy, a video flame recognition method based on deep learning is proposed. This method makes full use of the motion characteristics and color information of the flame. Firstly, the improved five-frame subtraction method and the adaptive Gaussian mixture model are used to extract the moving objects. Then, the RGB-HSV mixed color space model is used to filter out the possible flame areas in the image. Finally, the above two steps are combined to extract the suspected flame area, and the extracted image of the suspected flame area is fed into the pre-trained AlexNet convolutional neural network model for accurate recognition. The test results of flame video in many scenarios show that the proposed method has higher recall rate, accuracy rate, and lower false alarm rate.
Key words : flame recognition;computer vision,;deep learning,;convolution neural network

0 引言

    傳統(tǒng)的氣體型、感溫型,、感煙型和感光型等火災(zāi)探測器[1],,依靠火災(zāi)中的CO、CO2,、溫度,、煙霧微粒、熱和輻射等物理特征來探測火災(zāi)發(fā)生,。因其通常與火源距離較遠(yuǎn),,導(dǎo)致可靠性與實(shí)時性都不足。視頻火災(zāi)探測技術(shù)無需靠近火源,,可實(shí)現(xiàn)大視野,、遠(yuǎn)距離監(jiān)控,廣泛應(yīng)用于大型工廠,、森林和煤礦等大空間和室外開放空間的火災(zāi)探測,。

    火焰具有明顯的視覺特征,傳統(tǒng)視頻火災(zāi)探測算法通常根據(jù)火焰的顏色,、形狀和紋理等靜態(tài)特征,,以及閃爍頻率、面積增長,、形態(tài)變化和移動方向等動態(tài)特征進(jìn)行識別,。CHEN T H等人[2]結(jié)合RGB色彩分割和火焰運(yùn)動特性進(jìn)行火焰像素的判定。KO B C[3]等人通過檢測運(yùn)動區(qū)域和火焰顏色判斷來提取候選火焰區(qū)域,,并對候選區(qū)域提取特征,,用于訓(xùn)練支持向量機(jī)SVM分類器,實(shí)現(xiàn)對火與非火的判定,。MEI Z[4]等人通過幀間差分法和火焰顏色模型確定候選著火區(qū)域,,然后提取火災(zāi)候選區(qū)域特征組成的特征向量,用于訓(xùn)練BP神經(jīng)網(wǎng)絡(luò)模型來識別火災(zāi),。候選區(qū)域的特征提取對后續(xù)分類器性能的好壞起到?jīng)Q定性的作用,,傳統(tǒng)視頻火焰探測需要人工設(shè)計(jì)復(fù)雜的特征提取方法,在識別率和泛化性能上都有一定的局限性,。

    深度學(xué)習(xí)為傳統(tǒng)自然語言處理,、計(jì)算機(jī)視覺等領(lǐng)域帶來了革命性進(jìn)步,也必然促進(jìn)視頻火災(zāi)探測技術(shù)獲得突破性進(jìn)展,。深度學(xué)習(xí)算法可自動提取圖像特征,,克服了傳統(tǒng)視頻火災(zāi)探測需依靠人工經(jīng)驗(yàn)提取特征的缺陷。FRIZZI S等人[5]訓(xùn)練了9層網(wǎng)絡(luò)結(jié)構(gòu)的卷積神經(jīng)網(wǎng)絡(luò),實(shí)現(xiàn)了火災(zāi)的識別,。SON G等人[6]用AlexNet作為基礎(chǔ)架構(gòu),,訓(xùn)練了火災(zāi)分類模型。WU H等人[7]分別訓(xùn)練了區(qū)域檢測網(wǎng)絡(luò)和區(qū)域分類網(wǎng)絡(luò),,實(shí)現(xiàn)對火災(zāi)的判定,。上述方法都直接在原始圖片上使用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行特征提取,這樣大量的無關(guān)特征也將被傳入全連接網(wǎng)絡(luò)進(jìn)行訓(xùn)練,,使得分類性能不佳,。

    通常,火焰只占據(jù)圖像的一部分,,可首先提取火焰疑似區(qū)域,,再將疑似區(qū)域傳入深度學(xué)習(xí)模型進(jìn)行特征提取和精確識別。通過結(jié)合傳統(tǒng)方法和深度學(xué)習(xí)算法的優(yōu)點(diǎn),,提出一種基于深度學(xué)習(xí)的視頻火焰識別方法。

    本文的主要工作如下:

    (1)利用改進(jìn)的五幀差法和自適應(yīng)混合高斯混合建模法(Adaptive Gaussian Mixture Model,,AGMM)進(jìn)行運(yùn)動目標(biāo)提取,,并結(jié)合RGB-HSV混合顏色空間模型,提取疑似火焰區(qū)域,。

    (2)制作火與類火數(shù)據(jù)集,,訓(xùn)練AlexNet卷積神經(jīng)網(wǎng)絡(luò)模型對疑似火焰區(qū)域進(jìn)行精確識別。

    (3)在實(shí)際數(shù)據(jù)上進(jìn)行測試,,并與文獻(xiàn)中其他算法進(jìn)行對比,,以評價算法的召回率、準(zhǔn)確率和誤報率,。




本文詳細(xì)內(nèi)容請下載:http://forexkbc.com/resource/share/2000003226




作者信息:

蔡春兵,,吳翠平,徐鯤鵬

(中國礦業(yè)大學(xué)(北京) 化學(xué)與環(huán)境工程學(xué)院,,北京100083)

此內(nèi)容為AET網(wǎng)站原創(chuàng),,未經(jīng)授權(quán)禁止轉(zhuǎn)載。