人工智能(Artificial Intelligence),英文縮寫為AI,。它是研究、開發(fā)用于模擬、延伸和擴(kuò)展人的智能的理論、方法,、技術(shù)及應(yīng)用系統(tǒng)的一門新的技術(shù)科學(xué)。
人工智能是計(jì)算機(jī)科學(xué)的一個分支,它企圖了解智能的實(shí)質(zhì),,并生產(chǎn)出一種新的能以人類智能相似的方式做出反應(yīng)的智能機(jī)器,該領(lǐng)域的研究包括機(jī)器人,、語言識別,、圖像識別、自然語言處理和專家系統(tǒng)等,。人工智能從誕生以來,,理論和技術(shù)日益成熟,應(yīng)用領(lǐng)域也不斷擴(kuò)大,,可以設(shè)想,,未來人工智能帶來的科技產(chǎn)品,將會是人類智慧的“容器”,。人工智能可以對人的意識,、思維的信息過程的模擬。人工智能不是人的智能,,但能像人那樣思考,、也可能超過人的智能。
人工智能之父 John McCarthy說:人工智能就是制造智能的機(jī)器,,更特指制作人工智能的程序,。人工智能模仿人類的思考方式使計(jì)算機(jī)能智能的思考問題,人工智能通過研究人類大腦的思考,、學(xué)習(xí)和工作方式,,然后將研究結(jié)果作為開發(fā)智能軟件和系統(tǒng)的基礎(chǔ)。
小編整理了《電子技術(shù)應(yīng)用》近年刊登的與人工智能相關(guān)的最新研究成果及其應(yīng)用實(shí)例,,歡迎相關(guān)領(lǐng)域研究者參考借鑒,!
1.基于深度學(xué)習(xí)的美國媒體“一帶一路”輿情的情感分析
摘要: 分析美國主流新聞媒體針對“一帶一路”倡議的關(guān)注熱點(diǎn),研究相關(guān)輿情的情感傾向,。用網(wǎng)絡(luò)爬蟲自動采集相關(guān)新聞,,篩選高頻詞獲得媒體關(guān)注熱點(diǎn)。提出一種自動摘要-卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,,CNN)的集成式模型進(jìn)行文檔級情感分析,。該模型首先提取摘要去除原始文檔中非重要數(shù)據(jù)的干擾,再利用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行句子級情感分析,,通過基于語義指向的方法獲得文檔級的情感分?jǐn)?shù),,并對情感波動異常文章二次分析,。在真實(shí)數(shù)據(jù)上的對比實(shí)驗(yàn)表明,自動摘要-CNN的集成式文檔級情感分析模型在情感分析方面優(yōu)于單一CNN的方法,。
全文鏈接: http://forexkbc.com/article/3000094112
中文引用格式: 王潔,,喬藝璇,彭巖,,等. 基于深度學(xué)習(xí)的美國媒體“一帶一路”輿情的情感分析[J].電子技術(shù)應(yīng)用,,2018,44(11):102-106,,110.
英文引用格式: Wang Jie,,Qiao Yixuan,,Peng Yan,,et al. Sentiment analysis about “One Belt, One Road” public opinion of American media based on deep learning[J]. Application of Electronic Technique,2018,,44(11):102-106,,110.
2.基于深度學(xué)習(xí)的人體行為識別算法
摘要: 為改善人體行為識別任務(wù)中準(zhǔn)確率低的問題,提出了一種基于批歸一化的卷積神經(jīng)網(wǎng)絡(luò)(CNN)與長短期記憶(LSTM)神經(jīng)網(wǎng)絡(luò)結(jié)合的神經(jīng)網(wǎng)絡(luò),。CNN部分引入批歸一化思想,,將輸入網(wǎng)絡(luò)的訓(xùn)練樣本進(jìn)行小批量歸一化處理,經(jīng)過全連接之后,,送入長短期記憶神經(jīng)網(wǎng)絡(luò)中,。該算法采用時空雙流網(wǎng)絡(luò)模型結(jié)構(gòu),視頻數(shù)據(jù)的RGB圖像作為空間流網(wǎng)絡(luò)輸入,,光流場圖像作為時間流網(wǎng)絡(luò)輸入,,再將時空雙流網(wǎng)絡(luò)各自得到的識別結(jié)果進(jìn)行加權(quán)融合得到最終的行為識別結(jié)果。實(shí)驗(yàn)結(jié)果表明,,本文設(shè)計(jì)的時空雙流神經(jīng)網(wǎng)絡(luò)算法在人體行為識別任務(wù)上具有較高的識別準(zhǔn)確率,。
全文鏈接:http://forexkbc.com/article/3000091469
中文引用格式:黃友文,萬超倫. 基于深度學(xué)習(xí)的人體行為識別算法[J].電子技術(shù)應(yīng)用,,2018,,44(10):1-5,10.
英文引用格式: Huang Youwen,,Wan Chaolun. Human behavior recognition algorithm based on deep learning[J]. Application of Electronic Technique,,2018,44(10):1-5,,10.
3.基于TensorFlow深度學(xué)習(xí)手寫體數(shù)字識別及應(yīng)用
摘要:手寫體數(shù)字的識別是人工智能識別系統(tǒng)中的重要組成部分,。因個體手寫數(shù)字的差異,現(xiàn)有識別系統(tǒng)準(zhǔn)確率較低,?;赥ensorFlow深度學(xué)習(xí)框架完成手寫體數(shù)字的識別及應(yīng)用,,首先建立TensorFlow深度學(xué)習(xí)框架,并分析了Softmax,、卷積神經(jīng)網(wǎng)絡(luò)(CNN)模型結(jié)構(gòu),,再對手寫體數(shù)據(jù)集MNIST的60 000個樣本進(jìn)行深度學(xué)習(xí),然后進(jìn)行10 000個樣本的測試對比,,最后移植最優(yōu)模型到Android平臺進(jìn)行應(yīng)用,。實(shí)測數(shù)據(jù)驗(yàn)證,相對于傳統(tǒng)的Softmax模型,,基于TensorFlow深度學(xué)習(xí)CNN模型識別率高達(dá)99.17%,,提升了7.6%,為人工智能識別系統(tǒng)的發(fā)展提供了一定的科研價值,。
全文鏈接:http://forexkbc.com/article/3000091470
中文引用格式:黃睿,,陸許明,鄔依林. 基于TensorFlow深度學(xué)習(xí)手寫體數(shù)字識別及應(yīng)用[J].電子技術(shù)應(yīng)用,,2018,,44(10):6-10.
英文引用格式:Huang Rui,Lu Xuming,,Wu Yilin. Handwriting digital recognition and application based on TensorFlow deep learning[J]. Application of Electronic Technique,,2018,44(10):6-10.
4.基于深度學(xué)習(xí)的實(shí)時識別硬件系統(tǒng)框架設(shè)計(jì)
摘要:設(shè)計(jì)了一種基于深度學(xué)習(xí)的實(shí)時識別硬件系統(tǒng)框架,。該系統(tǒng)框架使用Keras完成卷積神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練并提取出網(wǎng)絡(luò)的參數(shù),,利用ZYNQ器件的FPGA+ARM軟硬件協(xié)同的方式,使用ARM完成對實(shí)時圖像數(shù)據(jù)的采集,、預(yù)處理及顯示,,通過FPGA實(shí)現(xiàn)卷積神經(jīng)網(wǎng)絡(luò)的硬化并對圖像進(jìn)行識別,再將識別結(jié)果發(fā)送至上位機(jī)進(jìn)行實(shí)時顯示,。系統(tǒng)框架采用MNIST和Fashion MNIST數(shù)據(jù)集作為網(wǎng)絡(luò)模型硬化試驗(yàn)樣本,,實(shí)驗(yàn)結(jié)果表明,在一般場景下該系統(tǒng)框架能夠?qū)崟r,、準(zhǔn)確地完成圖像數(shù)據(jù)的獲取,、顯示及識別,并且具有可移植性高,、處理速度快,、功耗低的特點(diǎn)。
全文鏈接:http://forexkbc.com/article/3000091553
中文引用格式:王昆,,周驊. 基于深度學(xué)習(xí)的實(shí)時識別硬件系統(tǒng)框架設(shè)計(jì)[J].電子技術(shù)應(yīng)用,,2018,44(10):11-14.
英文引用格式:Wang Kun,,Zhou Hua. Design of real-time recognition hardware system framework based on deep learning[J]. Application of Electronic Technique,,2018,,44(10):11-14.
5.基于膠囊網(wǎng)絡(luò)的指靜脈識別研究
摘要:針對卷積神經(jīng)網(wǎng)絡(luò)(CNN)中空間上的指靜脈信息丟失的問題,提出了一種基于膠囊網(wǎng)絡(luò)(Capsule Network,,CapsNets)的指靜脈識別算法,。CapsNets在整個學(xué)習(xí)過程中以“膠囊”的形式從底層傳遞至高層,如此以向量的形式封裝指靜脈的多維特征,,特征會在網(wǎng)絡(luò)中被保存,,而不是丟失后進(jìn)行恢復(fù)。采用60 000張圖像作為訓(xùn)練集,,10 000張圖為測試集,,通過對圖像增強(qiáng)、裁剪后進(jìn)行網(wǎng)絡(luò)學(xué)習(xí),。通過實(shí)驗(yàn)表明,,CapsNets的網(wǎng)絡(luò)結(jié)構(gòu)特征相比CNN在處理脊線區(qū)域時效果更加明顯,對比VGG精確度增加了13.6%,,loss值也收斂到0.01,。
全文鏈接:http://forexkbc.com/article/3000091554
中文引用格式: 余成波,,熊遞恩. 于膠囊網(wǎng)絡(luò)的指靜脈識別研究[J].電子技術(shù)應(yīng)用,,2018,44(10):15-18.
英文引用格式:Yu Chengbo,,Xiong Dien. Research on finger vein recognition based on capsule network[J]. Application of Electronic Technique,,2018,44(10):15-18.
6.基于卷積神經(jīng)網(wǎng)絡(luò)的圖像著色
摘要:圖像著色的目標(biāo)是為灰度圖像的每一個像素分配顏色,,它是圖像處理領(lǐng)域的熱點(diǎn)問題,。以U-Net為主線網(wǎng)絡(luò),結(jié)合深度學(xué)習(xí)和卷積神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)了一個全自動的著色網(wǎng)絡(luò)模型,。在該模型中,,支線使用卷積神經(jīng)網(wǎng)絡(luò)SE-Inception-ResNet-v2作為高水平的特征提取器,提取圖像的全局信息,,同時在網(wǎng)絡(luò)中使用PoLU(Power Linear Unit)函數(shù)替代線性整流函數(shù)(ReLU),。實(shí)驗(yàn)結(jié)果證明此著色網(wǎng)絡(luò)模型能夠?qū)叶葓D像進(jìn)行有效的著色。
全文鏈接: http://forexkbc.com/article/3000091637
中文引用格式:徐中輝,,呂維帥. 基于卷積神經(jīng)網(wǎng)絡(luò)的圖像著色[J].電子技術(shù)應(yīng)用,,2018,44(10):19-22.
英文引用格式:Xu Zhonghui,,Lv Weishuai. Image coloring based on convolution neural network[J]. Application of Electronic Technique,,2018,44(10):19-22.
7.深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)系統(tǒng)設(shè)計(jì)及硬件實(shí)現(xiàn)
摘要:針對目前深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)(CNN)在CPU平臺下訓(xùn)練速度慢,、耗時長的問題,,采用現(xiàn)場可編程門陣列(FPGA)硬件平臺設(shè)計(jì)并實(shí)現(xiàn)了一種深度卷積神經(jīng)網(wǎng)絡(luò)系統(tǒng),。該系統(tǒng)采用修正線性單元(ReLU)作為特征輸出的激活函數(shù)并使用Softmax函數(shù)作為輸出分類器。利用流水線技術(shù)并針對每一層的特征運(yùn)算進(jìn)行了并行處理,,從而能夠在1個系統(tǒng)時鐘周期內(nèi)完成整個CNN中的295次卷積運(yùn)算,。系統(tǒng)最后采用MNIST數(shù)據(jù)集作為實(shí)驗(yàn)樣本,實(shí)驗(yàn)結(jié)果表明,,在50 MHz的工作頻率下,,F(xiàn)PGA的訓(xùn)練用時相較于通用CPU的訓(xùn)練用時提升了8.7倍,經(jīng)過2 000次迭代后系統(tǒng)識別的準(zhǔn)確率為92.42%,。
全文鏈接:http://forexkbc.com/article/3000082399
中文引用格式:王昆,,周驊. 深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)系統(tǒng)設(shè)計(jì)及硬件實(shí)現(xiàn)[J].電子技術(shù)應(yīng)用,2018,,44(5):56-59.
英文引用格式:Wang Kun,,Zhou Hua. System design and hardware realization of convolution neural network system in deep learning[J]. Application of Electronic Technique,2018,,44(5):56-59.
8.基于PSO-BP神經(jīng)網(wǎng)絡(luò)的人體穴位定位系統(tǒng)設(shè)計(jì)
摘要: 穴位的位置是否找準(zhǔn)會直接影響治療效果,,因此設(shè)計(jì)了一種基于粒子群算法優(yōu)化神經(jīng)網(wǎng)絡(luò)(PSO-BP)的穴位相對坐標(biāo)預(yù)測模型,然后與ARM結(jié)合構(gòu)成一個可以用于人體穴位定位的系統(tǒng),。首先采用PC進(jìn)行MATLAB仿真訓(xùn)練學(xué)習(xí),,然后將最優(yōu)權(quán)值及閾值保存下來并簡化算法嵌入ARM內(nèi),將在線預(yù)測轉(zhuǎn)變?yōu)殡x線過程,。實(shí)驗(yàn)結(jié)果表明:經(jīng)粒子群優(yōu)化過的BP神經(jīng)網(wǎng)絡(luò)有效地改善了局部極值缺陷,,可應(yīng)用于定位端預(yù)測穴位的位置,并在LCD中顯示穴位相關(guān)信息,,控制端收到位置數(shù)據(jù)后可執(zhí)行電機(jī)上的運(yùn)動操作,。
全文鏈接:http://forexkbc.com/article/3000090355
中文引用格式:楊向萍,吳玉丹. 基于PSO-BP神經(jīng)網(wǎng)絡(luò)的人體穴位定位系統(tǒng)設(shè)計(jì)[J].電子技術(shù)應(yīng)用,,2018,,44(9):75-78.
英文引用格式:Yang Xiangping,Wu Yudan. Acupoint positioning system based on PSO-BP neural network[J]. Application of Electronic Technique,,2018,,44(9):75-78.
9.基于深度學(xué)習(xí)的煙霧識別研究
摘要:基于Google第二代人工智能學(xué)習(xí)系統(tǒng)TensorFlow構(gòu)建神經(jīng)網(wǎng)絡(luò)對煙霧圖像進(jìn)行識別檢測,通過改進(jìn)的運(yùn)動檢測算法截取疑似煙霧區(qū)域圖像,,并結(jié)合PCA降維算法和Inception Resnet v2網(wǎng)絡(luò)模型在TensorFlow平臺下進(jìn)行煙霧特征的訓(xùn)練識別,。該算法實(shí)現(xiàn)了較大范圍的火災(zāi)實(shí)時檢測報(bào)警,經(jīng)過實(shí)驗(yàn)證明整個檢測過程準(zhǔn)確地識別了視頻流中的煙霧區(qū)域,,相比于傳統(tǒng)煙霧識別方法具有更高的準(zhǔn)確率和自適應(yīng)性,,為大范圍的火災(zāi)煙霧報(bào)警提供了一種有效方案。
全文鏈接:http://forexkbc.com/article/3000092836
中文引用格式: 王濤,,宮寧生,,蔣貴祥. 基于深度學(xué)習(xí)的煙霧識別研究[J].電子技術(shù)應(yīng)用,,2018,44(10):131-135.
英文引用格式:Wang Tao,,Gong Ningsheng,,Jiang Guixiang. Smoke recognition based on the depth learning[J]. Application of Electronic Technique,2018,,44(10):131-135.
10.基于深度學(xué)習(xí)的胸部X光影像分析系統(tǒng)
摘要:提出一種應(yīng)用嵌入式技術(shù)和深度學(xué)習(xí)技術(shù)實(shí)現(xiàn)對胸部X光影像分析的設(shè)計(jì)方案,。采用NIVIDIA公司生產(chǎn)的Jetson TX2作為核心板,配備以太網(wǎng)模塊,、WiFi模塊等功能模塊搭建該分析系統(tǒng)的硬件平臺,。在GPU服務(wù)器上利用MobileNets卷積神經(jīng)網(wǎng)絡(luò)對標(biāo)注的胸部X光影像數(shù)據(jù)集進(jìn)行訓(xùn)練,將訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型移植到Jetson TX2核心板,,在嵌入式平臺下完成對胸腔積液,、浸潤、肺氣腫,、氣胸以及肺不張癥狀的檢測,。利用美國國立衛(wèi)生研究院提供的胸部X光影像數(shù)據(jù)進(jìn)行測試,通過實(shí)驗(yàn)證明,,該方法在識別準(zhǔn)確率上優(yōu)于其他的檢測方法,,同時識別所需時間比其他方法短。
全文鏈接:http://forexkbc.com/article/3000093435
中文引用格式:周進(jìn)凡,,張榮芬,,馬治楠,,等. 基于深度學(xué)習(xí)的胸部X光影像分析系統(tǒng)[J].電子技術(shù)應(yīng)用,,2018,44(11):29-32.
英文引用格式:Zhou Jinfan,,Zhang Rongfen,,Ma Zhinan,et al. Chest X-ray image analysis system based on deep learning[J]. Application of Electronic Technique,,2018,,44(11):29-32.
11.基于深度學(xué)習(xí)的圖像分類方法
摘要:提出了一種用于圖像分類的卷積神經(jīng)網(wǎng)絡(luò),將不同池化方式對圖像分類的影響進(jìn)行了分析對比,,采用重疊池化和dropout技術(shù),,較好地解決過擬合問題。與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)相比,,該方法在CIFAR-10數(shù)據(jù)集上獲得了較好的結(jié)果,,在測試集上準(zhǔn)確率比訓(xùn)練集上準(zhǔn)確率高9%左右。
全文鏈接:http://forexkbc.com/article/3000084504
中文引用格式: 許少尉,,陳思宇. 基于深度學(xué)習(xí)的圖像分類方法[J].電子技術(shù)應(yīng)用,,2018,,44(6):116-119.
英文引用格式: Xu Shaowei,Chen Siyu. Image classification method based on deep learning[J]. Application of Electronic Technique,,2018,,44(6):116-119.
12.基于機(jī)器視覺的智能導(dǎo)盲眼鏡設(shè)計(jì)
摘要:提出一種基于機(jī)器視覺的智能導(dǎo)盲眼鏡系統(tǒng)的設(shè)計(jì)方案。采用三星公司Cortex-A8架構(gòu)的 S5PV210作為中央處理器,,搭載Linux系統(tǒng),,配備雙目采集、GPS定位,、語音播報(bào),、GSM短信、語音通話,、無線傳輸六大核心功能模塊搭建智能導(dǎo)盲眼鏡系統(tǒng)的硬件平臺,,結(jié)合深度學(xué)習(xí)算法在遠(yuǎn)程云服務(wù)器上完成了對目標(biāo)場景的智能識別,最后以語音的形式實(shí)時對盲人的行走作出準(zhǔn)確引導(dǎo),。系統(tǒng)測試結(jié)果表明,,該智能導(dǎo)盲眼鏡系統(tǒng)在測試環(huán)境下不僅能對盲人出行正確導(dǎo)航,還具有一定的目標(biāo)識別能力,,能幫助盲人進(jìn)行簡易物品歸類,。該系統(tǒng)還兼有GPS定位、語音通話,、GSM短信等多項(xiàng)輔助功能,。
全文鏈接:http://forexkbc.com/article/3000064090
中文引用格式: 何騰鵬,張榮芬,,劉超,,等. 基于機(jī)器視覺的智能導(dǎo)盲眼鏡設(shè)計(jì)[J].電子技術(shù)應(yīng)用,2017,,43(4):58-61.
英文引用格式: He Tengpeng,,Zhang Rongfen,Liu Chao,,et al. Design of smart seeing glasses based on machine vision[J].Application of Electronic Technique,,2017,43(4):58-61.
13.基于深度學(xué)習(xí)的無人機(jī)識別算法研究
摘要:無人機(jī)的廣泛運(yùn)用,,在給人們帶來便利的同時,,也引發(fā)了不良影響。比如,,無人機(jī)飛入禁飛區(qū)引發(fā)安全問題,,由于不正當(dāng)?shù)氖褂们址腹竦碾[私等,因此需要構(gòu)建一個無人機(jī)警察系統(tǒng),對無人機(jī)實(shí)施監(jiān)控,,遏制亂飛現(xiàn)象,。采用傳統(tǒng)的識別方法,靈活性不足,,精度也不夠高,。為此提出一種基于深度學(xué)習(xí)的無人機(jī)識別算法,通過訓(xùn)練一個基于卷積神經(jīng)網(wǎng)絡(luò)(CNNs)的學(xué)習(xí)網(wǎng)絡(luò),,得出一個高效的識別模型,,實(shí)現(xiàn)無人機(jī)和非無人機(jī)間的分類。模型的測試結(jié)果表明,,該方法具有較高的識別率,。
全文鏈接:http://forexkbc.com/article/3000068878
中文引用格式:蔣兆軍,成孝剛,,彭雅琴,,等. 基于深度學(xué)習(xí)的無人機(jī)識別算法研究[J].電子技術(shù)應(yīng)用,2017,,43(7):84-87.
英文引用格式: Jiang Zhaojun,,Cheng Xiaogang,Peng Yaqin,,et al. A novel UAV recognition algorithm based on deep learning approach[J].Application of Electronic Technique,,2017,43(7):84-87.
14.基于視覺引導(dǎo)的SCARA機(jī)器人自動裝配系統(tǒng)
摘要:現(xiàn)有生產(chǎn)線工業(yè)機(jī)器人抓取點(diǎn)固定,,工件只能以固定的姿態(tài)提前擺放在固定的位置,,這種裝配模式很難滿足復(fù)雜的工業(yè)生產(chǎn)要求且效率低下。設(shè)計(jì)了基于視覺引導(dǎo)的機(jī)器人裝配系統(tǒng)改進(jìn)原有系統(tǒng),。設(shè)計(jì)了機(jī)器視覺系統(tǒng),,實(shí)現(xiàn)了工件的快速識別、定位以及姿態(tài)確定功能,;設(shè)計(jì)了抓放系統(tǒng),,實(shí)現(xiàn)了工件的精確抓取和安裝功能;采用Visual Studio的MFC開發(fā),,實(shí)現(xiàn)圖像處理算法,并利用Socket通信將坐標(biāo)和姿態(tài)數(shù)據(jù)發(fā)送給機(jī)器人,。通過實(shí)驗(yàn)驗(yàn)證本系統(tǒng)具有良好的穩(wěn)定性和快速性,,可以滿足生產(chǎn)的要求,大幅提高生產(chǎn)效率,。
全文鏈接: http://forexkbc.com/article/3000065381
中文引用格式:黨宏社,,候金良,強(qiáng)華,,等. 基于視覺引導(dǎo)的SCARA機(jī)器人自動裝配系統(tǒng)[J].電子技術(shù)應(yīng)用,,2017,,43(5):21-24.
英文引用格式: Dang Hongshe,Hou Jinliang,,Qiang Hua,,et al. SCARA automatic assembly system based on vision guided[J].Application of Electronic Technique,2017,,43(5):21-24.