《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 其他 > 設(shè)計應(yīng)用 > 基于深度注意力的融合全局和語義特征的圖像描述模型
基于深度注意力的融合全局和語義特征的圖像描述模型
網(wǎng)絡(luò)安全與數(shù)據(jù)治理
及昕浩,,彭玉青
(河北工業(yè)大學人工智能與數(shù)據(jù)科學學院,天津300401)
摘要: 現(xiàn)有的圖像描述模型使用全局特征時受限于感受野大小相同,,而基于對象區(qū)域的圖像特征缺少背景信息,。為此,,提出了一種新的語義提取模塊提取圖像中的語義特征,使用多特征融合模塊將全局特征與語義特征進行融合,,使得模型同時關(guān)注圖像的關(guān)鍵對象內(nèi)容信息和背景信息,。并提出基于深度注意力的解碼模塊,對齊視覺和文本特征以生成更高質(zhì)量的圖像描述語句,。所提模型在Microsoft COCO數(shù)據(jù)集上進行了實驗評估,,分析結(jié)果表明該方法能夠明顯提升描述的性能,相較于其他先進模型具有競爭力。
中圖分類號:TP391文獻標識碼:ADOI: 10.19358/j.issn.2097-1788.2024.02.008
引用格式:及昕浩,,彭玉青.基于深度注意力的融合全局和語義特征的圖像描述模型[J].網(wǎng)絡(luò)安全與數(shù)據(jù)治理,,2024,43(2):49-53.
Deep attention based image caption model with fusion of global and semantic feature
Ji Xinhao,,Peng Yuqing
(School of Artificial Intelligence, Hebei University of Technology, Tianjin 300401,China)
Abstract: Aiming at the problems that existing image caption generation models face limitations when utilizing global features due to the fixed receptive field size, and object region based image features lack background information, an image caption model(DFGS) is proposed. A multifeature fusion module is designed to fuse global and semantic feature, allowing the model to focus on key object and background information in the image. A deep attentionbased decoding module is designed to align visual and textual features, enhancing the generation of higher quality image description statements. Experimental results on MSCOCO dataset show that the proposed model can produce more accurate captions, and is competitive compared with other advanced models.
Key words : image caption; global feature; semantic feature; feature fusion

引言

圖像描述[1-2]是一種使用自然語言描述圖像內(nèi)容的任務(wù),,是一項涉及計算機視覺領(lǐng)域和自然語言處理領(lǐng)域的跨領(lǐng)域研究內(nèi)容。目前大多數(shù)方法使用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)編碼圖像以提取圖像特征,,然后使用Transformer網(wǎng)絡(luò)結(jié)構(gòu)來解析圖像特征并生成描述語句,。Pan等人[3]提出了XLinear注意力塊來捕獲單或多模態(tài)之間的二階相互作用,并將其集成到Transformer編碼器和解碼器中,。Cornia等人[4]在Transformer編碼器和解碼器中設(shè)計了類似網(wǎng)格的連接,,以利用編碼器的低級和高級特征。多數(shù)研究者針對Transformer網(wǎng)絡(luò)結(jié)構(gòu)進行改進,,沒有關(guān)注CNN提取到的圖像特征其對應(yīng)的感受野是均勻的網(wǎng)格,,難以明顯地關(guān)注圖像中對象內(nèi)容信息的問題。此外Transformer模型中的注意力機制僅僅是隱式地計算單個區(qū)域和其他區(qū)域的相似性,,無法捕捉長距離的關(guān)系,。


作者信息:

及昕浩,彭玉青

(河北工業(yè)大學人工智能與數(shù)據(jù)科學學院,,天津300401)


文章下載地址:http://forexkbc.com/resource/share/2000005902


weidian.jpg

此內(nèi)容為AET網(wǎng)站原創(chuàng),,未經(jīng)授權(quán)禁止轉(zhuǎn)載。