《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 人工智能 > 設(shè)計(jì)應(yīng)用 > 面向密集行人場(chǎng)景的YOLOv8n改進(jìn)算法
面向密集行人場(chǎng)景的YOLOv8n改進(jìn)算法
電子技術(shù)應(yīng)用
王麗黎1,,2,,樊盼盼1,,張?jiān)娪?
1.西安理工大學(xué) 自動(dòng)化與信息工程學(xué)院,;2.無(wú)線光通信與網(wǎng)絡(luò)研究重點(diǎn)實(shí)驗(yàn)室
摘要: 為了解決傳統(tǒng)算法在密集行人場(chǎng)景中識(shí)別精度不足和檢測(cè)不準(zhǔn)確的問題,提出一種基于YOLOv8n的改進(jìn)型密集行人檢測(cè)模型,。首先,,引入SPPELAN模塊替換骨干網(wǎng)絡(luò)中的SPPF模塊,以提升模型對(duì)多尺度目標(biāo)的特征感知能力,。其次,,設(shè)計(jì)一種殘差注意力機(jī)制,提高模型對(duì)細(xì)微特征的提取能力,,進(jìn)而提高檢測(cè)精度,。最后通過添加DySample算子、改進(jìn)的小目標(biāo)檢測(cè)層提高模型對(duì)小尺度目標(biāo)的定位識(shí)別能力,。實(shí)驗(yàn)結(jié)果顯示,,改進(jìn)的模型相較于YOLOv8n在CrowdHuman數(shù)據(jù)集上的召回率、mAP50和mAP50-95分別提升了2.5%,、2.9%和2.4%,,并且該模型在WiderPerson和CityPersons數(shù)據(jù)集上表現(xiàn)優(yōu)異。實(shí)驗(yàn)結(jié)果表明,,該算法能更好適用于密集行人檢測(cè)任務(wù),。
中圖分類號(hào):TP391.41 文獻(xiàn)標(biāo)志碼:A DOI: 10.16157/j.issn.0258-7998.245589
中文引用格式: 王麗黎,,樊盼盼,張?jiān)娪? 面向密集行人場(chǎng)景的YOLOv8n改進(jìn)算法[J]. 電子技術(shù)應(yīng)用,,2025,,51(2):15-20.
英文引用格式: Wang Lili,F(xiàn)an Panpan,,Zhang Shiyu. An improved YOLOv8n algorithm for dense pedestrian scenarios[J]. Application of Electronic Technique,,2025,51(2):15-20.
An improved YOLOv8n algorithm for dense pedestrian scenarios
Wang Lili1,,2,,F(xiàn)an Panpan1,Zhang Shiyu1
1.School of Automation and Information Engineering,, Xi’an University of Technology,; 2.Key Laboratory of Wireless Optical Communication and Network Research
Abstract: To address the issues of insufficient recognition accuracy and inaccurate detection of traditional algorithms in dense pedestrian scenarios, an improved dense pedestrian detection model based on YOLOv8n is proposed. Firstly, by introducing the SPPELAN module to replace the SPPF module in the backbone network, the model’s ability to perceive features of multi-scale targets is enhanced. Secondly, a residual attention mechanism is devised to improve the model’s ability to capture subtle features, thereby enhancing detection accuracy. Finally, by adding DySample operator and improving the small object detection layer, the model’s ability to locate and recognize small-scale objects is enhanced. Experimental results show that the improved model, compared to YOLOv8n, increases recall rate, mAP50, and mAP50-95 by 2.5%, 2.9%, and 2.4%, respectively, on the CrowdHuman dataset, and performs excellently on the WiderPerson and CityPersons datasets. The results of the experiments show that this algorithm is more effective for dense pedestrian detection tasks.
Key words : YOLOv8n;dense pedestrian detection,;SPPELAN module,;residual attention mechanism;DySample,;small object detection layer

引言

近年來隨著自動(dòng)駕駛,、視頻監(jiān)控系統(tǒng)的高速發(fā)展,,現(xiàn)實(shí)需求對(duì)行人檢測(cè)要求越來越高,。傳統(tǒng)的行人檢測(cè)算法根據(jù)檢測(cè)方法的不同,分為雙階段檢測(cè)算法和單階段檢測(cè)算法,。常見的雙階段目標(biāo)檢測(cè)算法主要包含目標(biāo)定位和目標(biāo)分類兩個(gè)步驟,。首先,提取出圖像中所有可能包含目標(biāo)的區(qū)域,,即目標(biāo)定位,。然后對(duì)所提取的每個(gè)區(qū)域進(jìn)行分類,確定含有的目標(biāo)類型,。常見算法包括Faster R-CNN[1],、RetinaNet[2]等。單階段檢測(cè)算法是直接將從圖像中提取的特征進(jìn)行位置預(yù)測(cè)和種類識(shí)別,,常見的單階段檢測(cè)算法包括YOLO等,。

傳統(tǒng)的目標(biāo)檢測(cè)算法在大多數(shù)現(xiàn)實(shí)場(chǎng)景中都取得了不錯(cuò)的效果,但是在一些密集場(chǎng)景中,,如大型商場(chǎng),、景區(qū)、人流量大的客運(yùn)站等,,算法對(duì)行人目標(biāo)的檢測(cè)性能仍需要提升,,主要原因是密集場(chǎng)景中的行人目標(biāo)密集且行人尺度不一。

針對(duì)密集目標(biāo)檢測(cè)中目標(biāo)數(shù)量多、尺寸不一的問題,,王澤宇等[3]基于YOLOv8n提出密集行人檢測(cè)算法MER-YOLO,,使用MobileVit作為主干網(wǎng)絡(luò)提升模型對(duì)聚集區(qū)域的特征提取能力,之后通過引入高效多尺度注意力(Efficient Multi-scale Attention,,EMA)提高全局信息交互能力,,采用排斥損失函數(shù)作為邊界損失函數(shù)降低模型的漏檢情況。黃昆等[4]基于YOLOv8提出檢測(cè)算法Crowd-YOLOv8,,通過使用nostride-Conv-SPD模塊加強(qiáng)網(wǎng)絡(luò)對(duì)細(xì)微信息的特征提取能力,,并引入小目標(biāo)檢測(cè)頭和上采樣算子對(duì)多尺度特征進(jìn)行融合,增強(qiáng)了小尺度目標(biāo)檢測(cè)效果,。呂志軒等[5]提出了多分支無(wú)錨框行人檢測(cè)算法MBAN,,該算法通過在主干網(wǎng)絡(luò)后引入多分支網(wǎng)絡(luò)結(jié)構(gòu),并結(jié)合距離損失函數(shù)來對(duì)關(guān)鍵區(qū)域進(jìn)行指導(dǎo),,使網(wǎng)絡(luò)對(duì)行人局部檢測(cè)位置進(jìn)行差異化學(xué)習(xí),,強(qiáng)化對(duì)行人局部特征的捕捉,改善網(wǎng)絡(luò)對(duì)遮擋行人的識(shí)別能力,。

為了有效解決上述問題,,本文提出了一種基于YOLOv8n模型改進(jìn)的密集行人檢測(cè)算法,旨在增強(qiáng)對(duì)多尺度行人目標(biāo)的特征提取能力,,加強(qiáng)檢測(cè)頭的定位檢測(cè)能力,,更好識(shí)別密集行人目標(biāo),提升檢測(cè)精度,。


本文詳細(xì)內(nèi)容請(qǐng)下載:

http://forexkbc.com/resource/share/2000006319


作者信息:

王麗黎1,,2,樊盼盼1,,張?jiān)娪?

(1.西安理工大學(xué) 自動(dòng)化與信息工程學(xué)院,,陜西 西安 710048;

2.無(wú)線光通信與網(wǎng)絡(luò)研究重點(diǎn)實(shí)驗(yàn)室,,陜西 西安 710048)


Magazine.Subscription.jpg

此內(nèi)容為AET網(wǎng)站原創(chuàng),,未經(jīng)授權(quán)禁止轉(zhuǎn)載。