《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 人工智能 > 設(shè)計應(yīng)用 > 基于動態(tài)圖卷積的點云補全網(wǎng)絡(luò)
基于動態(tài)圖卷積的點云補全網(wǎng)絡(luò)
電子技術(shù)應(yīng)用 2023年6期
季建杰1,,劉杰2,,邵劍飛1,張建華3
(1.昆明理工大學(xué) 信息工程與自動化學(xué)院,,云南 昆明 650504,;2.云南警官學(xué)院,云南 昆明 650223,; 3.云南中勘測繪工程有限公司,,云南 昆明 650034)
摘要: 大多數(shù)傳統(tǒng)的深度學(xué)習(xí)點云補全學(xué)習(xí)方法僅僅使用了全局特征而忽略了局部特征,為了更好地提取和使用點云的局部特征,,提出了一個基于深度學(xué)習(xí)的端到端點云補全網(wǎng)絡(luò),。在點云補全網(wǎng)絡(luò)(PCN)的基礎(chǔ)上,編碼部分引入針對局部特征改進(jìn)的動態(tài)圖卷積(DGCNN),,使用多個不同維度的邊卷積提取較為豐富的局部特征,,并按照距離弱化遠(yuǎn)點的特征;然后用深度殘差網(wǎng)絡(luò)連接的思想優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu)以實現(xiàn)多尺度特征的融合,,并加入平均池化彌補全局池化造成的信息損失,;在解碼部分引入折疊網(wǎng)絡(luò)(FoldingNet),使輸出的點云更加完整。實驗結(jié)果表明,,該點云補全網(wǎng)絡(luò)相對PCN等點云補全網(wǎng)絡(luò)有部分提升,,驗證了新方法的有效性。
中圖分類號:TP391.41
文獻(xiàn)標(biāo)志碼:A
DOI: 10.16157/j.issn.0258-7998.223446
中文引用格式: 季建杰,,劉杰,,邵劍飛,等. 基于動態(tài)圖卷積的點云補全網(wǎng)絡(luò)[J]. 電子技術(shù)應(yīng)用,,2023,,49(6):18-23.
英文引用格式: Ji Jianjie,Liu Jie,,Shao Jianfei,,et al. Point cloud completion network based on dynamic graph convolution[J]. Application of Electronic Technique,2023,,49(6):18-23.
Point cloud completion network based on dynamic graph convolution
Ji Jianjie1,Liu Jie2,,Shao Jianfei1,Zhang Jianhua3
(1.Faculty of Information Engineering and Automation,,Kunming University of Science and Technology,, Kunming 650504,, China,; 2.Yunnan Police College,, Kunming 650223,,China,; 3.Yunnan Zhongkan Surveying and Mapping Engineering Company, Kunming 650034,,China)
Abstract: Most traditional deep learning point cloud complement learning methods only use the global features and ignore the local features. In order to better extract and use the local features of point cloud, an end-to-end cloud completion network based on deep learning is proposed in this paper. On the basis of point cloud completion network (PCN), the coding part introduces dynamic graph convolution (DGCNN) improved for local features. The edge convolution of multiple different dimensions is used to extract more abundant local features, and weaken the characteristics of the far point according to the distance. Then the network structure is optimized with the idea of deep residual network connection to achieve the fusion of multi-scale features, and the mean pooling method is added to compensate for the information loss caused by global pooling. In the decoder part, FoldingNet was used to make the output point cloud complete. The experimental results show that the point cloud completion network is partially improved compared with PCN and other point cloud completion networks, which verifies the effectiveness of the new method.
Key words : image processing,;3D point cloud,;convolutional neural networks,;shape completion

0 引 言

近年來,,點云作為一種較好的三維形狀表達(dá),,廣泛應(yīng)用于自動駕駛、計算機視覺領(lǐng)域,。然而在實際應(yīng)用中,由于設(shè)備分辨率或者存在遮擋等不可避免的原因,,捕獲的點云往往是殘缺的,,因此,更好地補全缺失點云是現(xiàn)在亟待解決的問題,。

基于深度學(xué)習(xí)的方法處理點云已經(jīng)取得了諸多進(jìn)展,,PointNet[4]是首次將深度學(xué)習(xí)應(yīng)用在點云中,,設(shè)計了針對點云的特征提取模塊,。PointNet++將最遠(yuǎn)點采樣和基于半徑的球查詢引入到了點云的特征提取中,,用于選定局部區(qū)域點云,,但這種方法僅僅局限于區(qū)域中的單個點,缺少了和其他點的拓?fù)湫畔?。點云補全網(wǎng)絡(luò)(PCN)是直接從點中提取特征,然后通過解碼器輸出完整點云,,由于PCN使用的是PointNet的點云特征提取模塊,導(dǎo)致對于局部特征沒有很好地提取,。Wang等提出的動態(tài)圖卷積神經(jīng)網(wǎng)絡(luò)(DGCNN)對每個輸入點云的點,都計算其K近鄰的點之間的邊特征,,從而得到點云的局部特征,,有很好的局部特征提取能力。但當(dāng)輸入的點云較為稀疏時,,其K近鄰已不能很好代表周圍的點,,且池化方法仍然是最大池化,,得到的點云局部特征損失嚴(yán)重,。




本文詳細(xì)內(nèi)容請下載:http://forexkbc.com/resource/share/2000005342




作者信息:

季建杰1,,劉杰2,邵劍飛1,,張建華3

(1.昆明理工大學(xué) 信息工程與自動化學(xué)院,云南 昆明 650504,;2.云南警官學(xué)院,,云南 昆明 650223,;

3.云南中勘測繪工程有限公司,,云南 昆明 650034)


微信圖片_20210517164139.jpg

此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載,。