基于機(jī)器視覺的帶鋼焊縫定位
冷軋連退生產(chǎn)線的原材料為帶鋼卷,為保持生產(chǎn)的連續(xù)性,需將前一個(gè)帶鋼卷的尾部與后一個(gè)帶鋼卷的頭部焊接起來,從而得到連續(xù)的帶鋼材料。為了避免焊縫焊接質(zhì)量問題引起的帶鋼撕裂或者斷帶事故的發(fā)生[1],需要對(duì)焊接質(zhì)量進(jìn)行檢測(cè),文中分析了帶鋼焊縫焊接質(zhì)量的自動(dòng)檢測(cè)系統(tǒng)中應(yīng)用旋轉(zhuǎn)目標(biāo)檢測(cè)算法對(duì)月牙邊焊縫的識(shí)別和定位算法及評(píng)判標(biāo)準(zhǔn),并進(jìn)行了實(shí)驗(yàn)分析。
本文引用地址:http://2s4d.com/article/202212/442064.htm1 算法分析
1.1 CenterNet
CenterNet 網(wǎng)絡(luò)的輸出為3 個(gè)部分,依靠邊緣特征信息獲取的檢測(cè)目標(biāo)中心點(diǎn)的預(yù)測(cè)熱力圖,匹配角點(diǎn)獲取預(yù)測(cè)寬高模塊(Object Size) 回歸目標(biāo)的寬和高,Offsets 模塊回歸中心點(diǎn)偏移量[3-4]。
1.2 金字塔分割注意力
為了在不增加模型復(fù)雜度的前提下解決主流注意力目前存在的問題,金字塔分割注意力(PSA Module) 機(jī)制以通道注意力機(jī)制為基礎(chǔ)[5-6],通過使用不同大小的卷積核來獲取多尺度的特征圖。輸入特征圖通過四個(gè)不同大小卷積核的卷積操作將特征圖切分為4 個(gè)部分,接著對(duì)含有不同尺度特征的特征圖進(jìn)行拼接,定義如式(1)所示。
其中,Cat 為concat 算子;Z 為多尺度注意力權(quán)重向量。
直接拼接的多尺度注意力權(quán)重向量不滿足所有權(quán)重之和為1,通過使用Softmax 對(duì)多尺度注意力權(quán)重進(jìn)行全局歸一化實(shí)現(xiàn)了局部與全局通道注意力的交互,定義如式(4)所示。
其中,att 代表注意力交互后的多尺度通道注意力權(quán)重。
在獲取多尺度預(yù)處理的特征圖F 和重新校準(zhǔn)的多尺度通道注意力權(quán)重att 后,將兩者按對(duì)應(yīng)元素進(jìn)行點(diǎn)乘操作,輸出含有多尺度特征信息注意力的特征圖,定義如式(5) 所示。
其中, ? 代表按通道方式的乘法;注意力交互后的多尺度通道權(quán)重。Y 代表得到的含有多尺度特征信息注意力的特征圖。
1.3 定位算法
1.3.1 R-Center Net
通過使用改進(jìn)的R-CenterNet 算法對(duì)月牙邊焊縫進(jìn)行旋轉(zhuǎn)目標(biāo)檢測(cè), R-CenterNet 相較于CenterNet 在經(jīng)過上采樣獲取高分辨率特征圖后的head 部分,增加了一路特征圖來回歸矩形框的旋轉(zhuǎn)角度信息。增加的這一路特征圖的構(gòu)建方法與寬高圖的獲取方法相同,不同點(diǎn)為獲取含有旋轉(zhuǎn)因子角度圖的卷積層僅需要1 個(gè)輸出通道。
1.3.2 損失函數(shù)
R-CenterNet 算法的損失函數(shù)為熱力圖的中心點(diǎn)預(yù)測(cè)損失函數(shù)、寬高圖的尺寸預(yù)測(cè)損失函數(shù)、中心點(diǎn)修正圖的中心點(diǎn)偏置損失函數(shù)和角度圖的損失函數(shù)之和,定義如式(6)所示。
2 實(shí)驗(yàn)與分析
2.1 實(shí)驗(yàn)環(huán)境
實(shí)驗(yàn)服務(wù)器的硬件配置分別為15.5 GiB 內(nèi)存,Intel Core i7-6800K 中央處理器,NVIDIA GTX1080Ti圖形處理器。軟件配置分別為Ubuntu16.04,Python3.7編程語言,PyTorch 深度學(xué)習(xí)框架。
2.2 數(shù)據(jù)采集及評(píng)估
從生產(chǎn)現(xiàn)象采集了1 200 張?jiān)卵肋厽o規(guī)律位置的樣本圖像,隨機(jī)選取1 000 張作為訓(xùn)練集,返回?fù)p失更新模型權(quán)重,100 張作為驗(yàn)證集,計(jì)算訓(xùn)練模型的損失但不返回,僅用來判斷當(dāng)前模型性能并判斷是否保存當(dāng)前模型,其余100 張作為測(cè)試集,通過輸出模型的評(píng)價(jià)指標(biāo)來檢測(cè)模型的泛化能力。
從生產(chǎn)線上切割下來的月牙邊被機(jī)械臂隨機(jī)的放置在定位相機(jī)的視覺區(qū)域內(nèi),其中采集圖像的尺寸為3 648×3 648。數(shù)據(jù)集使用labelImg2 進(jìn)行標(biāo)注,圖2 對(duì)應(yīng)的標(biāo)注信息如表1 所示,其中cx 和cy 分別代表標(biāo)注中心點(diǎn)橫縱坐標(biāo),w 和h 分別代表標(biāo)注框的寬和高,單位均為像素值。angle 代表標(biāo)注框相對(duì)于垂直向上順時(shí)針的旋轉(zhuǎn)角度,單位為弧度制。
焊縫定位實(shí)驗(yàn)的算法網(wǎng)絡(luò),采用4 個(gè)評(píng)價(jià)指標(biāo)來評(píng)估模型的性能,分別為:精確率(P)、召回率(R)、F 值(F)和檢測(cè)速度(S)。
圖2 焊縫定位實(shí)驗(yàn)月牙邊樣本
其中精確率的定義如式(11)所示。
其中,num_image為測(cè)試集的圖片數(shù)量,time 為檢測(cè)測(cè)試集圖片的總時(shí)間。
2.3 實(shí)驗(yàn)結(jié)果分析
通過實(shí)驗(yàn)對(duì)比不同骨干網(wǎng)絡(luò)下R-CenterNet的性能,設(shè)計(jì)了不同骨干網(wǎng)絡(luò)的3組對(duì)比方案進(jìn)行驗(yàn)證。驗(yàn)證實(shí)金字塔分割注意力的有效性,實(shí)驗(yàn)的不同方案所使用結(jié)構(gòu)如表2 所示。
表3 所有方案使用相同的參數(shù):①初始學(xué)習(xí)率設(shè)置為0.000125,總訓(xùn)練步數(shù)為50 步,從第20 步開始每隔10 步將初始學(xué)習(xí)率乘以0.1;②優(yōu)化器采用Adam,權(quán)重衰減設(shè)置為0.0001;③訓(xùn)練集和驗(yàn)證集的批量均設(shè)置為4,訓(xùn)練集進(jìn)行隨機(jī)打亂處理,驗(yàn)證集不進(jìn)行打亂處理。
在獲取最優(yōu)模型后通過測(cè)試集對(duì)模型進(jìn)行評(píng)估,設(shè)置所有實(shí)驗(yàn)方案的中心點(diǎn)置信度閾值為0.3、預(yù)測(cè)框與標(biāo)注框的重合度閾值為0.3,所得的輸出精確率(P)、召回率(R)、F 值(F)和檢測(cè)速度(S)如表3 所示。
由表3 方案1 與方案2 的數(shù)據(jù)可知,增加網(wǎng)絡(luò)深度不能提高本章實(shí)驗(yàn)的模型精度,反而會(huì)減少一定的檢測(cè)速度。將骨干網(wǎng)絡(luò)更換為DLANet 后,精確率、召回率和F 值分別上升了1.01、1.00 和1.00 個(gè)百分點(diǎn),單張圖片的檢測(cè)時(shí)間減少了6.4 ms 秒。方案4 證明了在提取特征時(shí)使用金字塔分割注意力均能較明顯的提高檢測(cè)結(jié)果的F 值。金字塔分割注意力使該模型的精確率增加了1.01 個(gè)百分點(diǎn),召回率提高了1.00 個(gè)百分點(diǎn),說明該模塊主要增強(qiáng)的是模型精確率。
3 結(jié)束語
本文通過對(duì)比試驗(yàn)證明基于DLANet 骨干網(wǎng)絡(luò)的算法檢測(cè)速度更快、檢測(cè)精度更高。同時(shí)證明了金字塔分割注意力能夠增強(qiáng)模型的泛化能力,實(shí)驗(yàn)結(jié)果表面旋轉(zhuǎn)目標(biāo)檢測(cè)算法能夠?qū)M足月牙邊焊縫的識(shí)別和定位要求。
參考文獻(xiàn):
[1] 趙宗楠,劉文亮,歐家.搭接滾壓焊機(jī)傳動(dòng)側(cè)焊縫開裂原因分析[J].南方金屬,2022(1):6-9.
[2] 余瓊,賈建,唐萬象.連退機(jī)組在線全自動(dòng)帶鋼焊縫感應(yīng)退火裝置研究與開發(fā)[J].冶金動(dòng)力,2020(6):71-74.
[3] 邵光梅.基于深度卷積網(wǎng)絡(luò)的板帶鋼表面缺陷類別檢測(cè)[D].馬鞍山:安徽工業(yè)大學(xué),2019.
[4] TULBURE A A, DULF E H. A review on modern defect detection models using DCNNs–Deep convolutional neural networks[J].Journal of Advanced Research, 2022,35: 33-48.
[5] JIANG Y, ZHU X, WANG X, et al. R2CNN: Rotational region CNN for orientation robust scene text detection[J].arXiv preprint arXiv:1706.09579, 2017.
[6] 王明陽(yáng),王江濤,劉琛.基于關(guān)鍵點(diǎn)的遙感圖像旋轉(zhuǎn)目標(biāo)檢測(cè)[J].電子測(cè)量與儀器學(xué)報(bào),2021,35(6):102-108.
(本文來源于《電子產(chǎn)品世界》雜志2022年12月期)
評(píng)論