新聞中心

EEPW首頁(yè) > 智能計(jì)算 > 設(shè)計(jì)應(yīng)用 > 基于卷積神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別檢測(cè)分析

基于卷積神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別檢測(cè)分析

作者:褚新建(鄭州工業(yè)應(yīng)用技術(shù)學(xué)院機(jī)電工程學(xué)院,鄭州 451100) 時(shí)間:2023-08-22 來(lái)源:電子產(chǎn)品世界 收藏
編者按:為了提高人臉識(shí)別檢測(cè)精度,應(yīng)用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行分析。在建立AlexNet網(wǎng)絡(luò)結(jié)構(gòu)的基礎(chǔ)上,將Dropout技術(shù)引進(jìn)全連接層中,給出了具體的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)參數(shù)。研究結(jié)果表明:本文算法表現(xiàn)出較高的召回率,人臉簽到系統(tǒng)的基礎(chǔ)需求得到滿足。側(cè)臉及戴頭盔遮擋照片觀察對(duì)比得出,檢測(cè)人臉圖片的準(zhǔn)確度及清晰度均相對(duì)較高,表明對(duì)于部分遮擋人臉或側(cè)臉采用本文算法展示的魯棒性較佳。該研究有助于提高在遮擋情況下人臉識(shí)別能力,對(duì)圖像處理優(yōu)化起到一定的理論支撐。

基金項(xiàng)目:河南省高等學(xué)校青年骨干教師培養(yǎng)計(jì)劃,項(xiàng)目編號(hào):2021GGJS190

本文引用地址:http://2s4d.com/article/202308/449818.htm

0 引言

技術(shù)的關(guān)鍵就在于人臉檢測(cè),作為重要研究方向廣泛應(yīng)用于模式識(shí)別和計(jì)算機(jī)識(shí)別領(lǐng)域[1]。人工設(shè)計(jì)特征作為傳統(tǒng)人臉檢測(cè)方法的重要監(jiān)測(cè)依據(jù)。目前由于人臉檢測(cè)算法表現(xiàn)出較高的,因而應(yīng)用于多個(gè)領(lǐng)域[2]。人臉檢測(cè)算法結(jié)合深度學(xué)習(xí)在得到廣泛應(yīng)用下逐漸獲取進(jìn)一步發(fā)展,早已作為主流研究方法應(yīng)用于各領(lǐng)域,檢測(cè)準(zhǔn)確率高于傳統(tǒng)方法,超過(guò)95%[3],拓展研究具有重要的意義。

近年,技術(shù)早已被Facebook、Google、商湯科技、曠世科技應(yīng)用融入到各個(gè)領(lǐng)域,尤其是在不斷持續(xù)進(jìn)步發(fā)展的趨勢(shì)[4]。很多挑戰(zhàn)和問(wèn)題在實(shí)際應(yīng)用環(huán)節(jié)始終存在。盡管從識(shí)別準(zhǔn)確度來(lái)看,在LFW 數(shù)據(jù)集中應(yīng)用多種方式均可獲取較佳結(jié)果,人眼識(shí)別能力也得到顯著提升,然而必須要選取大量訓(xùn)練樣本訓(xùn)練各深度模型,倘若研究機(jī)構(gòu)場(chǎng)所小型化或?qū)儆诟咝?,?shí)現(xiàn)相對(duì)較為困難[5]。所以目前亟需解決的主要問(wèn)題就在于怎樣訓(xùn)練可滿足人臉匹配要求和快速區(qū)別人臉特征的性能佳且結(jié)構(gòu)簡(jiǎn)單[6]。本文應(yīng)用到人臉識(shí)別領(lǐng)域,并開展網(wǎng)絡(luò)訓(xùn)練以及測(cè)試優(yōu)化分析。

1 基于卷積神經(jīng)網(wǎng)絡(luò)的人臉檢測(cè)算法

圖1給出了AlexNet網(wǎng)絡(luò)模型結(jié)構(gòu)圖。網(wǎng)絡(luò)模型中全連接層和卷積層分別為3 個(gè)和5 個(gè),總共為8 層。將ReLU、局部響應(yīng)歸一化及池化層增加至前兩層后,將Dropout 和池化加入到第6、7 層,并在第8 層應(yīng)用softmax 分類器[7]。

1692677824557455.png

圖1 AlexNet

將Dropout 技術(shù)引進(jìn)全連接層中,這種情況下全連接層在AlexNet 網(wǎng)絡(luò)模型訓(xùn)練整個(gè)流程中的連接概率為固定且以隨機(jī)稀疏方式為主,將部分神經(jīng)元丟棄,有利于網(wǎng)絡(luò)復(fù)雜度降低,參數(shù)計(jì)算量得到減少,過(guò)擬合現(xiàn)象也會(huì)在某種程度上減小[8]。需采取局部歸一化操作方式處理輸出結(jié)果,有效抑制局部神經(jīng)元,進(jìn)而促進(jìn)網(wǎng)絡(luò)泛化能力的進(jìn)一步強(qiáng)化。

網(wǎng)絡(luò)模型算量與卷積核結(jié)構(gòu)尺寸大小相關(guān),感受也隨著卷積核尺寸增大而擴(kuò)大,盡管圖片特征信息提取效率有效增加,但計(jì)算參數(shù)急劇增加。小尺寸的卷積核被更多研究學(xué)者應(yīng)用,可有效增加模型的寬度和深度。網(wǎng)絡(luò)參數(shù)模型訓(xùn)練時(shí)長(zhǎng)將得到顯著減少,同時(shí)還有利于降低第一層的參數(shù)計(jì)算量。

在人臉檢測(cè)時(shí)應(yīng)用本文提出的網(wǎng)絡(luò)模型,需提前區(qū)分人臉及非人臉區(qū)域,為確保降低神經(jīng)網(wǎng)絡(luò)參數(shù),將第2 個(gè)全連接層刪除,僅將第1、第3 個(gè)全連接層保留。按照1×1 卷積核尺寸標(biāo)準(zhǔn)修改第1 個(gè)全連接層,用全連接神經(jīng)網(wǎng)絡(luò)替代原有神經(jīng)網(wǎng)絡(luò),任意大小的尺寸均可輸入卷積神經(jīng)網(wǎng)絡(luò),人臉分類選用第2 個(gè)全連接層。本文所用的參數(shù)見表1 所示。本文所用的邏輯見圖2 所示。

1692678063689022.png

圖2 網(wǎng)絡(luò)結(jié)構(gòu)邏輯圖

將Dropout 技術(shù)引進(jìn)全連接層中,這種情況下全連接層在AlexNet 網(wǎng)絡(luò)模型訓(xùn)練整個(gè)流程中的連接概率為固定且以隨機(jī)稀疏方式為主,將部分神經(jīng)元丟棄,有利于網(wǎng)絡(luò)復(fù)雜度降低,參數(shù)計(jì)算量得到減少,過(guò)擬合現(xiàn)象也會(huì)在某種程度上減小[8]。需采取局部歸一化操作方式處理輸出結(jié)果,有效抑制局部神經(jīng)元,進(jìn)而促進(jìn)網(wǎng)絡(luò)泛化能力的進(jìn)一步強(qiáng)化。

網(wǎng)絡(luò)模型算量與卷積核結(jié)構(gòu)尺寸大小相關(guān),感受也隨著卷積核尺寸增大而擴(kuò)大,盡管圖片特征信息提取效率有效增加,但計(jì)算參數(shù)急劇增加。小尺寸的卷積核被更多研究學(xué)者應(yīng)用,可有效增加模型的寬度和深度。網(wǎng)絡(luò)參數(shù)模型訓(xùn)練時(shí)長(zhǎng)將得到顯著減少,同時(shí)還有利于降低第一層的參數(shù)計(jì)算量。

在人臉檢測(cè)時(shí)應(yīng)用本文提出的網(wǎng)絡(luò)模型,需提前區(qū)分人臉及非人臉區(qū)域,為確保降低神經(jīng)網(wǎng)絡(luò)參數(shù),將第2 個(gè)全連接層刪除,僅將第1、第3 個(gè)全連接層保留。按照1×1 卷積核尺寸標(biāo)準(zhǔn)修改第1 個(gè)全連接層,用全連接神經(jīng)網(wǎng)絡(luò)替代原有神經(jīng)網(wǎng)絡(luò),任意大小的尺寸均可輸入卷積神經(jīng)網(wǎng)絡(luò),人臉分類選用第2 個(gè)全連接層。本文所用的網(wǎng)絡(luò)結(jié)構(gòu)參數(shù)見表1 所示。本文所用的網(wǎng)絡(luò)結(jié)構(gòu)邏輯見圖2 所示。

表1 網(wǎng)絡(luò)結(jié)構(gòu)參數(shù)

1692678152907909.png

2 實(shí)驗(yàn)結(jié)果分析

2.1 數(shù)據(jù)集

作為評(píng)測(cè)數(shù)據(jù)集,F(xiàn)DDB 常用于人臉檢測(cè)?;叶群筒噬珗D共2 845 張圖片均包含在數(shù)據(jù)集中,共有5 171人臉標(biāo)注數(shù)據(jù),人臉拍攝環(huán)境為自然狀況。測(cè)試集挑戰(zhàn)性較高,同時(shí)低分辨率、遮擋等情況都包含在內(nèi),拍攝環(huán)境與日常應(yīng)用場(chǎng)景都十分貼近。

作為人臉檢測(cè)的大型基準(zhǔn)數(shù)據(jù)集,WIDERFace 由香港中文大學(xué)建立而成。采用手工標(biāo)注數(shù)據(jù)集,人臉總數(shù)為4 萬(wàn)張,光照及遮擋等不同場(chǎng)景下人臉圖像變化情況均包含在內(nèi)。

2.2 網(wǎng)絡(luò)模型訓(xùn)練設(shè)置

本文在訓(xùn)練改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)時(shí),將Tensorfl ow 深度學(xué)習(xí)開源平臺(tái)作為重要應(yīng)用工具,選取NVIDIAGTX1050 型GPU 加速,訓(xùn)練數(shù)據(jù)用SSD 固態(tài)硬盤緩存,完成CUDA9.0GPU 并行計(jì)算庫(kù)的安裝。

網(wǎng)絡(luò)訓(xùn)練基于網(wǎng)絡(luò)參數(shù)完成,同時(shí)將0 作為卷積層學(xué)習(xí)率,訓(xùn)練的卷積層為候選框生成網(wǎng)絡(luò)特有,為確保能實(shí)現(xiàn)卷積神經(jīng)網(wǎng)絡(luò)中人臉分類及候選框生成網(wǎng)絡(luò)間的共享,最后環(huán)節(jié)需要微調(diào)人臉分類網(wǎng)絡(luò)。

2.3 實(shí)驗(yàn)結(jié)果分析

在人臉檢測(cè)中對(duì)本文改進(jìn)的模型結(jié)構(gòu)性能進(jìn)行驗(yàn)證,選取測(cè)試的數(shù)據(jù)集為FDDB 人臉數(shù)據(jù)集。召回率要求在實(shí)際使用過(guò)程中的嚴(yán)格程度更深,所以評(píng)估本算法應(yīng)用的評(píng)價(jià)指標(biāo)以FDDB 為主,F(xiàn)alsepositive 表示橫軸,即FP,誤檢數(shù)為檢測(cè)出人臉但實(shí)際非人臉的數(shù)量,Truepositiverate 表示縱軸,即recall 召回率。如圖3 所示,為測(cè)試曲線圖。

本文對(duì)比了CascadeCNN 及MTCNN 等較為經(jīng)典的人臉檢測(cè)算法,測(cè)試評(píng)價(jià)方法均選用FDDB 數(shù)據(jù)庫(kù)實(shí)現(xiàn),另外還對(duì)比了各檢測(cè)方法所耗費(fèi)的時(shí)長(zhǎng),下圖為各檢測(cè)算法對(duì)應(yīng)的數(shù)據(jù)結(jié)果。

1692678273424294.png

圖3 FDDB評(píng)價(jià)圖

算法比較結(jié)果見表2。其中,fps 表示檢測(cè)速度,即每秒傳輸?shù)膸瑪?shù)。通常算法檢測(cè)速度隨幀數(shù)增長(zhǎng)而加快。本文主要是在GPU 上完成檢測(cè)速度的統(tǒng)一測(cè)試。與CascadeCNN、MTCNN,兩種算法相比,本文算法表現(xiàn)出較高的召回率,對(duì)比表中數(shù)據(jù)得出準(zhǔn)確率最高,相比于MTCNN 和CascadeCNN 檢測(cè)速度較低,人臉簽到系統(tǒng)的基礎(chǔ)需求得到滿足。

表2 算法比較

1692678358661165.png

為了確保人臉檢測(cè)算法多個(gè)特征能更直觀且清晰地顯示,在開展人臉檢測(cè)驗(yàn)證前采用隨機(jī)方式挑選圖片,圖4 為檢測(cè)具體結(jié)果。側(cè)臉及戴頭盔遮擋的單人照片依次如圖(a)(b)所示,通過(guò)觀察對(duì)比得出,檢測(cè)人臉圖片的準(zhǔn)確度及清晰度均相對(duì)較高,這意味著對(duì)于部分遮擋人臉或側(cè)臉采用本文算法展示的魯棒性較佳。

image.png

(a)

1692678434785566.png

(b)

圖4 測(cè)試結(jié)果圖

3 結(jié)束語(yǔ)

本文開展基于卷積神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別檢測(cè)分析,得到以下有益結(jié)果:

1)本文算法表現(xiàn)出較高的召回率,人臉簽到系統(tǒng)的基礎(chǔ)需求得到滿足。

2)對(duì)于部分遮擋人臉或側(cè)臉采用本文算法展示的魯棒性較佳。

參考文獻(xiàn):

[1] 姜紹忠,姚克明,陳磊,等.基于CNN與Transformer混合模型的口罩人臉識(shí)別方法[J].傳感器與微系統(tǒng),2023, 42(1):144-148.

[2] 徐武,陳盈君,湯弘毅,等.局部特征映射與融合網(wǎng)絡(luò)的人臉識(shí)別優(yōu)化算法[J].河南科技大學(xué)學(xué)報(bào)(自然科學(xué)版),2023, 44(02):59-64+72+7-8.

[3] 仲崇麗,劉華.改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)的熱紅外成像人臉識(shí)別[J].激光雜志,2022,43(12):117-121.

[4] 季瑞瑞,謝宇輝,駱豐凱,等.改進(jìn)視覺Transformer的人臉識(shí)別方法[J].計(jì)算機(jī)工程與應(yīng)用,2023,59(8):117-126.

[5] 趙洪坡,劉顯梅.數(shù)據(jù)挖掘的熱紅外成像人臉識(shí)別研究[J].激光雜志,2022, 43(11):47-51.

[6] 孫金龍,吳振寧,肖仲喆,等.關(guān)于人臉識(shí)別算法對(duì)不同照明技術(shù)的魯棒性研究[J].電子器件,2022, 45(5):1123-1128.

[7] 馬倩,馬祥.聯(lián)合松弛塊對(duì)角表示矩陣回歸的遮擋人臉識(shí)別[J].計(jì)算機(jī)應(yīng)用研究,2023,40(2):612-616+633.

[8] 張晨晨,王帥,王文一,等.針對(duì)人臉識(shí)別卷積神經(jīng)網(wǎng)絡(luò)的局部背景區(qū)域?qū)构鬧J].光電工程,2023,50(1):113-125.

[9] 戚琦,馬迎新,王敬宇,等.面向算力受限邊緣環(huán)境的雙分支多尺度感知人臉檢測(cè)網(wǎng)絡(luò)[J].通信學(xué)報(bào),2020,41(8):165-174.

[10] 皮家甜,楊杰之,楊琳希,等.基于多模態(tài)特征融合的輕量級(jí)人臉活體檢測(cè)方法[J].計(jì)算機(jī)應(yīng)用,2020,40(12):3658-3665.

[11] 王藝皓,丁洪偉,李波,等.復(fù)雜場(chǎng)景下基于改進(jìn)YOLOv3的口罩佩戴檢測(cè)算法[J].計(jì)算機(jī)工程,2020,46(11):12-22.

(本文來(lái)源于《電子產(chǎn)品世界》雜志2023年8月期)



評(píng)論


相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉