用OpenVINO自制簡易控制系統(tǒng)
2006 年 11 月任天堂推出新一代電玩主機「Wii」,同時搭配具有「重力傳感器(或稱線性加速度計)」的游戲桿,讓玩電動不再只有香菇頭和按鍵,而是可以透過揮動手把來體驗更仿真的運動類游戲,如網(wǎng)球、桌球等,從此開啟「體感游戲」新世代。
雖然后續(xù)有更多廠商加入,甚至加入了陀螺儀(或稱角加速度器)來偵測手把轉(zhuǎn)動角度、速度,還有利用地磁傳感器來感知玩家面對的方向使得體感游戲更加逼真,但玩家對于手上握著的那個手把仍感到有些累贅。
2010 年 11 月微軟為了挽救Xbox360 的銷售業(yè)績推出了「Kinect」,這項劃時代的產(chǎn)品讓玩家從此拋開手把,只需擺動肢體就能操作游戲中的虛擬人物或?qū)ο?。這項技術(shù)主要結(jié)合了一個紅外線雷射發(fā)射器(產(chǎn)生光斑)、一個紅外線攝影機及一個普通的彩色攝影機,經(jīng)過復(fù)雜計算后就能得出場景中各項對象的深度(距離)信息,進而分析出玩家的骨架(頭、手、腳)位置及姿勢,如此即可精準控制游戲的進行。
也正因有這項便宜又好用的工具誕生,且可同時偵測多人(最多六人)的動作,所以有更多的互動游戲及應(yīng)用裝置產(chǎn)生。雖然后來微軟及其它廠商陸續(xù)推出改良產(chǎn)品,并將市場延伸至簡易型 3D 對象及室內(nèi)環(huán)境掃描用途,隨著風(fēng)潮淡去,2017 年微軟已正式停止生產(chǎn)這項產(chǎn)品。
好姨說:「為什么?為什么?為什么讓我用到一套這么好用的體感互動工具,以后我用不到怎么辦?」(星爺食神經(jīng)典橋段)。各位看倌請不用擔(dān)心,我?guī)痛蠹艺业搅艘粋€解決方案,只要用使用一組網(wǎng)絡(luò)攝影機加上 Intel 的 OpenVINO?開源軟件套件包中的 human-pose-estimation 預(yù)訓(xùn)練模型就可以辦到了。
星爺說:「只要有 OpenVINO?,人人都可是互動之神」。對!你沒聽錯,連 Kinect 這樣的深度傳感器都不用,不管你是用 CPU、GPU、VPU(神經(jīng)運算棒)都可以一次搞定。
人體姿態(tài)定義
當(dāng)然以上是比較搞笑的說法,以 2D 人體姿態(tài)估測是無法完全取代像 Kinect 這類深度傳感器所產(chǎn)生的 3D 骨架(skeleton)分析,不過對大多數(shù)的姿態(tài)估測及互動應(yīng)用應(yīng)該還是游刃有余的,接下來就先幫大家說明一下什么是 2D 姿態(tài)估測及如何應(yīng)用。
一般來說人的姿態(tài)是包括 3D(上下左右前后)位置信息,但被拍成 2D 照片或視頻后,自然失去深度(前后位置)信息,所以僅能就人的肢體重要關(guān)節(jié)(關(guān)鍵)點位置進行分析,進而建立人體骨架及姿態(tài)。
目前最常見的 2D 姿態(tài)估測關(guān)鍵點開放數(shù)據(jù)集包括微軟 COCO(17點),CMU OpenPose(18/25點),MPII(16點),AI Challenge(14點),LSP(14點),F(xiàn)LIC(9點),本次要使用的為卡內(nèi)基梅隆大學(xué)(CMU)感知計算實驗室所開源的 OpenPose 18 點骨架數(shù)據(jù)格式(如下圖a)。除此之外這個數(shù)據(jù)集還提供另三種輸出格式,用于表示人體骨架(25點)、臉部動作(70點)及手部動作(22點),如下圖所示。
OpenPose支持輸出格式,(a)類COCO 18點,(b) BODY 25點,(c) 臉部70點,(d)手部22點
此次會用到的 OpenPose 18 關(guān)鍵點格式和常用的微軟 COCO 17 關(guān)鍵點格式非常相似,最主要差別是編號序順不同及 OpenPose 多了脖子點作人體中心點。如有需要相互轉(zhuǎn)換時,可自行轉(zhuǎn)換。
MS COCO:(17點)
0:鼻子、1:左眼、2:右眼、3:左耳、4:右耳、5:左肩、6:右肩、7:左肘、8:右肘、9:左腕、10:右腕、11:左臀(腰)、12:右臀(腰)、13:左膝、14:右膝、15:左踝、16:右踝。
CMU OpenPose:(18點)(如上圖a)
0:鼻子、1:脖子、2:右肩、3:右肘、4:右腕、5:左肩、6:左肘、7:左腕、8:右臀(腰)、9:右膝、10:右踝、11:左臀(腰)、12:左膝、13:左踝、14:左眼、15:右眼、16:左耳、17:右耳。
人體姿態(tài)估測實作
接下來開始說明如何使用 Intel OpenVINO?結(jié)合 OpenPose 預(yù)訓(xùn)練模型「human-pose-estimation-0001」來完成「簡易體感控制系統(tǒng)」。這里還是使用Win 10 搭配 OpenVINO? 2019 R2 環(huán)境執(zhí)行,如果需要在 Linux 環(huán)境開發(fā)的,請自行參考官網(wǎng)提供安裝程序。
首先利用 OpenVINO?工具包的下載工具下載預(yù)訓(xùn)練好的模型「human-pose-estimation-0001」,更進一步說明及使用方法可參考官方文件。
https://docs.openvinotoolkit.org/latest/_demos_human_pose_estimation_demo_README.html
/* 切換至下載工具路徑 */
cdC:Program Files(x86)IntelSWToolsopenvino_2019.2.242deployment_toolstoolsmodel_downloader
/*下載預(yù)訓(xùn)練模型到指定路徑 */
python3 downloader.py --namehuman-pose-estimation-0001 --output_dir 指定路徑名稱
完成下載后,會在指定路徑下得到三種格式(INT8、FP16、FP32)已優(yōu)化過 IR 中介檔(bin、xml),可直接給 OpenVINO?的推論引擎(Inference Engine)使用,不須再進行模型優(yōu)化器(Model Optimizer)動作,其檔案存放路徑結(jié)構(gòu)如下所示。
/* 下載至指定路徑下的優(yōu)化模型中介文件存放路徑*/
指定路徑名稱
Transportation
human_pose_estimation
mobilenet-v1
dldt
INT8
human-pose-estimation-0001.bin (16MB)
human-pose-estimation-0001.xml (597KB)
FP16
human-pose-estimation-0001.bin (8MB)
human-pose-estimation-0001.xm (65KB)
FP32
human-pose-estimation-0001.bin (16MB)
human-pose-estimation-0001.xm (66KB)
由于 OpenVINO?在運作時要引用很多路徑,所以執(zhí)行編譯及執(zhí)行前要先設(shè)定工作環(huán)境,只需依下列指令操作即可完成工作環(huán)境設(shè)定。
/* 切換至設(shè)定工作環(huán)境路徑 */
cd C:Program Files(x86)IntelSWToolsopenvino_2019.2.242bin
/* 執(zhí)行設(shè)定環(huán)境變量批處理文件 */
setupvars
目前 OpenVINO?提供的范例原始碼默認會在下列路徑:
/* 范例程序原始碼路徑 */
C:Program Files(x86)IntelSWToolsopenvino_2019.2.242deployment_toolsinference_enginedemoshuman_pose_estimation_demo
本范例為 C++ 程序,這里使用 Visual Studio 2017 進行編譯,默認所有展示用的程序范例項目文件 Demos.sln 會在下面路徑。
/* 范例程序Visual Studio項目文件路徑 */
C:Users使用者名稱DocumentsIntelOpenVINOinference_engine_demos_build
本項目中共包含 22 個子項目,而 human_pose_estimation_demo 即為本次范例。如果想要修改內(nèi)容時,記得以系統(tǒng)管理員身份執(zhí)行 VS2017,以免因范例程序在 C:Program Files (x86) 下而無法直接編輯。如想直接使用,那進行重建(編譯)后即可得到執(zhí)行檔 human_pose_estimation_demo.exe,默認會生成在下面路徑。
/* 執(zhí)行文件生成路徑 */
C:Users使用者名稱DocumentsIntelOpenVINOinference_engine_demos_buildintel64Release
/* 執(zhí)行檔操作命令 */
human_pose_estimation_demo -i 輸入影片文件名 -m 模型優(yōu)化中介文件.xml-d 運算裝置名稱
參數(shù)說明:
-i 輸入影像方式
目前這個范例可支持二種視頻輸入方式,一種是直接從網(wǎng)絡(luò)攝影機,直接設(shè)定 -i cam 即可,預(yù)設(shè)為第 0 號攝影機。另一種為從視頻檔案輸入,由于底層是利用 OpenCV 的 VideoCapture 讀取視頻影像,所以目前能支持的視頻格式不多,主要是以 *.avi, *.mp4 為主,可設(shè)定 -i xxx.mp4。
-m 模型優(yōu)化中介文件 .xml 所在路徑
一般來說推論計算數(shù)值精度可分為 FP32、FP16 及 INT8,而所需運算時間也隨精度降低(推論速度提升),但通常推論正確率也會隨之略減。運算時 CPU 及 GPU 三種精度都可使用,但 VPU(神經(jīng)運算棒 NCS1、NCS2)則能選擇 FP16 格式運行,要特別注意不要選錯。設(shè)定時如 -m 用戶指定路徑Transportationhuman_pose_estimationmobilenet-v1dldtFP16human-pose-estimation-0001.xml。
-d 運算裝置名稱
可設(shè)為 CPU、GPU 和 MYRIAD,而 MYRIAD 就是 VPU,或稱神經(jīng)運算棒,不管是 NCS 一代或二代皆設(shè)為 MYRIAD 即可,例如 -d MYRIAD。如果執(zhí)行時未插入神經(jīng)運算棒至 USB,則程序會直接中斷。
實驗結(jié)果
接下來我們就測試一下這個范例帶來的效果。這里使用四種測試裝置,分別是:
1.CPU:Intel i7-8950 8GBRAM
2.GPU:Intel UHD Graphics630
3.NCS1:Movidius (Intel)Neural Compute Stick(一代)
4.NCS2:Intel Neural ComputeStick 2(二代)
首先以視頻影像做為輸入進行測試,分別測試不同裝置在不同精度下指令周期及人體姿態(tài)估測結(jié)果。為方便大家測試,我們直接從 YOUTUBE 下載了一段微軟 Kinect Dance 的測試影片(1280×720 30fps),
https://youtu.be/Y-iKWe-U9bY
并抽取其中五小段作為此次測試及比較依據(jù),相關(guān)影片可直接到 GITHUB 下載。
https://github.com/OmniXRI/OpenVINO_human-pose-estimation
這里利用其中一小段影片測試,結(jié)果如下圖所示。大致上可看出姿態(tài)估測部份幾乎沒差,主要差異在指令周期,這里使用 FPS(每秒多少影格)作為單位,數(shù)值越高表示反應(yīng)速度越快。若能達到 30 FPS 以上則已達一般影片播放速度,滿足實時處理的需求。
從這些測試結(jié)果來看,目前在 CPU 部份,F(xiàn)P32 及 FP16 指令周期差別不大,表示 CPU 在處理浮點數(shù)上并沒有充份利用硬件特性(可能是軟件函式庫造成),但運算數(shù)值精度降至 INT8 時,指令周期明顯提升快一倍。
而 GPU 部份,可以看出在浮點數(shù)計算上明顯有差異,所以 FP16 指令周期較 FP32 快了約 50%。奇怪的是 INT8 竟然和 FP32 接近,這是因為 GPU 本來就不支持整數(shù)運算,所以應(yīng)該是函式庫自動把整數(shù)轉(zhuǎn)成 FP32 計算造成的結(jié)果。
再來是神經(jīng)運算棒部份,NCS2 在硬件規(guī)格上優(yōu)于 NCS1,所以理所當(dāng)然指令周期較快,快了約兩倍。
再來測試不同影片內(nèi)容指令周期差異,為方便測試起見,這里統(tǒng)一使用 GPU FP16 的條件來對五小段影片進行測試,這五段影片有單人、多人、動作簡單、大幅動作、輕微遮蔽及嚴重遮蔽。測試后發(fā)覺準確度極高,只有在嚴重遮蔽或移動速度過快(影像局部模糊)時會有些失誤,大體上來看是非常不錯的。不同影像內(nèi)容在計算速度上會有些許差異,如下圖所示。
這里發(fā)現(xiàn)一個有趣的地方,就是影片長度較長(影格數(shù)較多)的,其指令周期會越來越快,不知是否是因影片被緩沖進內(nèi)存中,所以減少一些訪問時間?
不同視頻指令周期比較
實際結(jié)果如下
最后是測試網(wǎng)絡(luò)攝影機,這里使用 800×600 的分辨率,分別以 CPU 及 GPU 進行測試,測試時故意擺了一樣的姿勢方便比較運算差異。這里的指令周期明顯比前面測試快了許多,主要原因是輸入視頻解析圖下降。測試時雖然只有半身,但還是可以很正確判斷出來,由此得知這個預(yù)訓(xùn)練好的模型真的很不錯。
寫到這里大家應(yīng)該已經(jīng)可以充份感受到 OpenPose 的威力了,只需 OpenVINO?加上一臺網(wǎng)絡(luò)攝影機就能搞定「簡易體感控制系統(tǒng)」。雖然目前看起來指令周期似乎有點慢,但對于簡單型的應(yīng)用已綽綽有余,只要善用圖像上所提取到的關(guān)節(jié)點坐標(biāo),就可輕松開發(fā)體感游戲及各種人機互動應(yīng)用了。如果想要更深入了解的朋友,可自行研讀范例源碼。
評論