日韩专区一区,亚洲va综合va国产va中文,黄色精品国产,欧美黑人一级视频

大規模視頻手勢識別

大規模視頻手勢識別

大規模視頻手勢識別

3D動作識別樣例

功能:使用3DCNN模型對數據進行分類推理。
樣例輸入:使用video2bin腳本將視頻文件轉為數據文件。
樣例輸出:10個動作的置信度。

前置條件

請檢查以下條件要求是否滿足,如不滿足請按照備注進行相應處理。如果CANN版本升級,請同步檢查第三方依賴是否需要重新安裝(5.0.4及以上版本第三方依賴和5.0.4以下版本有差異,需要重新安裝)。

條件 要求 備注
CANN版本 >=5.0.4 請參考CANN樣例倉介紹中的安裝步驟完成CANN安裝,如果CANN低于要求版本請根據版本說明切換samples倉到對應CANN版本
硬件要求 Atlas200DK/Atlas300(ai1s) 當前已在Atlas200DK和Atlas300測試通過,產品說明請參考硬件平臺 ,其他產品可能需要另做適配
第三方依賴 python-acllite 請參考第三方依賴安裝指導(python樣例)選擇需要的依賴完成安裝

樣例準備

  1. 獲取源碼包。

    可以使用以下兩種方式下載,請選擇其中一種進行源碼準備。

    • 命令行方式下載(下載時間較長,但步驟簡單)。
      # 開發環境,非root用戶命令行中執行以下命令下載源碼倉。    
      cd ${HOME}     
      git clone https://gitee.com/ascend/samples.git
       
      注:如果需要切換到其它tag版本,以v0.5.0為例,可執行以下命令。
      git checkout v0.5.0
       
    • 壓縮包方式下載(下載時間較短,但步驟稍微復雜)。
      注:如果需要下載其它版本代碼,請先請根據前置條件說明進行samples倉分支切換。
       # 1. samples倉右上角選擇 【克隆/下載】 下拉框并選擇 【下載ZIP】。    
       # 2. 將ZIP包上傳到開發環境中的普通用戶家目錄中,【例如:${HOME}/ascend-samples-master.zip】。     
       # 3. 開發環境中,執行以下命令,解壓zip包。     
       cd ${HOME}    
       unzip ascend-samples-master.zip
       
  2. 獲取此應用中所需要的原始網絡模型。

    模型名稱 模型說明 模型下載路徑
    3DCNN 3D動作識別模型。是基于tensorflow的3DCNN模型。 請參考https://gitee.com/ascend
    /ModelZoo-TensorFlow/tree/master
    /TensorFlow/contrib/cv/3dcnn
    /ATC_3DCNN_tensorflow_AE
    目錄中README.md
    下載原始模型章節下載模型和權重文件。
    # 為了方便下載,在這里直接給出原始模型下載及模型轉換命令,可以直接拷貝執行。也可以參照上表在modelzoo中下載并手工轉換,以了解更多細節。     
    cd ${HOME}/samples/python/contrib/3Dgesture_recognition/model    
    wget https://modelzoo-train-atc.obs.cn-north-4.myhuaweicloud.com/003_Atc_Models/AE/ATC%20Model/3D_gesture_recognition/3d_gesture_recognition.pb
    atc --model=3d_gesture_recognition.pb --framework=3 --output=3d_gesture_recognition --soc_version=Ascend310 --input_shape="X:1,16,112,112,3" --input_format=NDHWC
     
  3. 獲取樣例需要的測試圖片。

    執行以下命令,進入樣例的data文件夾中,下載對應的測試圖片。
    cd $HOME/samples/python/contrib/3Dgesture_recognition/data
    wget https://modelzoo-train-atc.obs.cn-north-4.myhuaweicloud.com/003_Atc_Models/AE/ATC%20Model/3D_gesture_recognition/testdata/test_float32_actiontype7.bin
    cd ../src
     

樣例運行

注:開發環境與運行環境合一部署,請跳過步驟1,直接執行步驟2即可。

  1. 執行以下命令,將開發環境的 3Dgesture_recognition 目錄上傳到運行環境中,例如 /home/HwHiAiUser,并以HwHiAiUser(運行用戶)登錄運行環境(Host)。

    # 【xxx.xxx.xxx.xxx】為運行環境ip,200DK在USB連接時一般為192.168.1.2,300(ai1s)為對應的公網ip。
    scp -r $HOME/samples/python/contrib/3Dgesture_recognition HwHiAiUser@xxx.xxx.xxx.xxx:/home/HwHiAiUser
    ssh HwHiAiUser@xxx.xxx.xxx.xxx
    cd ${HOME}/3Dgesture_recognition/src    
     
  2. 運行樣例。

    python3.6 3Dgesture_recognition.py ../data/
     

查看結果

運行完成后,會在屏幕上打印10個動作的置信度。

常見錯誤

請參考常見問題定位對遇到的錯誤進行排查。如果wiki中不包含,請在samples倉提issue反饋。

訂閱快訊

通過快訊訂閱,您將及時收到我們的信息更新通知。