stgcn,生態(tài)工程內(nèi)涵?

  • 作者:韓信子@ShowMeAI
  • 聲明:版權(quán)所有,轉(zhuǎn)載請(qǐng)聯(lián)系平臺(tái)與作者并注明出處

在公眾號(hào) ShowMeAI研究中心 回復(fù)「唐山」,獲取 項(xiàng)目代碼 & 用于訓(xùn)練的視頻 & 運(yùn)行結(jié)果視頻/動(dòng)圖。項(xiàng)目涉及知識(shí)點(diǎn)見文末推薦閱讀。

6月10日凌晨,河北唐山一燒烤店,發(fā)生多名男子毆打他人的刑事案件。唐山事件及后續(xù)網(wǎng)絡(luò)實(shí)名舉報(bào)案件,引發(fā)了全網(wǎng)的關(guān)注與熱議,相關(guān)話題登上各大網(wǎng)站熱搜榜。據(jù)報(bào)道,唐山市開展為期半個(gè)月的夏季社會(huì)治安整治「雷霆風(fēng)暴」專項(xiàng)行動(dòng),全面整治社會(huì)治安領(lǐng)域突出問題。

安全感來自于對(duì)一個(gè)個(gè)具體案件的處置。希望當(dāng)?shù)厮痉C(jī)構(gòu)持續(xù)發(fā)力,讓敢于以身試法者受到嚴(yán)懲,讓包括女性在內(nèi)的廣大群眾感受到公平正義,對(duì)社會(huì)安全度有著更強(qiáng)的信賴感。我們也借這個(gè)機(jī)會(huì)討論下,在推進(jìn)社會(huì)安全的過程中,人工智能技術(shù)有哪些應(yīng)用場(chǎng)景,可以做出怎樣的貢獻(xiàn)

社區(qū)安全與智能化管理

社區(qū)是城市的關(guān)鍵組成部分,社區(qū)治理是圍繞社區(qū)場(chǎng)景下的人、地、物、情、事的管理與服務(wù)。社區(qū)安全與智慧城市是大家一直在提的主題。讓我們回到技術(shù)層面,AI能否在其中發(fā)揮作用?形如「唐山事件」的危害行為,是否可以第一時(shí)間被AI識(shí)別到并進(jìn)行響應(yīng)呢?

可以。使用攝像頭記錄下來的信息,AI與計(jì)算機(jī)視覺自動(dòng)化可以快速響應(yīng)并發(fā)揮作用

事實(shí)上,隨著城市化的快速推進(jìn)及人口流動(dòng)的快速增加,傳統(tǒng)社區(qū)治理在人員出入管控、安防巡邏、車輛停放管理等典型場(chǎng)景下都面臨著人力不足、效率低下、響應(yīng)不及時(shí)等諸多難題。而人工智能技術(shù)代替人力,實(shí)現(xiàn)人、車、事的精準(zhǔn)治理,大幅降低人力、物質(zhì)、時(shí)間等成本,以最低成本發(fā)揮最強(qiáng)大的管理效能,有效推動(dòng)城市治理向更「數(shù)字化、自動(dòng)化、智慧化」的方向演進(jìn)。

我們下面借助于百度 paddlepaddle 針對(duì)智慧社區(qū)實(shí)時(shí)行人分析工具 PP-Human 做一個(gè)介紹,底層的深度學(xué)習(xí)算法,基于行人檢測(cè)與跟蹤技術(shù),實(shí)現(xiàn)26種人體屬性分析以及摔倒等異常行為識(shí)別,可以在未來這樣的類似場(chǎng)景下發(fā)揮作用,提供多一份保障。

部分社區(qū)智能化應(yīng)用效果

1)社區(qū)人員信息識(shí)別

傳統(tǒng)社區(qū)視頻監(jiān)控80%都依靠人工實(shí)現(xiàn),隨著攝像頭在社區(qū)中的大規(guī)模普及,日超千兆的視頻圖像數(shù)據(jù)、人員信息的日漸繁雜已遠(yuǎn)超人工的負(fù)荷。

深度學(xué)習(xí)算法中的人體跟蹤和屬性識(shí)別功能可以實(shí)現(xiàn)社區(qū)視頻監(jiān)控的結(jié)構(gòu)化理解,實(shí)時(shí)識(shí)別進(jìn)出小區(qū)的人員的性別、年齡、衣著打扮等多種屬性并記錄其運(yùn)動(dòng)軌跡,應(yīng)用AI 算法代替人力進(jìn)行社區(qū)管理,具備更高的效率、及時(shí)性和更好的準(zhǔn)確度,針對(duì)出入口管理、快速尋人、軌跡分析等都可以快速響應(yīng)。

下圖為上海天覆科技的街道人員屬性識(shí)別應(yīng)用案例:

2)行為及異常行為檢測(cè)

社區(qū)的安全防護(hù)是重中之重,我們希望AI可以高效保障社區(qū)居民人身安全。傳統(tǒng)的方法主要依靠人工視頻監(jiān)控,配以人力巡邏,有時(shí)會(huì)有異常情況響應(yīng)不及時(shí)的問題,對(duì)人力消耗也非常大,比如這次的「唐山事件」。

如果應(yīng)用 關(guān)鍵點(diǎn)+時(shí)空?qǐng)D卷積網(wǎng)絡(luò) ****的技術(shù),可以很快地對(duì)傷者摔倒及打架暴力事件進(jìn)行檢測(cè),加快報(bào)警與救援,提升社區(qū)安防系統(tǒng)智能化。

如下為辦公區(qū)域摔倒檢測(cè)的示例:

手把手AI代碼:社區(qū)智能化組件應(yīng)用于「唐山事件」

下面應(yīng)用jupyter notebook對(duì)本次「唐山事件」的視頻進(jìn)行AI識(shí)別檢測(cè)。

1)環(huán)境配置

我們借助于百度paddlepaddle針智慧社區(qū)的實(shí)時(shí)行人分析工具 PP-Human完成后續(xù)檢測(cè)功能,如下為 PP-Human 的技術(shù)全景圖。

本次應(yīng)用依賴百度 PaddleDetection 工具庫,要求版本 >= release/2.4,我們?cè)?jupyter notebook 中新建一個(gè)cell,并克隆 PaddleDetection 倉庫到本地。

 # 克隆PaddleDetection倉庫到本地
!git clone https://github.com/PaddlePaddle/PaddleDetection.git

下面我們切換到 PaddleDetection 目錄下(注意在 jupyter notebook 中通過%cd魔法命令完成路徑切換),并根據(jù) requirements.txt 中的要求去安裝依賴的工具庫,具體的操作代碼如下:

 # 安裝其他依賴
%cd PaddleDetection
!pip install -r requirements.txt

依賴安裝完成后我們編譯安裝 PaddleDetection,命令如下

# 編譯安裝paddledet
!python setup.py install

2)預(yù)訓(xùn)練模型下載

我們?cè)谏鐓^(qū)智能化場(chǎng)景下,不同的任務(wù)其實(shí)由不同的計(jì)算機(jī)視覺底層應(yīng)用支撐,比如社區(qū)人員信息留存涉及「目標(biāo)檢測(cè)」和「屬性識(shí)別」等視覺任務(wù)應(yīng)用;摔倒及異常(暴力打架等)識(shí)別涉及「目標(biāo)檢測(cè)」、「關(guān)鍵點(diǎn)檢測(cè)」、「行為識(shí)別」等視覺任務(wù)應(yīng)用。

這些任務(wù)應(yīng)用已經(jīng)有成型的預(yù)訓(xùn)練模型可以直接下載和加載應(yīng)用(當(dāng)然我們也可以在自己的社區(qū)場(chǎng)景下采集更匹配的真實(shí)數(shù)據(jù),標(biāo)注后對(duì)預(yù)訓(xùn)練模型進(jìn)行調(diào)優(yōu)),我們?cè)谶@里直接下載可用的預(yù)訓(xùn)練模型。

其中,模型能進(jìn)行的屬性分析包含26種不同屬性,具體如下:

- 性別:男、女
- 年齡:小于18、18-60、大于60
- 朝向:朝前、朝后、側(cè)面
- 配飾:眼鏡、帽子、無
- 正面持物:是、否
- 包:雙肩包、單肩包、手提包
- 上衣風(fēng)格:帶條紋、帶logo、帶格子、拼接風(fēng)格
- 下裝風(fēng)格:帶條紋、帶圖案
- 短袖上衣:是、否
- 長(zhǎng)袖上衣:是、否
- 長(zhǎng)外套:是、否
- 長(zhǎng)褲:是、否
- 短褲:是、否
- 短裙&裙子:是、否
- 穿靴:是、否

行為識(shí)別主要支持摔倒檢測(cè),也對(duì)打架、抽煙、玩手機(jī)、睡覺等行為進(jìn)行了檢測(cè)。

下載預(yù)訓(xùn)練模型的代碼如下(注意請(qǐng)?jiān)?jupyter notebook 的 cell 中運(yùn)行):

 #下載目標(biāo)檢測(cè)模型
!wget https://bj.bcebos.com/v1/paddledet/models/pipeline/mot_ppyoloe_l_36e_pipeline.zip
#下載屬性識(shí)別模型
!wget https://bj.bcebos.com/v1/paddledet/models/pipeline/strongbaseline_r50_30e_pa100k.zip
#下載關(guān)鍵點(diǎn)識(shí)別模型
!wget https://bj.bcebos.com/v1/paddledet/models/pipeline/dark_hrnet_w32_256x192.zip
#下載行為識(shí)別模型
!wget https://bj.bcebos.com/v1/paddledet/models/pipeline/STGCN.zip

接著我們把下載好的模型壓縮包文件解壓縮到 output_inference文件夾

 #解壓至./output_inference文件夾
!unzip -d output_inference mot_ppyoloe_l_36e_pipeline.zip
!unzip -d output_inference strongbaseline_r50_30e_pa100k.zip
!unzip -d output_inference dark_hrnet_w32_256x192.zip
!unzip -d output_inference STGCN.zip

3)配置文件說明

此次應(yīng)用的paddle應(yīng)用,相關(guān)配置位于deploy/pphuman/config/infer_cfg.yml文件中。

對(duì)應(yīng)的任務(wù)類型和功能如下表所示:

輸入類型 功能 任務(wù)類型 配置項(xiàng) 圖片 屬性識(shí)別 目標(biāo)檢測(cè) 屬性識(shí)別 DET ATTR 單鏡頭視頻 屬性識(shí)別 多目標(biāo)跟蹤 屬性識(shí)別 MOT ATTR 單鏡頭視頻 行為識(shí)別 多目標(biāo)跟蹤 關(guān)鍵點(diǎn)檢測(cè) 行為識(shí)別 MOT KPT ACTION

我們本次應(yīng)用,主要包含下述功能:

  • 社區(qū)人員信息留存:?jiǎn)午R頭視頻的屬性識(shí)別
  • 摔倒及異常動(dòng)作檢測(cè):?jiǎn)午R頭視頻輸入的摔倒/動(dòng)作識(shí)別

大家可以根據(jù)視頻長(zhǎng)短調(diào)整部分參數(shù),比如動(dòng)作識(shí)別中可以將 deploy/pphuman/config/infer_cfg.yml 文件中的 max_frames 和 display_frames 修改如下:

ACTION:
  model_dir: output_inference/STGCN
  batch_size: 1
  max_frames: 2500
  display_frames: 2500
  coord_size: [384, 512]

4)模型運(yùn)行與預(yù)測(cè)

模型預(yù)測(cè)參數(shù)選擇分為兩部分:

  • 功能選擇:將對(duì)應(yīng)參數(shù)設(shè)置為 True 屬性識(shí)別:enable_attr行為識(shí)別:enable_action
  • 模型路徑修改:設(shè)置對(duì)應(yīng)任務(wù) (DET, MOT, ATTR, KPT, ACTION) 的模型路徑 例如 圖片輸入的屬性識(shí)別:
--model_dir det=output_inference/mot_ppyoloe_l_36e_pipeline/ attr=output_inference/strongbaseline_r50_30e_pa100k/

社區(qū)人員信息識(shí)別

如下運(yùn)行代碼,其中「唐山.mp4」為事件片段視頻,可以在公眾號(hào) ShowMeAI研究中心 回復(fù)「唐山」獲取 網(wǎng)盤地址。

 #視頻行人屬性識(shí)別
!python deploy/pphuman/pipeline.py \
    --config deploy/pphuman/config/infer_cfg.yml \
    --model_dir mot=output_inference/mot_ppyoloe_l_36e_pipeline/ attr=output_inference/strongbaseline_r50_30e_pa100k/ \
    --video_file=../唐山.mp4 \
    --enable_attr=True \
    --device=gpu

截取的識(shí)別結(jié)果可視化如下所示:

摔倒與異常行為檢測(cè)

如下運(yùn)行代碼,其中「tangshan.mp4」為事件片段視頻,可以在公眾號(hào) ShowMeAI研究中心 回復(fù)「唐山」獲取 網(wǎng)盤地址

#摔倒與異常行為檢測(cè)識(shí)別
!python deploy/pphuman/pipeline.py \
    --config deploy/pphuman/config/infer_cfg.yml \
    --model_dir mot=output_inference/mot_ppyoloe_l_36e_pipeline/ kpt=output_inference/dark_hrnet_w32_256x192/ action=output_inference/STGCN \
    --video_file=/home/aistudio/tangshan.mp4 \
    --enable_action=True \
    --device=cpu

推薦閱讀

關(guān)于社區(qū)安全檢測(cè)涉及的視覺模型算法知識(shí),請(qǐng)關(guān)注ShowMeAI的后續(xù)文章,我們將展開講解。也推薦大家學(xué)習(xí)ShowMeAI精心創(chuàng)作的系列教程。

圖解機(jī)器學(xué)習(xí)算法:從入門到精通系列教程

鏈接:http://www.showmeai.tech/tutorials/34

機(jī)器學(xué)習(xí)實(shí)戰(zhàn):手把手教你玩轉(zhuǎn)機(jī)器學(xué)習(xí)系列

鏈接:http://www.showmeai.tech/tutorials/41

深度學(xué)習(xí)教程:吳恩達(dá)專項(xiàng)課程 · 全套筆記解讀

鏈接:http://www.showmeai.tech/tutorials/35

自然語言處理教程:斯坦福CS224n課程 · 課程帶學(xué)與全套筆記解讀

鏈接:http://www.showmeai.tech/tutorials/36

深度學(xué)習(xí)與計(jì)算機(jī)視覺教程:斯坦福CS231n · 全套筆記解讀

鏈接:http://www.showmeai.tech/tutorials/37

在公眾號(hào) ShowMeAI研究中心 回復(fù)「唐山」,獲取 項(xiàng)目代碼 & 用于訓(xùn)練的視頻 & 運(yùn)行結(jié)果視頻/動(dòng)圖。項(xiàng)目涉及知識(shí)點(diǎn)見文末推薦閱讀。

好了,這篇文章的內(nèi)容發(fā)貨聯(lián)盟就和大家分享到這里,如果大家網(wǎng)絡(luò)推廣引流創(chuàng)業(yè)感興趣,可以添加微信:80709525  備注:發(fā)貨聯(lián)盟引流學(xué)習(xí); 我拉你進(jìn)直播課程學(xué)習(xí)群,每周135晚上都是有實(shí)戰(zhàn)干貨的推廣引流技術(shù)課程免費(fèi)分享!


版權(quán)聲明:本文內(nèi)容由互聯(lián)網(wǎng)用戶自發(fā)貢獻(xiàn),該文觀點(diǎn)僅代表作者本人。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如發(fā)現(xiàn)本站有涉嫌抄襲侵權(quán)/違法違規(guī)的內(nèi)容, 請(qǐng)發(fā)送郵件至 sumchina520@foxmail.com 舉報(bào),一經(jīng)查實(shí),本站將立刻刪除。

您可能還會(huì)喜歡:

發(fā)表評(píng)論

◎歡迎參與討論,請(qǐng)?jiān)谶@里發(fā)表您的看法、交流您的觀點(diǎn)。