摘要:現(xiàn)在,官方版開源代碼終于來了。同時發(fā)布的,是這項研究背后的一個基礎(chǔ)平臺。是的物體檢測平臺,今天宣布開源,它基于,用寫成,這次開放的代碼中就包含了的實現(xiàn)。說,將平臺開源出來,是想要加速世界各地實驗室的研究,推動物體檢測的進(jìn)展。
“等代碼吧?!?/p>
從Mask R-CNN論文亮相至今的10個月里,關(guān)于它的討論幾乎都會以這句話收尾。
現(xiàn)在,官方版開源代碼終于來了。同時發(fā)布的,是這項研究背后的一個基礎(chǔ)平臺:Detectron。
Detectron是Facebook的物體檢測平臺,今天宣布開源,它基于Caffe2,用Python寫成,這次開放的代碼中就包含了Mask R-CNN的實現(xiàn)。
除此之外,Detectron還包含了ICCV 2017較佳學(xué)生論文RetinaNet,Ross Girshick(RBG)此前的研究Faster R-CNN和RPN、Fast R-CNN、以及R-FCN的實現(xiàn)。
Detectron的基干(backbone)網(wǎng)絡(luò)架構(gòu)包括ResNeXt{50,101,152}、ResNet{50,101,152}、FPN和VGG16。
同時,F(xiàn)acebook還發(fā)布了70多種ImageNet-1k預(yù)訓(xùn)練模型的性能基準(zhǔn),包括用用1、2塊GPU時,上述各種基干架構(gòu)和檢測算法相結(jié)合做區(qū)域建議、遮罩檢測以及人體關(guān)鍵點(diǎn)檢測的訓(xùn)練時間、推理時間等。
要使用Detectron,你需要先配置英偉達(dá)GPU(是的,它還不支持CPU)、Linux系統(tǒng)和Python2,還要安裝Caffe2和COCO API。然后,三步裝上Detectron:
Clone Detectron:
# DETECTRON=/path/to/clone/detectron
git clone https://github.com/facebookresearch/detectron $DETECTRON
設(shè)置Python模塊:
cd $DETECTRON/lib && make
檢查Detectron的測試通過:
python2 $DETECTRON/tests/test_spatial_narrow_as_op.py
這樣,就足夠用預(yù)訓(xùn)練模型做推理了。
如果要用Detectron來訓(xùn)練自己的檢測模型,就需要先確保能通過符號鏈接lib/datasets/data找到數(shù)據(jù)集,然后用CMake創(chuàng)建定制的運(yùn)算符庫:
cd $DETECTRON/lib && make ops
并檢查這些運(yùn)算符的測試通過:
python2 $DETECTRON/tests/test_zero_even_op.py
Facebook還貼心地寫了份上手教程,教你用預(yù)訓(xùn)練的Mask R-CNN來做物體檢測。
如果要在本地圖像上運(yùn)行,只需要使用infer_simple.py工具,運(yùn)行:
python2 tools/infer_simple.py
? ? --cfg configs/12_2017_baselines/e2e_mask_rcnn_R-101-FPN_2x.yaml
? ? --output-dir /tmp/detectron-visualizations
? ? --image-ext jpg
? ? --wts https://s3-us-west-2.amazonaws.com/detectron/35861858/12_2017_baselines/e2e_mask_rcnn_R-101-FPN_2x.yaml.02_32_51.SgT4y1cO/output/train/coco_2014_train:coco_2014_valminusminival/generalized_rcnn/model_final.pkl
? ? demo
就能得到如下圖所示的輸出。
如果要在COCO數(shù)據(jù)集上做推理,需要運(yùn)行:
python2 tools/test_net.py
? ? --cfg configs/12_2017_baselines/e2e_mask_rcnn_R-101-FPN_2x.yaml
? ? TEST.WEIGHTS https://s3-us-west-2.amazonaws.com/detectron/35861858/12_2017_baselines/e2e_mask_rcnn_R-101-FPN_2x.yaml.02_32_51.SgT4y1cO/output/train/coco_2014_train:coco_2014_valminusminival/generalized_rcnn/model_final.pkl
? ? NUM_GPUS 1
上面這個例子,用了端到端預(yù)訓(xùn)練的Mask R-CNN,在一塊GPU上運(yùn)行。如果要使用多個GPU,需要在第二行之后添加 —multi-gpu-testing 并更改最后的NUM_GPUS數(shù)量。
截至量子位發(fā)稿,Detectron在GitHub上放出7小時,已經(jīng)收獲738顆星標(biāo)、101次Fork。
RBG在Facebook上發(fā)帖介紹說,這個項目2016年7月啟動,想要基于Caffe 2構(gòu)建一個快速、靈活的物體檢測系統(tǒng),至今已經(jīng)一年半的時間。Detectron系統(tǒng)本來是Facebook內(nèi)部使用的,我們前面提到的Mask R-CNN和RetinaNet背后,都由Detectron提供支持。
除了RBG之外,Ilija Radosavovic、Georgia Gkioxari、Piotr Dollar和何愷明也參與了Detectron項目。
在Facebook內(nèi)部,Detectron不僅用于研究,還用來為增強(qiáng)現(xiàn)實、商業(yè)誠信等方面的應(yīng)用訓(xùn)練定制化的模型。這些模型訓(xùn)練完成后可以部署在云端或者移動設(shè)備上,由Caffe2運(yùn)行時提供支持。
RBG說,F(xiàn)acebook將Detectron平臺開源出來,是想要加速世界各地實驗室的研究,推動物體檢測的進(jìn)展。
Now go forth and create algorithms to detect all of the things!
想用Detectron搞物體檢測算法,你可能要用到下面這些鏈接:
Detectron開源代碼:
https://github.com/facebookresearch/Detectron
相關(guān)物體檢測論文:
Mask R-CNN
https://arxiv.org/abs/1703.06870
RetinaNet
https://arxiv.org/abs/1708.02002
Faster R-CNN和RPN
https://arxiv.org/abs/1506.01497
Fast R-CNN
https://arxiv.org/abs/1504.08083
R-FCN
https://arxiv.org/abs/1605.06409
性能基準(zhǔn)和Model ZOO:
https://github.com/facebookresearch/Detectron/blob/master/MODEL_ZOO.md
另外,你們可能還想去RBG大神的FB帖子底下表達(dá)一波感謝(以及質(zhì)問開源代碼為何拖了這么久):
https://www.facebook.com/ross.girshick/posts/10159910213745261
歡迎加入本站公開興趣群商業(yè)智能與數(shù)據(jù)分析群
興趣范圍包括各種讓數(shù)據(jù)產(chǎn)生價值的辦法,實際應(yīng)用案例分享與討論,分析工具,ETL工具,數(shù)據(jù)倉庫,數(shù)據(jù)挖掘工具,報表系統(tǒng)等全方位知識
QQ群:81035754
文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請注明本文地址:http://m.specialneedsforspecialkids.com/yun/4710.html
摘要:從標(biāo)題上可以看出,這是一篇在實例分割問題中研究擴(kuò)展分割物體類別數(shù)量的論文。試驗結(jié)果表明,這個擴(kuò)展可以改進(jìn)基準(zhǔn)和權(quán)重傳遞方法。 今年10月,何愷明的論文Mask R-CNN摘下ICCV 2017的較佳論文獎(Best Paper Award),如今,何愷明團(tuán)隊在Mask R-CNN的基礎(chǔ)上更近一步,推出了(以下稱Mask^X R-CNN)。這篇論文的第一作者是伯克利大學(xué)的在讀博士生胡戎航(清華...
摘要:這個像素級別的圖像分割問題被等科學(xué)家解決,這個框架被稱為。由于圖像分割需要做到像素級,這與邊框分割不同,所以必然導(dǎo)致不準(zhǔn)確。 作者:chen_h微信號 & QQ:862251340微信公眾號:coderpai簡書地址:https://www.jianshu.com/p/867... 自從?Alex Krizhevsky, Geoff Hinton, and Ilya Sutskeve...
摘要:自從和在年贏得了的冠軍,卷積神經(jīng)網(wǎng)絡(luò)就成為了分割圖像的黃金準(zhǔn)則。事實上,從那時起,卷積神經(jīng)網(wǎng)絡(luò)不斷獲得完善,并已在挑戰(zhàn)上超越人類。現(xiàn)在,卷積神經(jīng)網(wǎng)絡(luò)在的表現(xiàn)已超越人類。 卷積神經(jīng)網(wǎng)絡(luò)(CNN)的作用遠(yuǎn)不止分類那么簡單!在本文中,我們將看到卷積神經(jīng)網(wǎng)絡(luò)(CNN)如何在圖像實例分割任務(wù)中提升其結(jié)果。自從 Alex Krizhevsky、Geoff Hinton 和 Ilya Sutskever ...
摘要:目前目標(biāo)檢測領(lǐng)域的深度學(xué)習(xí)方法主要分為兩類的目標(biāo)檢測算法的目標(biāo)檢測算法。原來多數(shù)的目標(biāo)檢測算法都是只采用深層特征做預(yù)測,低層的特征語義信息比較少,但是目標(biāo)位置準(zhǔn)確高層的特征語義信息比較豐富,但是目標(biāo)位置比較粗略。 目前目標(biāo)檢測領(lǐng)域的深度學(xué)習(xí)方法主要分為兩類:two stage的目標(biāo)檢測算法;one stage的目標(biāo)檢測算法。前者是先由算法生成一系列作為樣本的候選框,再通過卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行樣本...
摘要:表示類別為,坐標(biāo)是的預(yù)測熱點(diǎn)圖,表示相應(yīng)位置的,論文提出變體表示檢測目標(biāo)的損失函數(shù)由于下采樣,模型生成的熱點(diǎn)圖相比輸入圖像分辨率低。模型訓(xùn)練損失函數(shù)使同一目標(biāo)的頂點(diǎn)進(jìn)行分組,損失函數(shù)用于分離不同目標(biāo)的頂點(diǎn)。 本文由極市博客原創(chuàng),作者陳泰紅。 1.目標(biāo)檢測算法概述 CornerNet(https://arxiv.org/abs/1808.01244)是密歇根大學(xué)Hei Law等人在發(fā)表E...
閱讀 2416·2021-09-22 15:15
閱讀 654·2021-09-02 15:11
閱讀 1797·2021-08-30 09:48
閱讀 1896·2019-08-30 15:56
閱讀 1505·2019-08-30 15:52
閱讀 2056·2019-08-30 15:44
閱讀 445·2019-08-29 16:29
閱讀 1549·2019-08-29 11:06