国产xxxx99真实实拍_久久不雅视频_高清韩国a级特黄毛片_嗯老师别我我受不了了小说

資訊專欄INFORMATION COLUMN

Mask R-CNN源代碼終于來了,還有它背后的物體檢測平臺

robin / 2600人閱讀

摘要:現(xiàn)在,官方版開源代碼終于來了。同時發(fā)布的,是這項研究背后的一個基礎(chǔ)平臺。是的物體檢測平臺,今天宣布開源,它基于,用寫成,這次開放的代碼中就包含了的實現(xiàn)。說,將平臺開源出來,是想要加速世界各地實驗室的研究,推動物體檢測的進(jìn)展。

“等代碼吧?!?/p>

從Mask R-CNN論文亮相至今的10個月里,關(guān)于它的討論幾乎都會以這句話收尾。

現(xiàn)在,官方版開源代碼終于來了。同時發(fā)布的,是這項研究背后的一個基礎(chǔ)平臺:Detectron。

Detectron是Facebook的物體檢測平臺,今天宣布開源,它基于Caffe2,用Python寫成,這次開放的代碼中就包含了Mask R-CNN的實現(xiàn)。

除此之外,Detectron還包含了ICCV 2017較佳學(xué)生論文RetinaNet,Ross Girshick(RBG)此前的研究Faster R-CNN和RPN、Fast R-CNN、以及R-FCN的實現(xiàn)。

Detectron的基干(backbone)網(wǎng)絡(luò)架構(gòu)包括ResNeXt{50,101,152}、ResNet{50,101,152}、FPN和VGG16。

同時,F(xiàn)acebook還發(fā)布了70多種ImageNet-1k預(yù)訓(xùn)練模型的性能基準(zhǔn),包括用用1、2塊GPU時,上述各種基干架構(gòu)和檢測算法相結(jié)合做區(qū)域建議、遮罩檢測以及人體關(guān)鍵點(diǎn)檢測的訓(xùn)練時間、推理時間等。

要使用Detectron,你需要先配置英偉達(dá)GPU(是的,它還不支持CPU)、Linux系統(tǒng)和Python2,還要安裝Caffe2和COCO API。然后,三步裝上Detectron:

Clone Detectron:

# DETECTRON=/path/to/clone/detectron

git clone https://github.com/facebookresearch/detectron $DETECTRON

設(shè)置Python模塊:

cd $DETECTRON/lib && make

檢查Detectron的測試通過:

python2 $DETECTRON/tests/test_spatial_narrow_as_op.py

這樣,就足夠用預(yù)訓(xùn)練模型做推理了。

如果要用Detectron來訓(xùn)練自己的檢測模型,就需要先確保能通過符號鏈接lib/datasets/data找到數(shù)據(jù)集,然后用CMake創(chuàng)建定制的運(yùn)算符庫:

cd $DETECTRON/lib && make ops

并檢查這些運(yùn)算符的測試通過:

python2 $DETECTRON/tests/test_zero_even_op.py

Facebook還貼心地寫了份上手教程,教你用預(yù)訓(xùn)練的Mask R-CNN來做物體檢測。

如果要在本地圖像上運(yùn)行,只需要使用infer_simple.py工具,運(yùn)行:

python2 tools/infer_simple.py

? ? --cfg configs/12_2017_baselines/e2e_mask_rcnn_R-101-FPN_2x.yaml

? ? --output-dir /tmp/detectron-visualizations

? ? --image-ext jpg

? ? --wts https://s3-us-west-2.amazonaws.com/detectron/35861858/12_2017_baselines/e2e_mask_rcnn_R-101-FPN_2x.yaml.02_32_51.SgT4y1cO/output/train/coco_2014_train:coco_2014_valminusminival/generalized_rcnn/model_final.pkl

? ? demo

就能得到如下圖所示的輸出。

如果要在COCO數(shù)據(jù)集上做推理,需要運(yùn)行:

python2 tools/test_net.py

? ? --cfg configs/12_2017_baselines/e2e_mask_rcnn_R-101-FPN_2x.yaml

? ? TEST.WEIGHTS https://s3-us-west-2.amazonaws.com/detectron/35861858/12_2017_baselines/e2e_mask_rcnn_R-101-FPN_2x.yaml.02_32_51.SgT4y1cO/output/train/coco_2014_train:coco_2014_valminusminival/generalized_rcnn/model_final.pkl

? ? NUM_GPUS 1

上面這個例子,用了端到端預(yù)訓(xùn)練的Mask R-CNN,在一塊GPU上運(yùn)行。如果要使用多個GPU,需要在第二行之后添加 —multi-gpu-testing 并更改最后的NUM_GPUS數(shù)量。

截至量子位發(fā)稿,Detectron在GitHub上放出7小時,已經(jīng)收獲738顆星標(biāo)、101次Fork。

RBG在Facebook上發(fā)帖介紹說,這個項目2016年7月啟動,想要基于Caffe 2構(gòu)建一個快速、靈活的物體檢測系統(tǒng),至今已經(jīng)一年半的時間。Detectron系統(tǒng)本來是Facebook內(nèi)部使用的,我們前面提到的Mask R-CNN和RetinaNet背后,都由Detectron提供支持。

除了RBG之外,Ilija Radosavovic、Georgia Gkioxari、Piotr Dollar和何愷明也參與了Detectron項目。

在Facebook內(nèi)部,Detectron不僅用于研究,還用來為增強(qiáng)現(xiàn)實、商業(yè)誠信等方面的應(yīng)用訓(xùn)練定制化的模型。這些模型訓(xùn)練完成后可以部署在云端或者移動設(shè)備上,由Caffe2運(yùn)行時提供支持。

RBG說,F(xiàn)acebook將Detectron平臺開源出來,是想要加速世界各地實驗室的研究,推動物體檢測的進(jìn)展。

Now go forth and create algorithms to detect all of the things!

想用Detectron搞物體檢測算法,你可能要用到下面這些鏈接:

Detectron開源代碼:

https://github.com/facebookresearch/Detectron

相關(guān)物體檢測論文:

Mask R-CNN

https://arxiv.org/abs/1703.06870

RetinaNet

https://arxiv.org/abs/1708.02002

Faster R-CNN和RPN

https://arxiv.org/abs/1506.01497

Fast R-CNN

https://arxiv.org/abs/1504.08083

R-FCN

https://arxiv.org/abs/1605.06409

性能基準(zhǔn)和Model ZOO:

https://github.com/facebookresearch/Detectron/blob/master/MODEL_ZOO.md

另外,你們可能還想去RBG大神的FB帖子底下表達(dá)一波感謝(以及質(zhì)問開源代碼為何拖了這么久):

https://www.facebook.com/ross.girshick/posts/10159910213745261

歡迎加入本站公開興趣群

商業(yè)智能與數(shù)據(jù)分析群

興趣范圍包括各種讓數(shù)據(jù)產(chǎn)生價值的辦法,實際應(yīng)用案例分享與討論,分析工具,ETL工具,數(shù)據(jù)倉庫,數(shù)據(jù)挖掘工具,報表系統(tǒng)等全方位知識

QQ群:81035754

文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請注明本文地址:http://m.specialneedsforspecialkids.com/yun/4710.html

相關(guān)文章

  • 何愷明團(tuán)隊推出Mask^X R-CNN,將實例分割擴(kuò)展到3000類

    摘要:從標(biāo)題上可以看出,這是一篇在實例分割問題中研究擴(kuò)展分割物體類別數(shù)量的論文。試驗結(jié)果表明,這個擴(kuò)展可以改進(jìn)基準(zhǔn)和權(quán)重傳遞方法。 今年10月,何愷明的論文Mask R-CNN摘下ICCV 2017的較佳論文獎(Best Paper Award),如今,何愷明團(tuán)隊在Mask R-CNN的基礎(chǔ)上更近一步,推出了(以下稱Mask^X R-CNN)。這篇論文的第一作者是伯克利大學(xué)的在讀博士生胡戎航(清華...

    MockingBird 評論0 收藏0
  • CNN 在圖像分割中簡史:從 R-CNNMask R-CNN

    摘要:這個像素級別的圖像分割問題被等科學(xué)家解決,這個框架被稱為。由于圖像分割需要做到像素級,這與邊框分割不同,所以必然導(dǎo)致不準(zhǔn)確。 作者:chen_h微信號 & QQ:862251340微信公眾號:coderpai簡書地址:https://www.jianshu.com/p/867... 自從?Alex Krizhevsky, Geoff Hinton, and Ilya Sutskeve...

    AJie 評論0 收藏0
  • 用于圖像分割卷積神經(jīng)網(wǎng)絡(luò):從R-CNN到Mark R-CNN

    摘要:自從和在年贏得了的冠軍,卷積神經(jīng)網(wǎng)絡(luò)就成為了分割圖像的黃金準(zhǔn)則。事實上,從那時起,卷積神經(jīng)網(wǎng)絡(luò)不斷獲得完善,并已在挑戰(zhàn)上超越人類。現(xiàn)在,卷積神經(jīng)網(wǎng)絡(luò)在的表現(xiàn)已超越人類。 卷積神經(jīng)網(wǎng)絡(luò)(CNN)的作用遠(yuǎn)不止分類那么簡單!在本文中,我們將看到卷積神經(jīng)網(wǎng)絡(luò)(CNN)如何在圖像實例分割任務(wù)中提升其結(jié)果。自從 Alex Krizhevsky、Geoff Hinton 和 Ilya Sutskever ...

    daydream 評論0 收藏0
  • 深度學(xué)習(xí)時代目標(biāo)檢測算法

    摘要:目前目標(biāo)檢測領(lǐng)域的深度學(xué)習(xí)方法主要分為兩類的目標(biāo)檢測算法的目標(biāo)檢測算法。原來多數(shù)的目標(biāo)檢測算法都是只采用深層特征做預(yù)測,低層的特征語義信息比較少,但是目標(biāo)位置準(zhǔn)確高層的特征語義信息比較豐富,但是目標(biāo)位置比較粗略。 目前目標(biāo)檢測領(lǐng)域的深度學(xué)習(xí)方法主要分為兩類:two stage的目標(biāo)檢測算法;one stage的目標(biāo)檢測算法。前者是先由算法生成一系列作為樣本的候選框,再通過卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行樣本...

    wfc_666 評論0 收藏0
  • ECCV 2018 | CornerNet:目標(biāo)檢測算法新思路

    摘要:表示類別為,坐標(biāo)是的預(yù)測熱點(diǎn)圖,表示相應(yīng)位置的,論文提出變體表示檢測目標(biāo)的損失函數(shù)由于下采樣,模型生成的熱點(diǎn)圖相比輸入圖像分辨率低。模型訓(xùn)練損失函數(shù)使同一目標(biāo)的頂點(diǎn)進(jìn)行分組,損失函數(shù)用于分離不同目標(biāo)的頂點(diǎn)。 本文由極市博客原創(chuàng),作者陳泰紅。 1.目標(biāo)檢測算法概述 CornerNet(https://arxiv.org/abs/1808.01244)是密歇根大學(xué)Hei Law等人在發(fā)表E...

    awkj 評論0 收藏0

發(fā)表評論

0條評論

閱讀需要支付1元查看
<