日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

docker与mmdetection

發布時間:2023/12/10 编程问答 42 豆豆
生活随笔 收集整理的這篇文章主要介紹了 docker与mmdetection 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

這里不再介紹 mmdetection 的安裝和配置,使用 mmdetection 較簡單的方法是使用已安裝 mmdetection 的 docker 容器。這樣直接省去了安裝 mmdetection 的過程,讓重心放在模型訓練上!

如果你對 docker 和 mmdetection 還不是很熟悉,請自行搜索一下,本文就不再贅述了。

這里附上 mmdetection 的 GitHub 地址:

https://github.com/open-mmlab/mmdetection

0. 前期準備

首先默認你的電腦已經做好了下面這些前期準備工作:

  • Ubuntu 16.04 或以上

  • GPU 安裝

  • cuda 安裝

  • cudnn 安裝

  • docker 安裝

  • nvidia-docker

當然,如果你連接的是公司或學校的服務器,且服務器已經做了上面幾點準備,那你只需要一個 Xshell 遠程登錄服務器就行了。

1. 下載含 mmdetection 的 docker 鏡像

首先,我們需要找到一個已經配置好 mmdetection 環境的 docker 鏡像。可以在 dockerhub 上用 “mmdetection” 作為關鍵詞進行搜索,也可以在 terminal 里直接使用命令 docker search 進行搜索:

$ docker search mmdetection

結果顯示如下圖所示:

這里,我們選擇排第一的 vistart/mmdetection 鏡像,下載 docker 鏡像的方法也很簡單,使用 docker pull 從鏡像倉庫中拉取指定鏡像:

$ docker pull vistart/mmdetection

如果網絡沒問題,下載會在幾分鐘之內完成。下載完成之后,我們就可以查看 vistart/mmdetection 鏡像是否已經放在本地鏡像里了:

$ docker images

可以看到 vistart/mmdetection 鏡像已經成功下載了。

2. 新建含 mmdetection 的容器

包含 mmdetection 的鏡像已經下載好了,下一步就是新建一個 docker 容器以供使用了:

$ docker run --runtime=nvidia --name mm_prj -i -t vistart/mmdetection /bin/bash

對上面的命令解釋一下:–runtime=nvidia 很關鍵,能使新建的 docker 容器能使用宿主機器的 GPU,不加這個參數則默認使用 CPU;–name mm_prj 是對新建的 docker 容器進行命名,該名稱為 mm_prj,讀者可自行修改。

新建容器之后的界面如下:

至此,名為 mm_prj 容器已經打開了。可以看到,該目錄中已經包含了 mmdetection 目錄,表示該 docker 鏡像已經安裝好了 mmdetection。

補充:

另外,補充一些退出容器、進入容器的操作。

退出容器:

# exit

查看現有容器:

$ docker ps -a

可以看到,名為 mm_prj 的 docker 容器已經在容器列表了。

打開容器:

$ docker start mm_prj $ docker exec -i -t mm_prj /bin/bash

3. 導入自己的 VOC 數據

這一步,我們需要把自己的數據打包成 Pascal VOC 格式。其目錄結構如下:

VOCdevkit--VOC2007----Annotations----ImageSets------Main----JEPGImages

簡單介紹一下,其中 Annotations 存放的是 .xml 文件,JEPFImages 存放的是 .jpg 圖片。

按照此格式放置好自己的訓練數據之后,需要切分訓練數據和測試數據。在 VOCdevkit 目錄下新建一個 test.py 文件。test.py 內容為:

import os import randomtrainval_percent = 0.8 train_percent = 0.8 xmlfilepath = 'Annotations' txtsavepath = 'ImageSets\Main' total_xml = os.listdir(xmlfilepath)num = len(total_xml) list = range(num) tv = int(num * trainval_percent) tr = int(tv * train_percent) trainval = random.sample(list, tv) train = random.sample(trainval, tr)ftrainval = open('ImageSets/Main/trainval.txt', 'w') ftest = open('ImageSets/Main/test.txt', 'w') ftrain = open('ImageSets/Main/train.txt', 'w') fval = open('ImageSets/Main/val.txt', 'w')for i in list:name = total_xml[i][:-4] + '\n'if i in trainval:ftrainval.write(name)if i in train:ftrain.write(name)else:fval.write(name)else:ftest.write(name)ftrainval.close() ftrain.close() fval.close() ftest.close()

上面的代碼劃分數據集,trainval 占 80%,作為訓練集;test 占 20%,作為測試集。

運行 test.py,將會在 VOCdevkit/ImageSets/Main 目錄下生成下面三個文件:

打開文件可以看到,trainval.txt 包含訓練時所有的樣本索引,test.txt 包含測試時所有的樣本索引。

自己的 VOC 數據制作完畢之后,從宿主機(Ubuntu)復制到 /mmdetection/data/ 目錄下:

$ docker cp VOCdevkit mm_prj:/mmdetection/data/

4. 修改 class_names.py 文件

打開 /mmdetection/mmdet/core/evaluation/class_names.py 文件,修改 voc_classes 為將要訓練的數據集的類別名稱。如果不改的話,最后測試的結果的名稱還會是’aeroplane’, ‘bicycle’, ‘bird’, ‘boat’,…這些。改完后如圖:

5. 修改 voc.py 文件

打開 mmdetection/mmdet/datasets/voc.py 文件,修改 VOCDataset 的 CLASSES 為將要訓練的數據集的類別名稱。

如果只有一個類,要加上一個逗號,否則將會報錯。

6. 修改配置文件

mmdetection 中提供了很多目標檢測模型可供使用。例如,進入 /mmdetection/config/ 目錄,就會看到很多模型:

根據我們選擇使用的模型,修改相應的配置文件。本文我們使用的是FasterRCNN 模型,修改的是 faster_rcnn_r50_fpn_1x.py 文件。

6.1 修改 num_classes 變量

打開 faster_rcnn_r50_fpn_1x.py,將 num_classes 變量改為:類別數 + 1(例如我有 20 類,因此改為 21):

6.2 修改 data_settings

因為 faster_rcnn_r50_fpn_1x.py 默認使用的是 coco 數據集格式,我們要對其修改成相應的 VOC 數據格式。修改后的內容如下圖所示:

6.3 調整學習率

本文使用單 gpu 訓練,修改 img_per_gpu = 2,workers_per_gpu = 0。

對學習率的調整,一般遵循下面的習慣:

  • 8 gpus、imgs_per_gpu = 2:lr = 0.02;

  • 2 gpus、imgs_per_gpu = 2 或 4 gpus、imgs_per_gpu = 1:lr = 0.005;

  • 4 gpus、imgs_per_gpu = 2:lr = 0.01

這里,我們只使用單 gpu,且 img_per_gpu = 2,則設置 lr = 0.00125。

這里說一下 epoch 的選擇,默認 total_epoch = 12,learning_policy 中,step = [8,11]。total_peoch 可以自行修改,若 total_epoch = 50,則 learning_policy 中,step 也相應修改,例如 step = [38,48]。

至此,配置文件已修改完畢。

7. 模型訓練

模型訓練非常簡單,只需一行命令:

python3 ./tools/train.py ./configs/faster_rcnn_r50_fpn_1x.py

注意執行上面的命令是在 /mmdetection 目錄下。

如果有多個 gpu,例如 0, 1 號 gpu 都可用,則可以全部用起來訓練,命令如下:

CUDA_VISIBLE_DEVICES=0,1 python3 ./tools/train.py ./configs/faster_rcnn_r50_fpn_1x.py --gpus 2

上面的 –gpus 2 表示使用的 gpu 個數為 2。如果使用多塊 gpu,注意修改學習率 lr。

然后,訓練就開始了:

從打印出的信息中,可以看到當前的 epoch 和 loss 值。

每個 epoch 會生成一個模型,并自動保存在 /mmdetection/work_dirs/faster_rcnn_r50_fpn_1x/ 目錄下。

訓練完成之后,latest.pth 即 epoch_12.pth 就是最終的模型。

8. 模型測試,計算 mAP

下面我們將使用訓練好的模型對測試集進行驗證,并計算 mAP。

8.1 生成 pkl 文件

首先,生成 pkl 文件:

python3 ./tools/test.py ./configs/faster_rcnn_r50_fpn_1x.py ./work_dirs/faster_rcnn_r50_fpn_1x/latest.pth --out=result.pkl

8.2 計算測試集

mAP 對測試集計算 mAP,只需一行命令:

python3 ./tools/voc_eval.py result.pkl ./configs/faster_rcnn_r50_fpn_1x.py

計算結果如下:

圖中可以看到,最后計算的 mAP = 0.978。(本文中的目標檢測場景比較簡單,目標清晰明確,故 mAP 很高)

9. 總結

好了,以上就是教你如何一步一步在 docker 容器中使用 mmdetection 來訓練自己的數據集并測試。建議大家使用自己的數據集嘗試跑一下,看下效果~

總結

以上是生活随笔為你收集整理的docker与mmdetection的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。