GitHub上开源的YOLOv5
GitHub上開源的YOLOv5
代碼地址:https://github.com/ultralytics/YOLOv5
該存儲庫代表Ultralytics對未來的對象檢測方法的開源研究,并結合了我們在以前的YOLO存儲庫https://github.com/ultralytics/yolov3上在自定義客戶端數據集上訓練成千上萬種模型而獲得的經驗教訓和最佳實踐。所有代碼和模型都在積極開發中,如有更改或刪除,恕不另行通知。使用風險自負。
** GPU延遲使用批量大小為32的V100 GPU測量超過5000張COCO val2017圖像的每幅圖像的端到端延遲,包括圖像預處理,PyTorch FP32推理,后處理和NMS。
2020年6月9日:CSP更新了所有YOLOv5模型。新模型更快,更小,更準確。感謝@WongKinYiu在CSP中的出色工作。
2020年5月27日:公開發布回購協議。YOLOv5模型是所有已知YOLO實現中的SOTA,YOLOv5系列將在2020年Q2 / Q3進行架構研究和開發以提高性能。更新可能包括CSP瓶頸,YOLOv4功能以及PANet或BiFPN頭。
2020年4月1日:開始開發100%PyTorch,可縮放的基于YOLOv3
/ 4的未來模型,該模型具有各種復合比例的尺寸。模型將由新的用戶友好*.yaml文件定義。新的訓練方法將更容易開始,更快地完成,并且對于訓練更多種類的自定義數據集將更加強大。
預訓練的檢查站
** AP 測試表示COCO test-dev2017服務器結果,表中所有其他AP結果表示val2017準確性。
**所有AP編號均適用于單模型單標度,無集成或測試時間增加。通過python test.py --img 736 --conf 0.001
** 再現延遲GPU使用帶有一個V100GPU 的GCP n1-standard-16實例,測量平均超過5000張COCO val2017圖像的每個圖像的端到端延遲,包括圖像預處理,批處理大小為32的PyTorch FP32推理,后處理和NMS。該圖表中包括的平均NMS時間為1-2ms / img。由python
test.py --img 640 --conf 0.1
** 復制**所有檢查點均使用默認設置和超參數訓練到300個紀元(無自動增強)。
要求
requirements.txt安裝了所有依賴項(包括)的Python 3.7或更高版本torch>= 1.5。
要安裝運行:
$ python detect.py --source file.jpg # image
file.mp4 # video
./dir # directory
0 # webcam
rtsp://170.93.143.139/rtplive/470011e600ef003a004ee33696235daa # rtsp stream
http://112.50.243.8/PLTV/88888888/224/3221225900/1.m3u8 # http stream
要對./inference/images文件夾中的示例進行推斷,請執行以下操作:
$ python detect.py --source ./inference/images/ --weights yolov5s.pt --conf 0.4
Namespace(agnostic_nms=False, augment=False, classes=None, conf_thres=0.4, device=’’, fourcc=‘mp4v’, half=False, img_size=640, iou_thres=0.5, output=‘inference/output’, save_txt=False, source=’./inference/images/’, view_img=False, weights=‘yolov5s.pt’)
Using CUDA device0 _CudaDeviceProperties(name=‘Tesla P100-PCIE-16GB’, total_memory=16280MB)
Downloading https://drive.google.com/uc?export=download&id=1R5T6rIyy3lLwgFXNms8whc-387H0tMQO as yolov5s.pt… Done (2.6s)
image 1/2 inference/images/bus.jpg: 640x512 3 persons, 1 buss, Done. (0.009s)
image 2/2 inference/images/zidane.jpg: 384x640 2 persons, 2 ties, Done. (0.009s)
Results saved to /content/yolov5/inference/output
在下面運行命令。在單臺V100上,yolov5s
/ m / l / x的訓練時間為2/4/6/8天(多GPU的速度要快)。
$ python train.py --data coco.yaml --cfg yolov5s.yaml --weights ‘’ --batch-size 16
重現環境
要訪問最新的工作環境(已預安裝所有依賴項,包括CUDA
/ CUDNN,Python和PyTorch)。
總結
以上是生活随笔為你收集整理的GitHub上开源的YOLOv5的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 深度学习调用TensorFlow、PyT
- 下一篇: GitHub上YOLOv5开源代码的训练