pytorch C++部署模型 ONNX tensorRT
生活随笔
收集整理的這篇文章主要介紹了
pytorch C++部署模型 ONNX tensorRT
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
(1)
C++部署pytorch模型(上)
(2)
TensorRT5介紹及Pytorch轉TensorRT5代碼示例
TensorRT的使用步驟:(假設以及有一個訓練好的模型)
(1) 根據模型創建TensorRT網絡定義
(2) 調用TensorRT構建器從網絡創建優化的運行引擎
(3) 序列化和反序列化引擎,以便在運行時快速創建引擎
(4) 為引擎提供數據以執行計算
(3)
一般流程是這樣的。cpu: pytorch -> onnx -> onnxruntimegpu:pytorch -> onnx -> onnx2trt -> TensorRT上述庫python、C++接口都具備,可以根據需要采用轉自:python訓練的pytorch模型,如何使用c++調用并使用TensorRT加速?
(4)
tensorrt安裝_深度學習模型部署(1)Pytorch轉TensorRT(C++版)
說到底TensorRT的使用還是調包,只要對其流程熟悉了,使用起來也就不困難;
目前的模型是簡單的unet結構,模型的層TensorRT都支持,下一步需要學習TRT中如何自定義自己的層,如DCN、NMS等。
教程還是官方的詳細,本文也是對官方教程的翻譯,再加上自己的一些理解與可能遇到的錯誤。建議英文閱讀無障礙的朋友可以直接看官方的教程。
(5)
問題:為什么沒有onnx轉換pytorch的方法? - 九千樹的回答 - 知乎
因為從pytorch到onnx,包含權重參數信息的網絡結構被優化了,再返回去不好返
總結
以上是生活随笔為你收集整理的pytorch C++部署模型 ONNX tensorRT的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 牛客 华为机试(我的代码记录)
- 下一篇: 交叉熵函数(Cross Entropy)