English | 简体中文
- Linux: gcc/g++
- Windows: MSVC
- CMake or Xmake
- CUDA
- cuDNN
- TensorRT
为了满足部署需求,您可以选择使用 Xmake 或 CMake 来编译动态库。以下是详细的编译指南:
首先,克隆 TensorRT-YOLO 仓库:
git clone https://github.com/laugh12321/TensorRT-YOLO
cd TensorRT-YOLO
如果您选择使用 Xmake,可以按照以下步骤操作:
xmake f --tensorrt="/usr/local/tensorrt" # 配置TensorRT路径
xmake -P . -r # 编译项目
如果您选择使用 CMake,可以按照以下步骤操作:
pip install "pybind11[global]"
mkdir build && cd build # 创建并进入构建目录
cmake -DTENSORRT_PATH=/usr/local/tensorrt .. # 配置TensorRT路径
cmake --build . -j8 --config Release # 编译项目,使用8个核心
编译完成后,根目录下将创建一个名为 lib
的文件夹,同时在 tensorrt_yolo/libs
路径下生成相应的Python绑定。lib
文件夹内包含两个主要元素:首先是名为 deploy
的动态库文件,其次是一个名为 plugin
的子文件夹。在这个 plugin
子文件夹中,您会找到编译生成的 TensorRT 自定义插件动态库。
如果您仅想通过 tensorrt_yolo
提供的命令行界面(CLI)工具 trtyolo
,导出可供该项目推理的 ONNX 模型(带 TensorRT 插件),可以通过 PyPI 安装,只需执行以下命令即可:
pip install -U tensorrt_yolo
如果想体验与 C++ 同样的推理速度,则需要自行构建最新版本的 tensorrt_yolo
。
Note
在构建 tensorrt_yolo
前,需要先对 TensorRT-YOLO
进行编译,生成相应的Python绑定。
Important
为了避免自行构建的 tensorrt_yolo
出现 RuntimeError: Deploy initialization failed! Error: DLL load failed while importing pydeploy
错误,强烈建议遵循以下约束:
- 正确安装 CUDA、cuDNN、TensorRT 并配置环境变量;
- 确保 cuDNN、TensorRT 版本与 CUDA 版本匹配;
- 避免存在多个版本的 CUDA、cuDNN、TensorRT。
cd TensorRT-YOLO
pip install --upgrade build
python -m build --wheel
# 仅安装推理相关依赖
pip install dist/tensorrt_yolo-5.*-py3-none-any.whl
# 安装模型导出相关依赖以及推理相关依赖
pip install dist/tensorrt_yolo-5.*-py3-none-any.whl[export]