1. 下载源码
链接如下:[https://github/PaddlePaddle/PaddleDetection.git]
笔者用的是v2.3版本

2. 安装相关软件
CUDA、Cudnn
Visual studio 2019
cmake
opencv
TensorRT
具体安装细节,本文不再阐述,读者自行百度安装。

3. 下载Paddle_inference推理库
下载链接:https://paddleinference.paddlepaddle/user_guides/download_lib.html#windows

4、编译方法一:使用visual studio 2019
打开visual studio 2019,选择 “继续但无需代码”。

点击"文件",选择"打开",选择”CMake(M)“,最后打开./deploy/cpp/CMakeList.txt

选择"项目",点击”CMake设置“

CMake设置的界面如下图所示,为CUDA_LIB、CUDNN_LIB、OPENCV_DIR、PADDLE_DIR、PADDLE_LIB_NAME、TENSORRT_INC_DIR、TENSORRT_LIB_DIR、WITH_GPU、WITH_KEYPOINT、WITH_MKL、WITH_MOT、WITH_TENSORRT设置变量。

笔者设置的变量供您参考:
CUDA_LIB = C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.2\lib\x64
CUDNN_LIB = C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.2\lib\x64
OPENCV_DIR = D:\deeplearning_soft\opencv
PADDLE_DIR = E:\wyk\paddle_inference
PADDLE_LIB_NAME = paddle_inference
TENSORRT_INC_DIR = D:\deeplearning_soft\TensorRT-7.0.0.11
TENSORRT_LIB_DIR = D:\deeplearning_soft\TensorRT-7.0.0.11\lib
WITH_GPU 打对勾
WITH_KEYPOINT 打对勾
WITH_MKL 打对勾
WITH_MOT 打对勾
WITH_TENSORRT 打对勾

设置完变量后,点击"保存并生成CMake缓存以加载变量"

生成万cmake,再点击主页面的"全部生成"。

注意:CMAKE_BUILD_TYPE和”配置类型“都要设为Release



生成后的内容如下图所示:

推理时:
先进入可执行文件所在的目录中,打开cmd,并切换到该目录下:
推理命令:mian.exe --model_dir=“xxxx” --image_file=“xxxx” --device=“xxxx”

若您想要用PaddleDetection生成VS工程,请参考笔者的另外一篇文章。链接如下:https://blog.csdn/weixin_43917589/article/details/122418857?spm=1001.2014.3001.5501

更多推荐

windows下PaddleDetection的c++推理实现细节