TensoRrt推理环境搭建
第一步:安装cuda
1、安装cuda_12.2.2_537.13_windows.exe
2、安装完毕后,需要检查系统环境变量。
第二:安装cudnn-windows-x86_64-8.9.3.28_cuda12-archive
1、解压cudnn-windows-x86_64-8.9.3.28_cuda12-archive.zip
2、复制目录下全部文件到cuda安装文件夹下并覆盖
第三步:安装TensorRT-8.6.1.6.Windows10.x86_64.cuda-12.0
1、解压TensorRT-8.6.1.6.Windows10.x86_64.cuda-12.0.zip
2、将下载好的TensorRT部分内容复制到CUNDN目录下,主要是复制TensorRT目录下的include、lib两个文件夹到C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.2目录下
3、将C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.2\lib目录下中的TensorRT的dll文件,全部复制到上级目录下的bin文件夹下
第四步:打开项目文件
1、使用Visual Studio打开解决方案文件:TensorRT-CSharp-API-TensorRtSharp2.0直接生成C++项目,此处选择生成,不要选择运行,最终可以看出生成的动态链接库文件名称以及文件路径。
2、编译C#项目
接下来编译C#项目,C#项目此处也无须再修改,我们此处添加的是dll文件的绝对路径,因此在使用时,需要将上文生成的dll文件复制到运行目录下。如鼓励开发者觉得比较麻烦,依旧可以跟之前一样,只需要修改一下位置即可,修改NativeMethods.cs文件中的dll文件路径,该路径及上一步中C++项目生成的动态链接库文件
接下来就可以运行C#项目,生成类库文件
此处我们同时生成了.NET FrameWork 4.6、.NET FrameWork 4…72、.NET FrameWork 4.8、.NET 8.0、.NET 6.0、.NET 5.0、.NET 3.1,后续使用时,根据生成版本进行选择即可。