TensoRrt推理环境搭建

TensoRrt推理环境搭建

_

TensoRrt推理环境搭建

第一步:安装cuda

1、安装cuda_12.2.2_537.13_windows.exe

image-20251209080009-2nlqao4.png

2、安装完毕后,需要检查系统环境变量。

image-20251209075817-47xqmcn.png

第二:安装cudnn-windows-x86_64-8.9.3.28_cuda12-archive

1、解压cudnn-windows-x86_64-8.9.3.28_cuda12-archive.zip

image-20251209080116-40owbv0.png

2、复制目录下全部文件到cuda安装文件夹下并覆盖

image-20251209080306-vs5h09m.png

第三步:安装TensorRT-8.6.1.6.Windows10.x86_64.cuda-12.0

1、解压TensorRT-8.6.1.6.Windows10.x86_64.cuda-12.0.zip

image-20251209080442-nrlf1kd.png

2、将下载好的TensorRT部分内容复制到CUNDN目录下,主要是复制TensorRT目录下的include​、lib​两个文件夹到C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.2​目录下

image-20251209080645-jazzim2.png

3、将C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.2\lib​目录下中的TensorRT的dll文件,全部复制到上级目录下的bin文件夹下

image-20251209080759-sf45iix.png

image-20251209081038-8h89rw7.png

第四步:打开项目文件

1、使用Visual Studio​打开解决方案文件:TensorRT-CSharp-API-TensorRtSharp2.0​直接生成C++项目,此处选择生成​,不要选择运行,最终可以看出生成的动态链接库文件名称以及文件路径。

image-20251209081209-6ztrvgq.png

image-20251209081301-yovgcu6.png

2、编译C#项目

接下来编译C#项目,C#​项目此处也无须再修改,我们此处添加的是dll文件的绝对路径,因此在使用时,需要将上文生成的dll文件复制到运行目录下。如鼓励开发者觉得比较麻烦,依旧可以跟之前一样,只需要修改一下位置即可,修改NativeMethods.cs文件中的dll文件路径,该路径及上一步中C++项目生成的动态链接库文件

image-20251209081447-2h3zdsk.png

接下来就可以运行C#项目,生成类库文件

image-20251209081507-ij9g1lh.png

此处我们同时生成了.NET FrameWork 4.6、.NET FrameWork 4…72、.NET FrameWork 4.8、.NET 8.0、.NET 6.0、.NET 5.0、.NET 3.1,后续使用时,根据生成版本进行选择即可。

​​

miniconda基本指令 2025-12-09