TensorRT是NVIDIA推出的高性能深度学习推理优化库,能够显著提升模型在NVIDIA GPU上的运行效率。无论你是AI开发者还是研究人员,掌握TensorRT安装都是优化推理性能的第一步。本文将手把手教你如何在Linux和Windows两大主流平台上完成TensorRT的安装与配置,即使是小白也能轻松上手。
在开始TensorRT安装之前,请确保你的机器满足以下条件:
访问NVIDIA官网的TensorRT下载页面(需注册账号),选择与你的CUDA版本对应的Linux安装包。推荐使用Tar包(.tar.gz)进行安装,因为它不依赖包管理器,兼容性最好。
打开终端,执行以下命令:
cd ~/Downloadstar -xzvf TensorRT-8.x.x.x.Linux.x86_64-gnu.cuda-xx.x.tar.gzsudo mv TensorRT-8.x.x.x /usr/local/sudo ln -s /usr/local/TensorRT-8.x.x.x /usr/local/tensorrt
然后配置环境变量,编辑 ~/.bashrc,添加:
export LD_LIBRARY_PATH=/usr/local/tensorrt/lib:$LD_LIBRARY_PATHexport PATH=/usr/local/tensorrt/bin:$PATH
执行 source ~/.bashrc 使生效。
运行 trtexec --version 如果显示版本信息,则说明TensorRT安装成功。
同样在NVIDIA官网下载Windows版本的ZIP包(如 TensorRT-8.x.x.x.Windows.win10.cuda-xx.x.zip)。解压到指定目录,例如 C:\Program Files\TensorRT。
右键“此电脑” → “属性” → “高级系统设置” → “环境变量”。在“系统变量”中新建变量 TENSORRT_ROOT,值为你的解压路径。然后在 Path 中添加 %TENSORRT_ROOT%\lib 和 %TENSORRT_ROOT%in。
打开命令提示符,输入 trtexec --version,若显示版本信息则成功。
除了命令行工具,你还可以通过Python接口验证。确保已安装Python和pip,然后安装TensorRT的Python包(以Linux为例):
cd /usr/local/tensorrt/pythonpip install tensorrt-8.x.x.x-cp38-none-linux_x86_64.whl
然后运行Python:
import tensorrt as trtprint(trt.version)
如果能正常打印版本号,说明Python接口也安装成功。
LD_LIBRARY_PATH包含CUDA的lib64路径。通过本文,你已经在Linux和Windows上成功完成了TensorRT安装。接下来就可以利用TensorRT的强大功能优化你的深度学习模型了。记住,安装教程只是第一步,实践才是关键!
关键词:TensorRT、安装教程、Linux平台、Windows平台
本文由主机测评网于2026-03-11发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://vpshk.cn/20260330330.html