宽带技术网网站,网站关键词排名优化电话,东莞市朝阳信息网络有限公司,教学互动网站开发背景系列文章目录
TensorRT环境配置–Linux(Ubuntu) 文章目录 系列文章目录前言一、环境配置二、CUDA下载安装三、cuDNN下载安装四、TensorRT下载安装五、模型创建总结 前言
TensorRT部署-Windows环境配置: https://blog.csdn.net/m0_70420861/article/details/135658922?csdn_s…系列文章目录
TensorRT环境配置–Linux(Ubuntu) 文章目录 系列文章目录前言一、环境配置二、CUDA下载安装三、cuDNN下载安装四、TensorRT下载安装五、模型创建总结 前言
TensorRT部署-Windows环境配置: https://blog.csdn.net/m0_70420861/article/details/135658922?csdn_share_tail%7B%22type%22%3A%22blog%22%2C%22rType%22%3A%22article%22%2C%22rId%22%3A%22135658922%22%2C%22source%22%3A%22m0_70420861%22%7D 一、环境配置
如果还未配置环境的话nvidia-smi是不会显示的。 以CUDA-BEVFusion部署为例搭建环境:
https://github.com/NVIDIA-AI-IOT/Lidar_AI_Solution/tree/master/CUDA-BEVFusion 查看兼容性https://docs.nvidia.com/deeplearning/tensorrt/release-notes/index.html#rel-8-6-1 查看Ubuntu版本
lsb_release -a确定各个版本 CUDA11.6 cuDNN: 8.6.0 TensorRT:8.6.1.6 Ubuntu:18.04
二、CUDA下载安装
安装前先查询一下系统里是否已经安装cuda
ll /usr/local下载地址https://developer.nvidia.com/cuda-11-6-0-download-archive?target_osLinux
wget https://developer.download.nvidia.com/compute/cuda/11.6.0/local_installers/cuda_11.6.0_510.39.01_linux.run
sudo sh cuda_11.6.0_510.39.01_linux.run安装 CUDA 时出现 “Failed to verify gcc version” 错误通常是由于系统上没有正确配置或安装 GCC。CUDA 要求必须有一个完整的 C/C 开发环境包括 GCC 和 G 等编译器。 安装一下即可
sudo apt install gcc
sudo sh cuda_11.6.0_510.39.01_linux.runaccpct之后 有driver的可以不安装就是nvidia-smi能显示的说明有driver 其他的都可以不要 如果自己另外安装驱动的话,可以参考博文https://zhuanlan.zhihu.com/p/641730069
三、cuDNN下载安装
下载地址https://developer.nvidia.com/rdp/cudnn-archive 打开cuDNN安装教程: https://docs.nvidia.com/deeplearning/cudnn/install-guide/index.html
四、TensorRT下载安装
下载安装TensorRT linux版本 TensorRT下载安装地址https://developer.nvidia.com/nvidia-tensorrt-8x-download
cd TensorRT-8.6.1.6
source ~/.bashrc
export LD_LIBRARY_PATH$LD_LIBRARY_PATH:TensorRT-8.6.1.6/include
source ~/.bashrc测试是否成功
cd TensorRT-8.6.1.6/samples/sampleOnnxMNIST
makecd TensorRT-8.6.1.6/bin/
./sample_onnx_mnist如果出现
这个错误提示表明程序找不到libnvinfer.so.8动态链接库文件。需要将该库文件所在的路径添加到LD_LIBRARY_PATH环境变量中使得程序能够正确加载该库文件。
首先需要找到libnvinfer.so.8文件所在的路径。可以使用以下命令来查找
sudo find / -name libnvinfer.so.8一旦找到该文件的路径你可以将其添加到LD_LIBRARY_PATH中方法如下
export LD_LIBRARY_PATH$LD_LIBRARY_PATH:路径
sudo ldconfig比如
export LD_LIBRARY_PATH$LD_LIBRARY_PATH:/root/TensorRT-8.6.1.6/targets/x86_64-linux-gnu/lib
sudo ldconfig./sample_onnx_mnist就成功了
关于环境配置推荐博客https://blog.csdn.net/Msjiangmei/article/details/132585145
五、模型创建
TensorRT C 代码解析可参考https://blog.csdn.net/m0_70420861/article/details/135574423
删除所有生成的目标文件、中间文件和可执行文件以便重新构建项目
make cleanmake -j64是一个make命令的参数它指定了在编译过程中同时运行的任务数量。其中-j表示并行处理的意思64表示任务的最大数量。加快编译速度
make -j64总结
TensorRT部署-Windows环境配置: https://blog.csdn.net/m0_70420861/article/details/135658922?csdn_share_tail%7B%22type%22%3A%22blog%22%2C%22rType%22%3A%22article%22%2C%22rId%22%3A%22135658922%22%2C%22source%22%3A%22m0_70420861%22%7D