威海网站建设地址,东莞找工作求职招聘,织梦网站上传,网店推广营销方案前言 最近在部署算法在板子侧遇到的一些问题汇总一下#xff1a;
一、版本问题
经过测试现在将自己环境配置如下#xff1a;
本地linux安装rknn-toolkit2-1.5.0
本地Linux使用的miniconda新建的一个python虚拟环境#xff08;自行网上查找相关方法#xff09; 安装好自…前言 最近在部署算法在板子侧遇到的一些问题汇总一下
一、版本问题
经过测试现在将自己环境配置如下
本地linux安装rknn-toolkit2-1.5.0
本地Linux使用的miniconda新建的一个python虚拟环境自行网上查找相关方法 安装好自己的虚拟环境之后安装所需的依赖包 sudo apt-get install libxslt1-dev zlib1g-dev libglib2.0 libsm6 libgl1-mesa-glx libprotobuf-dev gcc 将官方的RKNN-Toolkit2库git到linux本地(如果提示没有找到git命令使用sudo apt install git-all安装git工具) git clone https://github.com/rockchip-linux/rknn-toolkit2进入 Toolkit2 工程文件夹 根据工程的保存路径修改 cd 命令中的路径。
cd ~/rknn-toolkit2安装必要相应版本的依赖包这里我安装和我自己linux匹配的py3.8版本 pip3 install -r doc/requirements_cp38-1.5.0 安装 RKNN-Toolkit2Python3.6 for x86_64 pip3 install package/rknn_toolkit2-1.5.01fa95b5c-cp38-cp38-linux_x86_64检查 RKNN-Toolkit2 是否安装成功。 出现这个界面就说明本地linux端的安装已经成功 可以运行官方的examples案例检测rknn-toolkit2/examples/onnx/yolov5
板子RK3568环境安装
git源码到板子上
git clone https://github.com/rockchip-linux/rknn-toolkit2cd ./rknn_toolkit_lite2文件结构如下
环境安装 sudo apt update
#安装python工具等
sudo apt-get install python3-dev python3-pip gcc
#安装相关依赖和软件包
pip3 install wheel
sudo apt-get install -y python3-opencv
sudo apt-get install -y python3-numpy
sudo apt -y install python3-setuptoolsToolkit Lite2工具安装
# 进入到rknn_toolkit_lite2目录下
cd rknn_toolkit_lite2/
# ubuntu22 python3.7
pip3 install packages/rknn_toolkit_lite2-1.5.0-cp310-cp310m-linux_aarch64.whl检测安装成功
python3from rknnlite.api import RKNNLite运行官方的demo 此时运行一定是在rknn_toolkit_lite2这个文件下找到examples进行运行
运行我的demo仓库地址https://gitee.com/wangyoujie11/rk3568_-demo Mnist_PC放在本地电脑的linux环境下激活自己的python虚拟环境然后python test.py就可以运行 Mnist_rk3568放在板子的linux环境下然后python3 rk3568_test.py就可以运行 运行结果分别如下 pc端程序里加载的1.png RK3568板子端程序里加载的7.png
---------------------------------------------分割线不定期更新-----------------------------------------
问题一
在使用RK3568开发板的时候在板子侧部署.rknn模型推理的时候报错*Exception: RKNN init failed. error code: RKNN_ERR_MALLOC_FAIL*然后查看官方的手册发现报错提示内存分配失败 但是没有对应的解决方法只能自己debug了(一杯茶一包烟一个bug找一天… 后面发现问题所在我的.onnx模型输出如下有多个输出导致在本地linux下可以运行自己的模型但是在板子上由于资源受限导致板子的内存分配失败。所以解决的办法就是将自己的.onnx模型的输出给减少。https://netron.app/可以将自己的.onnx模型加载看输入输出
#原xxx.onnx文件放在onnx文件夹下然后创建一个新的文件夹newonnx用来存放新的.onnx模型
#版本说明这里的.onnx模型是在pytorch版本1.6.0~1.10.1直接训练的模型并且在onnx版本在1.7.0~1.10.0之间
import onnx
model onnx.load(./onnx/xxx.onnx)
node model.graph.output[1]
model.graph.output.remove(node)
onnx.save(model, ./newonnx/xxx.onnx)model onnx.load(./newonnx/xxx.onnx)
for i in range(1,9): #根据自己要删除的节点设置范围node model.graph.output[1]model.graph.output.remove(node)onnx.save(model, ./newonnx/xxx.onnx)经过上面的代码裁剪.onnx模型之后 得到这个新的.onnx模型之后就可以由本地Linux运行rknn的对应api将.onnx模型转为.rknn模型然后将.rknn模型在板子上进行推理了。