有什么网站可以接活做设计标志,wordpress 导出相册,上海软件定制,wordpress小红心插件树莓派摄像头 C OpenCV YoloV3 实现实时目标检测
本文将实现树莓派摄像头 C OpenCV YoloV3 实现实时目标检测#xff0c;我们会先实现树莓派对视频文件的逐帧检测来验证算法流程#xff0c;成功后#xff0c;再接入摄像头进行实时目标检测。
先声明一下笔者的主要软硬件配…树莓派摄像头 C OpenCV YoloV3 实现实时目标检测
本文将实现树莓派摄像头 C OpenCV YoloV3 实现实时目标检测我们会先实现树莓派对视频文件的逐帧检测来验证算法流程成功后再接入摄像头进行实时目标检测。
先声明一下笔者的主要软硬件配置 树莓派4B 4GB内存 CSI 摄像头 Ubuntu 20.04 OpenCV 的安装
不多讲参考 Ubuntu 18.04 安装OpenCV C 。
准备YoloV3模型权重文件和视频文件
模型配置文件和权重、COCO数据集名称文件
我们先下载作者官方发布的 YoloV3 模型配置文件、权重文件
wget https://pjreddie.com/media/files/yolov3.weights
wget https://github.com/pjreddie/darknet/blob/master/cfg/yolov3.cfg?rawtrue -O ./yolov3.cfg上面是比较大的网络由于我们的树莓派算力比较一遍所以建议使用轻量型的网络 yolov3-tiny
wget https://pjreddie.com/media/files/yolov3-tiny.weights
wget https://github.com/pjreddie/darknet/blob/master/cfg/yolov3-tiny.cfg?rawtrue -O ./yolov3-tiny.cfg另外由于模型权重是在 COCO 数据集上进行预训练的所以我们还要准备 COCO 的类别名称文件方便在模型输出检测结果后进行后处理将类别显示在检测结果框上。
wget https://github.com/pjreddie/darknet/blob/master/data/coco.names?rawtrue -O ./coco.names注如果上面的 github 中的配置文件在命令行下载的比较慢的话可以直接去 github 网页复制粘贴下来。
准备视频文件
我们会先对一个视频文件进行逐帧检测来验证算法的流程在之后再使用摄像头进行实时检测。
我们直接通过 you-get 工具去B站下载视频文件并改个名
pip install you-get
you-get https://www.bilibili.com/video/av32184680
rm fileName.cmt.xml
mv fileName.mp4 demo.mp4如果是 flv 文件可以用 ffmpeg 转为 mp4 文件
ffmpeg -i input.flv output.mp4视频文件的检测
一切准备就绪我们开始先测试一下视频文件的检测我们先讲解一遍代码在最后会给出整个源码。
1 初始化参数
YOLOv3算法的预测结果就是边界框。每一个边界框都旁随着一个置信值。第一阶段中全部低于置信度阀值的都会排除掉。 对剩余的边界框执行非最大抑制算法以去除重叠的边界框。非最大抑制由一个参数 nmsThrehold 控制。读者可以尝试改变这个数值观察输出的边界框的改变。 接下来设置输入图片的宽度inpWidth和高度 inpHeight。这里设置为416。如果想要更快的速度可以把宽度和高度设置为320。如果想要更准确的结果可改变为608。
#include iostream
#include fstream
#include vector
#include string
#include opencv.hpp
using namespace std;float confThreshold 0.5; //置信度阈值
float nmsThreshold 0.4; //非最大抑制阈值
int inpWidth 416; //网络输入图片宽度
int inpHeight 416; //网络输入图片高度2 读取模型和COCO类别名
接下来我们读入COCO 类别名并存入 classes 容器。并加载模型与权重文件 yolov3-tiny.cfg 和 yolov3-tiny.weights。这里用到的几个文件就是我们刚才下载好的读者需要改为自己的路径。最后把DNN的后端设置为OpenCV目标设置CPU。这里我们树莓派没有GPU等加速推理硬件就用CPU如果有GPU可改为OpenCL、CUDA等
//将类名存进容器
vectorstring classes; //储存名字的容器
string classesFile ./coco.names; //coco.names包含80种不同的类名
ifstream ifs(classesFile.c_str());
string line;
while(getline(ifs,line))classes.push_back(line);//取得模型的配置和权重文件
cv::String modelConfiguration ./yolov3-tiny.cfg;
cv::String modelWeights ./yolov3-tiny.weights;//加载网络
cv::dnn::Net net cv::dnn::readNetFromDarknet(modelConfiguration,modelWeights);
net.setPreferableBackend(cv::dnn::DNN_BACKEND_OPENCV);
net.setPreferableTarget(cv::dnn::DNN_TARGET_OPENCL); // 这里我们树莓派没有GPU等加速推理硬件就用CPU如果有GPU可改为OpenCL、CUDA等3 读取输入
这里我们先读入下载好的视频文件一会儿再使用本地摄像头测试。这里如果是树莓派外接显示器的话可以用创建GUI窗口来查看但是我们通常是命令行SSH连接树莓派这时我们就直接将每一帧的检测结果保存为图像文件查看
// 打开视频文件或者本地摄像头来读取输入
string str, outputFile;
cv::VideoCapture cap(./demo.mp4);
cv::VideoWriter video;
cv::Mat frame,blob;
// 开启摄像头
// cv::VideoCapture capture(0);
// 创建窗口
// static const string kWinName YoloV3 OpenCV;
// cv::namedWindow(kWinName,cv::WINDOW_AUTOSIZE);
// 非GUI界面不需要创建窗口4 循环处理每一帧
OpenCV中输入到神经网络的图像需要以一种叫 bolb 的格式保存。 读取了输入图片或者视频流的一帧图像后这帧图像需要经过bolbFromImage() 函数处理为神经网络的输入类型 bolb。在这个过程中图像像素以一个 1/255 的比例因子被缩放到0到1之间。同时图像在不裁剪的情况下大小调整到 416x416。注意我们没有降低图像平均值因此传递 [0,0,0] 到函数的平均值输入保持swapRB 参数到默认值1。 输出的bolb传递到网络经过网络正向处理网络输出了所预测到的一个边界框清单。这些边界框通过后处理滤除了低置信值的。我们随后再详细的说明后处理的步骤。我们在每一帧的左上方打印出了推断时间。伴随着最后的边界框的完成图像保存到硬盘中之后可以作为图像输入或者通过 VideoWriter 作为视频流输入。
while(cv::waitKey(1)0){// 取每帧图像capframe;// 如果视频播放完则停止程序if(frame.empty()){break;}// 在dnn中从磁盘加载图片cv::dnn::blobFromImage(frame,blob,1/255.0,cv::Size(inpWidth,inpHeight));// 设置输入net.setInput(blob);// 设置输出层vectorcv::Mat outs; //储存识别结果net.forward(outs,getOutputNames(net));// 移除低置信度边界框postprocess(frame,outs);// 显示s延时信息并绘制vectordouble layersTimes;double freq cv::getTickFrequency()/1000;double tnet.getPerfProfile(layersTimes)/freq;string label cv::format(Infercence time for a frame:%.2f ms,t);cv::putText(frame,label,cv::Point(0,15),cv::FONT_HERSHEY_SIMPLEX,0.5,cv::Scalar(0,255,255));cout Frame: frame_cnt , time: t ms endl;// 绘制识别框在这里如果我们用的是GUI界面并且刚才创建了窗口的话可以imshow否则是命令行SSH连接树莓派的话就imwrite保存图像// cv::imshow(kWinName,frame);cv::imwrite(output.jpg,frame);
}5-1 得到输出层的名字
第五步我们给出几个用到的函数的实现。
OpenCV 的网络类中的前向功能需要结束层直到它在网络中运行。因为我们需要运行整个网络所以我们需要识别网络中的最后一层。我们通过使用 getUnconnectedOutLayers() 获得未连接的输出层的名字该层基本就是网络的最后层。然后我们运行前向网络得到输出如前面的代码片段 net.forward(getOutputsNames(net))。
//从输出层得到名字
vectorcv::String getOutputNames(const cv::dnn::Net net){static vectorcv::String names;if(names.empty()){//取得输出层指标vectorint outLayers net.getUnconnectedOutLayers();vectorcv::String layersNames net.getLayerNames();//取得输出层名字names.resize(outLayers.size());for(size_t i 0;ioutLayers.size();i){names[i] layersNames[outLayers[i]-1];}}return names;
}5-2 后处理
网络输出的每个边界框都分别由一个包含着类别名字和5个元素的向量表示。 头四个元素代表center_x, center_y, width, height。第五个元素表示包含着目标的边界框的置信度。 其余的元素是和每个类别如目标种类有关的置信度。边界框分配给最高分数对应的那一种类。 一个边界框的最高分数也叫做它的置信度 confidence。如果边界框的置信度低于规定的阀值算法上不再处理这个边界框。 置信度大于或等于置信度阀值的边界框将进行非最大抑制。这会减少重叠的边界框数目。
// 移除低置信度边界框
void postprocess(cv::Mat frame,const vectorcv::Mat outs){vectorint classIds; // 储存识别类的索引vectorfloat confidences;// 储存置信度vectorcv::Rect boxes; // 储存边框for(size_t i0;iouts.size();i){//从网络输出中扫描所有边界框//保留高置信度选框//目标数据data:x,y,w,h为百分比x,y为目标中心点坐标float* data (float*)outs[i].data;for(int j0;jouts[i].rows;j,dataouts[i].cols){cv::Mat scores outs[i].row(j).colRange(5,outs[i].cols);cv::Point classIdPoint;double confidence;//置信度//取得最大分数值与索引cv::minMaxLoc(scores,0,confidence,0,classIdPoint);if(confidenceconfThreshold){int centerX (int)(data[0]*frame.cols);int centerY (int)(data[1]*frame.rows);int width (int)(data[2]*frame.cols);int height (int)(data[3]*frame.rows);int left centerX-width/2;int top centerY-height/2;classIds.push_back(classIdPoint.x);confidences.push_back((float)confidence);boxes.push_back(cv::Rect(left, top, width, height));}}}//低置信度vectorint indices;//保存没有重叠边框的索引//该函数用于抑制重叠边框cv::dnn::NMSBoxes(boxes,confidences,confThreshold,nmsThreshold,indices);for(size_t i0;iindices.size();i){int idx indices[i];cv::Rect box boxes[idx];drawPred(classIds[idx],confidences[idx],box.x,box.y,box.xbox.width,box.ybox.height,frame);}
}
5-3 画出边界框
最后经过非最大抑制后得到了边界框。我们把边界框在输入帧上画出并标出种类名和置信值。
//绘制预测边界框
void drawPred(int classId,float conf,int left,int top,int right,int bottom,cv::Mat frame){//绘制边界框cv::rectangle(frame,cv::Point(left,top),cv::Point(right,bottom),cv::Scalar(255,178,50),3);string label cv::format(%.2f,conf);if(!classes.empty()){CV_Assert(classId (int)classes.size());label classes[classId]:label;//边框上的类别标签与置信度}//绘制边界框上的标签int baseLine;cv::Size labelSize cv::getTextSize(label,cv::FONT_HERSHEY_SIMPLEX,0.5,1,baseLine);top max(top,labelSize.height);cv::rectangle(frame,cv::Point(left,top-round(1.5*labelSize.height)),cv::Point(leftround(1.5*labelSize.width),topbaseLine),cv::Scalar(255,255,255),cv::FILLED);cv::putText(frame, label,cv::Point(left, top), cv::FONT_HERSHEY_SIMPLEX, 0.75,cv::Scalar(0, 0, 0), 1);
}文件全部源码在文末。
写好之后我们编译执行即可关于 OpenCV 众多头文件包含、链接库链接时、运行时的链接对初学者来说可能会遇到一些问题可以参考
Linux下编译、链接、加载运行C OpenCV的两种方式及常见问题的解决
Linux下C/C程序编译链接加载过程中的常见问题及解决方法 可以从左上角和标准输出看到每帧的检测时间大概在 280ms速度还可以精度大体也不错。但是由于模型较小性能受限对于一些边缘小物体会有误差如上图中右侧的小车。
树莓派摄像头实时检测
树莓派摄像头调试参考树莓派摄像头基础配置及测试 。
在视频文件的检测顺利完成后实时树莓派的检测就很简单了只需要将读取输入部分从视频文件改为本地摄像头即可。
主要就是这一行修改
// cv::VideoCapture cap(./video/demo.mp4);
// cv::VideoWriter video;
// 改为
cv::VideoCapture cap(0);另外我们需要设置一些 OpenCV 读取摄像头输入的尺寸大小否则笔者亲测是有一些小bug
cap.set(cv::CAP_PROP_FRAME_WIDTH, 640);
cap.set(cv::CAP_PROP_FRAME_HEIGHT, 480);在笔者实验室中实测速度和精度也都还可以。
全部代码
全部代码可参考https://github.com/Adenialzz/Hello-AIDeployment
如有错误或遗漏欢迎留言指正。
Ref
https://blog.csdn.net/cuma2369/article/details/107666559
https://ryanadex.github.io/2019/01/15/opencv-yolov3/