做网站 江门,厦门专业的网站建设,百度关键词挖掘工具爱站网,阿里云wordpress建站教程基于Kinect的拖拉机防撞系统电子信息科学与技术专业学生 sukeysun 摘要#xff1a;随着智能车辆技术的发展#xff0c;智能导航定位和实时车载监控等技术被更多的应用到日常生活照。在农业领域上#xff0c;车辆自主感知道路环境并制定实时避障策略还存在不足#xff0c;特…基于Kinect的拖拉机防撞系统电子信息科学与技术专业学生 sukeysun 摘要随着智能车辆技术的发展智能导航定位和实时车载监控等技术被更多的应用到日常生活照。在农业领域上车辆自主感知道路环境并制定实时避障策略还存在不足特别是在农田因为人员高强度劳动和环境复杂等因素智能拖拉机自动驾驶对田间劳动人员造成一定的安全隐患本文针对田间行驶的拖拉机提出了一个基于低成本Kinect2.0 摄像头的拖拉机防撞系统设计。首先用Kinect2.0采集移动人体目标的深度图像和骨骼信息并进行卡尔曼滤波处理再计算出人相对于拖拉机的相对速度等基本避障参数最后根据这些避障参数制定相应的避障策略实现智能拖拉机在遇到人员时安全避险。关键词拖拉机Kinect2.0卡尔曼滤波防撞Tractor Collision Avoidance System Based on KinectStudent majoring in Electronic Information Science and Technology Name Sun YuboTutor Name Lu WeiAbstract: With the development of the intelligent transportation system, such technologies as intelligent navigation and real-time vehicle monitoring are increasingly applied to peoples daily life. There are still some limations on the perception of the road environment or the real-time obstacle avoidance, especially in the field of agriculture. Due to the high-intensity labor and environmental complexity and other factors, self-driving tractors may pose some threats on the labors working on the field. Therefore, for the tractors driving in the field, this paper put forward a tractor collision avoidance system design based on a low-cost Kinect2.0 camera. Firstly, Kinect2.0 is used to collect the depth image and skeleton information of the targeted human body and then these datum are carry processed through Kalman filter. Secondly, the basic obstacle avoidance parameters like the relative speed between the tractor and the targeted human are calculated. Finally, according to these obstacle avoidance parameters, this system can achieve intelligent tractors avoiding the labors in front of them and therefore guarantee the safety.Key words: tractor; Kinect2.0; Kalman filter; collision 引言农业机械的智能化和机械化为我国带来了农作物的快速增产不仅弱化了有限的土地资源与快速增长人口之间的矛盾还为农民带来了收入的增加[1]。实时检测并识别障碍是智能拖拉机安全操作的关键其主要有以下几种技术支持机器视觉雷达技术GPS技术红外技术超声波技术以及多传感器融合技术[2]。1.国内外发展现状1.1 国外现状中国虽是农业大国但智能农业的发展水平却相对落后于欧美等国家。2010年Bakker, Asselt, Bontsema等人提出的玉米田除草机器人通过拖拉机引导系统分别记录初始路径和播种路径位置A-B线。再将A-B线引入现有的自动进料器从而生成拖拉机行走路线图提高导航精度并且达到避障效果[3]。2011年Takaibarawid等人通过使用RTK-GPS和IMU作为自主导航传感器并以不同的速度对履带式拖拉机进行试验其横向误差为1cm到3cm[4]。同年Noguchi等人使用二维激光扫描仪作为传感器放置于拖拉机前段以获取相关距离与角度。当激光扫描仪在设定的扫描范围内检测到前方有障碍物时导航程序立刻命令拖拉机停止[5]。然而虽然激光扫描仪有相对较高的精度其造价对于农民来说却是昂贵的。Gomez-Gil, San-Jose-Gonzalez, Nicolas-Alonso等人通过基于EMG的HMI来引导拖拉机检测四个状态下司机的肌肉情况眼睛向右看后下巴打开眼睛向右看后下巴闭合眼睛向左看后下巴打开和眼睛向右看后下巴闭合。并通过对比手动避障和自动避障的精度得出了该方法与手动避障具有几乎相同精度的结论[6]。2012年Yang 等人采用Lucas-Kanade光流检测方法在全景图像中检测人类并进行3D重建使用平方差方法来获取人的具体位置从而达到避障预警的效果[7]。然而其检测方法仅在白天的限定条件下才可以完成。2013年Kraus, Kayacan, De Baerdemaeker等人提出了基于模型预测控制的拖拉机自主避障方法模拟拖拉机潮湿和颠簸的行驶轨迹在线识别滑动参数已使拖拉机进行纵向或者侧向行驶从而达到避障效果[8]。2016年ZhangNoguchi 等人将每个拖拉机简化成一个矩形区域将路径规划控制转向等参数发送到拖拉机的ECU上拖拉机从ECU上接受反馈信息以及阅读来自客户端/服务器的命令从而达到实时避障的效果[9]。同年Ball等人介绍了一种基于视觉障碍物的检测技术。基于低廉的全球定位技术和惯性导航技术完成了障碍物检测和视觉辅导的无碰撞路径规划[10]。其智能拖拉机装备如图1-1所示。Ramezani, ZakiDizaji, Masoudi等人则将单个摄像头安装在拖拉机前方将采集到的RGB图像转化成审图图像然后将该图像划分区域并删除不必要的区域。之后使用幅度梯度函数来检测物体的边缘从背景中分割对象以获取行人的图像。其实验方法在早中晚不同的照明条件下进行其测量结果最后与基于定向梯度方法和级联方法的直方图进行对比得出该实验方法具有良好的人体障碍物识别效果[11]。 图1-1 基于视觉的避障拖拉机1.2 国内现状在我国国内虽然智能农业技术的起步晚于国外的发达国家但在多年的努力下也已取得良好的成果。1986年清华大学的何克忠教授团队结合激光雷达CCD二维彩色摄像机实现了智能车辆在行驶过程中的自主避障功能。90年代初吉林大学就开始研发智能车辆其JUITV型号的智能车辆已发展到第四代。其最新一代的智能车辆结合3D激光成像仪利用多传感器融合的技术实现了道路识别的功能。1999年沈明霞和李询结合发射电路接收电路技术电路双稳电路报警电路以及数字式超声笔防撞雷达达到车辆避障效果[12]。近些年来智能拖来及的自主避障功能取得了新的突破。2015年薛龙和马蓉为研究拖拉机自动驾驶提出了基于嵌入式智能终端和多线程的实时监控软件系统该方法最终的测量误差的绝对平局值为9.7cm[13]。同年宋春月研究了GPS导航技术硬件上采用S3C2440为核心处理器通过角度传感器完成了前轮转角的测量软件上了开发了嵌入式用户界面完成了拖拉机的直线方向的避障仿真[14]。2016年石翔通过GPS获取拖拉机行驶前方的障碍物信息通过卡尔曼滤波分别对静态下和动态下的前轮转角进行滤波再基于纯追踪模糊跟踪算法分别在室内室外进行检测完成拖拉机直线路径跟踪实验[15]。同年谭德权, 蒋蘋, 罗亚辉和胡文武针对履带式拖拉机采用双源激光法对障碍物进行定位并根据拖拉机实时速度控制系统完成对拖拉机点火和熄火的控制达到避障的效果。该方法的有效范围为100m内[16]。 1.3主要研究内容以及拟解决方案1.3.1 研究内容农作物生长环境复杂驾驶员在行驶拖拉机的过程中如果出现疲劳驾驶将会导致拖拉机田间工作的安全隐患。相比于其他传感器机器视觉探测范围广信息量大可对较大物体进行识别且满足实时性。本文研究对象为在田野上行驶的拖拉机因此需要传感器具有良好的探测范围且出于对人隐私权的保护在识别人体时只需要提取骨骼信息。同时出于对近距离物体位置的测定以及预算成本的考虑故选用微软推出的Kinect2.0作为机器视觉传感器并在VS2015的平台上对其进行开发。 1.3.2拟解决方案本防撞系统需要解决的数据处理问题有数据获取数据预处理以及数据融合。再基于处理过后的数据获取避障参数并制定相应的防撞策略其技术路线图如下所示 图1-2 技术路线图 1.基于Win10系统VSCommunity2015搭建适合Kinect2.0的开发的软件平台将Kinect2.0安装到拖拉机横梁上方搭建测试平台。2.用Kinect2.0获取深度数据并将其保存至数据库中。3.描述人体25个关节点并用BodyFrameReader获取其3D位置及方向并将人体25个关节画出来。4.骨骼数据进行基于视频流的预处理。5.将获取的深度2D数据与人体骨骼3D数据融合。6.编写基于多线程的延时函数获取相隔一秒的人体质心位置从而获取人相对于拖拉机的速度及方向。7.获取避障参数。8.制定基于相对速度和避障参数的防撞方案。 1.4可行性分析在农业生产中拖拉机作为播种、耕种、运输等方面重要的交通工具被广泛地使用。然而在拖拉机行驶过程中如果驾驶员疲劳驾驶或者注意力不集中在田间行驶拖拉机的过程中不能轻易识别出被农作物遮挡住的人难免碰撞到前方在田地里务农的人从而造成不可挽回的财产乃至生命的重大损失。而将智能车辆自主避障的技术应用到农业生产所需的拖拉机上不仅可以规避财产以及生命的损失还顺应了时代的发展以及人们的需求有着重要的研究意义和应用价值。相比于其他摄像头Kinect2.0有相对较低的造价和良好的功能可降低智能车辆技术在农业领域的经济负担并提高农业领域的智能化。本防撞系统即使人前方有农作物或者树木的遮盖也可以及时对人体进行识别并进行相应的预警处理从而降低不必要的生命与财产的损失。 1.5论文结构本文将从以下几个部分介绍1.介绍国内外发展现状本文研究内容及拟解决方案2.介绍Kinect2.0以及常发金冠拖拉机的基本信息3.介绍采取的彩×××像信息以及经过基于视频流滤波后的人体骨骼信息并对这两种信息进行融合4.介绍避障策略以及实验结果5.进行课题总结。2.避障平台介绍2.1 Kinect2.0简介三维环境的捕捉在许多应用领域都有应用。诸如激光扫描立体视觉或以三角测量为基础的系统等各种各样的科技使捕捉三维环境和目标具有更广泛的可能性。考虑到价格和计算时间等方面近期RGB-D相机为用户提供了更好的选择。2014年微软公司发布了一个新型传感器适用于Windows v2的传感器该传感器即是Kinect2.0其依赖的技术为飞行时间准则(TOF)[17]。Kinect2.0由一个彩色摄像头一个红外/深度摄像头和四个麦克风阵列组成。彩色摄像机可以捕获到1920x1080像素分辨率的彩色信息而红外/深度摄像机用来获取实时深度图和512*424像素分辨率的红外数据。其视野范围为水平70度和垂直60度。 图2-1 Kinect2.0 由微软提供的技术规格规定Kinect2.0的有效测量范围是0.5m到4.5m。为了确保开发者和研发者对该传感器的使用微软官方的SDK2.0可从网上下载。不仅提供了开发程序还提供了为个人开发所能使用的一系列的函数或者样本代码。 2.2 Kinect2.0测距原理Kinect2.0使用光学飞行时间TOF技术测量距离如图2-2。通过传输脉冲之间的时间延迟来获取深度信息。而发射器和接收信号之间的被测量的相移可替换直接测量运行时间。在这种情况下传感器和捕捉目标之间的估计距离取决于确定相移如公式2.1其中f调制频率c光速 图2-2 TOF测距原理图2.3 Kinect2.0 成像原理Kinect2.0由红发射器发射雷射光透过光栅投射至测量空间。测量空间中的粗糙物体在反射后会形成随机的散斑再通过红外摄影机记录空间中的每个散斑通过晶片的计算便得到三维图像。Kinect2.0的三维坐标系为右手螺旋坐标系如下所示 图2-3 成像坐标系 2.4 软件开发平台本文基于Kinect2.0的拖拉机防撞系统在微软发布的Visio Studio Community 2015上操作计算机语言为C#。在实验过程中为更直观地看出数据处理效果寻找适合该系统的滤波算法同时结合Matlab2012进行图像分析以及效果对比。用Matlab2012分析得到适合的预处理算法后将该算法运用到Visio Studio Community 2015上获取基于视频流的实时滤波数据以获取有效的避障参数并制定适合的避障策略。3.数据处理与图像融合3.1数据获取Kinect2.0为用户提供三种有效信息分别为深度数据、彩色数据、音频数据为骨骼追踪、身份识别和语音识别的处理过程提供原始数据流。本文中需获取的数据分别为深度数据人体骨骼数据。获取的深度图像如图3-1 图3-1 深度图像然而在从深度图像中识别人体进行骨骼追踪的过程中Kinect2.0会面临一系列的干扰背景如书桌椅子书架等。而从背景中提取人体的过程就是从噪声中提取有用信息的过程。首先分析接近Kinect2.0红外/深度摄像头的区域由其是呈现“大”字的区域对其进行深度图像像素逐点扫描。再通过计算机图形视觉技术如边缘检测、噪声阈值处理等方法来对人体特征点分类[18]。之后通过约定字节编码将被追踪到的“大”字玩家周围建立“分割遮罩”将上文中提到的干扰背景剔除后即可得到用户的深度图像区域。最后将每个用户ID数据转换成RGBQUAD数据规定用户ID区域所用颜色则其他区域即为另一种颜色从而完成将人体深度图像的抠图。接下来需进一步获取人体骨骼数据。Kinect2.0通过机器学习根据骨骼关节图图3-2对人体25个关节进行快速识别分类完成骨骼三维建模。 图3-2 骨骼关节图 在允许的延时范围内快速构建人体25个关节需要注意以下问题1.激光散斑测距的采样精度2.红外/深度摄像头的分辨率3.允许延时范围内的骨骼构建。最终完成人体骨骼构图如图3.3 图3-3 骨骼构架图3.2数据预处理然而由图3-3可得当人体的关节点出现重合或被物体遮挡的情况时画出的骨骼图像会抖动因此需对其进行预处理。常见的骨骼预处理方法有平滑滤波指数滤波以及卡尔曼滤波。为更直观地对比滤波效果本文将38s内的动态骨骼三维数据A保存到excel表格中并导入Matlab软件上进行滤波效果分析。为便于观察该38s内人基本保持静止状态。图3-4为其未进行滤波的原始图。 图3-4原始图像 平滑滤波就是用窗口长度为5的移动平均滤波器对三维数据A进行处理再返回与A大小相同的向量AA。其计算方法如公式3.1滤波效果图如图3-5 图3-5 平滑滤波图像 1960年Kalman提出了卡尔曼滤波其在航空、导航等多个领域中都有使用[19]。滤波其实是指信号在处理和变化的过程。滤波的本质就是根据用户的自己需求将信号中没用的部分去除或者减弱将自己需要的有用信号部分进行放大增强。也就是说需要将抖动带来的不必要信息去除并放大有用的关节位置信息。在动态数据处理的过程中卡尔曼滤波有相对较好的预处理效果。卡尔曼滤波方程可通过输入输出观测数据进行最优估计算法由于观测数据中包括系统中的噪声干扰所以最优估计也可看作是滤波过程[20] 。在高斯分布干扰的情况下如果测量均方误差最小测量值的抖动最小也就最平滑。卡尔曼滤波的动态模型主要由卡尔曼状态方程和卡尔曼观测方程组成分别为卡尔曼状态方程3.2其中 为时刻到时刻的状态转移矩阵为系统噪声矩阵为系统噪声矢量。卡尔曼观测方程为3.3其中为k时刻的测量矩阵为k时刻的量测噪声矢量。而方程(3.2)、(3.3)中的需满足以下条件 3.4 3.5 3.6其中称为动态噪声协方差阵称为量测噪声协方差阵。由上述方程可得离散卡尔曼滤波方程如下1在k-1时刻得到根据公式(3.2)可以得到在k时刻时状态的预测方程3.72相应的预测的均方误差方差为 3.83滤波增益方程为3.94由实际k时刻测量值所获得的状态估计方程为3.105估计均方误差方程3.11方程(3.2)为动态系统的状态模型方程(3.7)至方程(3.11)即为它的卡尔曼滤波基本方程。只需要给定卡尔曼滤波的初值以及就可以根据k时刻的观测方程递推计算出在k时刻的状态估计。其算法方程如图3.6所示 图3-6 卡尔曼滤波算法流程图 根据介绍的卡尔曼滤波方法骨骼关节点卡尔曼滤波算法的仿真实验过程主要分为了三部分1Kinect2.0测量到的骨骼关节三维坐标数据为原始数据为了更直观地看出处理效果将数据导入Matlab中进行分析。2建立卡尔曼滤波方程编写卡尔曼滤波仿真程序对接收到的原始数据进行卡尔曼滤波处理。3对滤波过后的数据进行处理。其滤波处理效果如图3-7所示 图3-7 卡尔曼滤波图像 经过Matlab的验证分析可得到以下结论平滑滤波虽起到了一定的滤波效果却仍出现微小抖动为更好的消除抖动时带来的不必要信息本文最终选用卡尔曼滤波对骨骼关节位置进行滤波。实时滤波效果在VS2015平台上的结果显示如下 a b图3-8 实时骨骼滤波对比图 a.滤波前的图片b.滤波后的图片 3.3图像融合深度数据是每像素为一个16位short的二维数据。而骨骼数据为包含25个关节位置三维数据。二维数据可精确表示空间位置之间的关系用于定量分析[21] 。而骨骼三维数据包含了骨骼关节点的方向位置可通过该数据进行关节改变角度幅度等参数的分析。为了得到更详细多元直观的数据需要将描绘出的骨骼关节图叠加到采集的深度图像中进行数据融合。深度二维数据与骨骼三维数据融合的具体步骤如下1.打开多种帧 DepthFrame, BodyIndex, Body2.创建图像生成器并将彩色框图和骨骼框图比例调整为1:13.定义数组和位图存放彩×××像的字节数组的长度帧宽度帧高度每个像素占用的字节数位图初始化宽度高度96.0表示分辨率像素格式blue,green,red,alpha,共32位4.将骨骼帧深度帧分别拷贝到数组数组写到位图5.通过调用MapSpacePointToDepthPoint将骨骼坐标转化为彩×××像坐标再转化为屏幕坐标。其流程图如下 图3:9 数据融合流程图 融合后的图像如图3-10 图3-10 数据融合图 4.避障策略设计与实现4.1 获取避障参数本文的避障参数为人骨骼关节点的位置以及制定人和拖拉机在XOZ平面上的最大尺寸包围框以确保在拖拉机预警执行过程中人与拖拉机可以保持一定的安全距离最后获取人与拖拉机行驶的相对速度4.1.1 获取骨骼关节点位置设在Kinect2.0测量范围内有一点A其距离摄像头的距离为由Kinect内部规定可得点A在空间中的实际位置为[22]4.1其中H3.5radK12.36cmO3.7cmL1.18rad。求出实际位置d(cm)后就可以获得点A的坐标矢量设A为其投影坐标则其三维坐标可由公式4.2计算 4.2 其中。 4.1.2 获取包围框参数在拖拉机行驶过程中需要明确在XOZ平面上人与拖拉机最大尺寸的包围框以此确保人与拖拉机保持相对安全的距离。首先获取拖拉机包围框已知常发金冠拖拉机的基本参数如表4.1所示将Kinect2.0放置于拖拉机的横梁中心其包围框确立公式如(4.3)表4.1 常发金冠拖拉机参数常发金冠拖拉机参数 数值cm宽()横梁中心到车头的距离) 170015004.3其中N1N2分别为X轴Z轴拖拉机包围框的扩展因子分别为扩展后的边长分别为包围框X轴方向的左半边长和右半边长其次再获取人体的包围框。由公式4.2可获取人体25个关节的三维坐标由于Kinect2.0的安装位置距离车头有1.5m在检测并显示在Z轴方向人距离拖拉机的位置时需要减去这一段固有距离。之后用排序法得到人体关节在X 轴Z轴的最大位置最小位置分别记为则人体包围框确立公式如下4.4其中分别为X轴Z轴的人体包围框的扩展因子、分别为人体包围框X轴的最大值和最小值、分别为人体包围框X轴的最大值和最小值。 4.1.3 获取相对速度要计算出人相对于拖拉机的行驶速度需将运动的人看作是一个质点分析其从位置到的运动过程。参考文献[23]选择有效地跟踪行人的头部位置但行人的头部不是最稳定的追踪目标。这是由于人头部的偏转和旋转会造成不必要的数据抖动。由其是当速度过快1.4m/s时[24]选取人体的肩部可以更加稳定一些。因此A点的位置由当前时刻人的左肩position1右肩position2以及脊椎中心position3位置确定最终得到的位置如公式4.54.5则人与拖拉机的相对速度 4.6 4.2 避障策略由于Kinect2.0安装在拖拉机正前方横梁中心故避障策略只考虑人在拖拉机前方时的状态如图4-1不考虑拖拉机倒车时的状态。 图4-1 避障情况 已知拖拉机在田间缓慢行驶的制动距离为0.5m到1m人行驶速度低于拖拉机行驶速度。规定人当前时刻位置为下一时刻位置为当前时刻拖拉机在X轴包围框坐标值分别为 下一时刻包围框坐标值分别为 Z轴正方向当前时刻拖拉机包围框坐标值为下一时刻坐标值为当前时刻人在X轴包围框的坐标最大值和最小值分别为、下一时刻包围框坐标值当前时刻人在Z轴包围框的坐标最大值和最小值分别为、参考坐标系为以Kinect2.0的红外/深度摄像头为中心的右手螺旋坐标系即拖拉机行驶方向为Z轴正方向Kinect2.0左侧为X轴正方向上方为Y轴正方向。由于Kinect2.0检测人体骨骼的深度范围在0.5m到4.5m且在Z轴方向测得人体包围框与拖拉机包围框的距离等于人与摄像头的距离减去摄像头距离拖拉机包围框的距离。又考虑到拖拉机在田间行驶的最大制动距离为1m故本避障策略预警的必要条件为人与拖拉机相距1m到2m。本系统的避障策略按照以下三种情况进行讨论1.当行人当前时刻和下一时刻都在拖拉机包围框的范围内时该情况在XOZ平面的二维图像如图4-2所示 图4-2 避障情况1平面图 在X轴方向如果当前时刻和下一时刻人的包围框一直在拖拉机包围框蓝色虚线内即如果人与拖拉机之间在Z轴上的距离差为1m到3m之间拖拉机防撞系统预警立即停止如果人与拖拉机之间的距离差在Z轴上为2m以上则拖拉机可以继续行驶。2.当行人当前时刻不在拖拉机包围框内而下一刻在包围框内时该情况在XOZ平面的二维图像如图4-3所示 图4-3 避障情况2平面图 在X轴方向如果当前时刻人的包围框不在拖拉机包围框内即或者而下一时刻在拖拉机包围框内即。同样地如果人与拖拉机之间在Z轴上的距离差为1m到2m之间拖拉机防撞系统预警立即停止如果人与拖拉机之间的距离差在Z轴上为2m以上则拖拉机可以继续行驶。3.当行人下一刻不在包围框内时该情况在XOZ平面的二维图像如图4-4所示 图4-4 避障情况3平面图 在X轴方向人在下一时刻也不在拖拉机包围框内或者,即人的运动状态是偏离拖拉机行驶方向则在拖拉机保持直行的情况下不启动预警系统拖拉机直行。以上三种情况的避障方案可由流程图如图4-5所示 图4-5 避障流程图 4.3 实验结果 在获取避障参数并明确避障策略之后本拖拉机防撞系统在南京农业大学工学院进行实际检测。主要检测人在不同的位置不同的姿态时本防撞系统的预警状态。其检测环境由Kinect2.0拍摄如图4-6 图4-6 检测环境 本系统由拖拉机的电瓶经过逆变器成220v后给电脑和kinect2.0供电其安装成果如图4-7所示 图4-7 Kinect2.0安装图 分别检测在Kinect2.0的识别范围内模拟插秧播种时人的坐立状态弯腰状态站立状态和预警状况其实验结果如下所示 a. b. c. d. e. e. f. g 图4-8 实验结果a.坐立状态b.弯腰状态c.站立状态1d.站立状态2e.站立状态3f.无人状态g.夜间测试 表4.1 状态检测 状态 光照 (m/s) 深度距离(m) 骨骼识别状态 实际预警状态坐立弯腰站立1站立2站立3有遮挡无人状态坐立 光照充足光照充足光照充足光照充足光照充足光照充足夜间 -0.0007093996-0.06668031-0.84099450.0034678580.001958132 -6.988645 1.2334941.5211361.6264692.5519112.127553 1.099358 可识别可识别可识别可识别可识别不可识别可识别 停止停止停止前进前进前进停止 由上述图表可得本系统实现了拖拉机的防撞预警功能但有着一定的条件如下表4.2 避障系统限定条件识别条件 识别范围识别深度距离识别水平范围识别垂直范围光照 1m到4.5m70度60度 5.课题总结智能交通技术在人们的日常生活中越来越常见其适用范围也逐步扩大到农业领域。本文设计的基于Kinect2.0的拖拉机防撞系统不仅应用到了微软市场上提供的最新科技还提出了一个低成本高效率的实时解决方案。由于微软为推行Kinect2.0传感器而调整技术深度测量比Kinect1.0取得了更高的准确度。除此之外由于在捕捉深度图像上的测距上也呈现了一个更好的措施。使得小目标物体也可以取得更准确的检测。彩×××片的质量也得到了提高。在避障前期准备工作中本系统分别获取了二维深度数据和三维人体骨骼数据并对两种数据进行信息融合以取得更加丰富直观地信息。之后根据人与拖拉机的相对速度以及避障参数制定相应的避障方案已达到拖拉机行驶过程中及时预警的目的。本系统采用低成本的Kinect2.0摄像头相比于其他视觉传感器对于农业工作者来说其价格具有一定的价格优势。此外本系统可预警正在行驶的拖拉机从而避免驾驶员疲劳驾驶时出现事故从而保障了田间工作者的安全在一定程度上缓解了农机安全隐患。但如果要更好地应用到真实环境中本系统仍然存在不足首先Kinect2.0传感器对开发平台的要求较为苛刻如必须在Win8或8.1配备的USB3接口。需要的额外电源输入限制了如SLAM应用的移动。其次Kinect2.0虽然对光照不太敏感即使在晴天也可以获得相应数据。然而需要应用到一些滤波器来克服噪声影响获取有效信息。本文通过对比平滑滤波和卡尔曼滤波最终得出卡尔曼滤波对动态数据有更好的去除噪声和消除抖动效果。但由于滤波过程中会带来一定的延时这使实时的拖拉机防撞系统来说存在指令滞后的缺陷。最后本系统的防撞对象是行走中的人当农作物遮挡人的时候人体的深度信息和骨骼信息难以被检测到。下一步应考虑在仅能识别出人脸或者肩部以上部位的时候能对人体进行三维重建以获取有效的信息。转载于:https://blog.51cto.com/13544350/2052749