立体匹配是双目视觉系统最关键一步,其处理图像的速度和精度直接影响系统结果。针对传统SAD(Sum of absolutedifferences)算法存在较多冗余计算问题,引入线性插值法降低算法复杂度;针对光照对算法干扰,提出一种融合算法策略避免光照影响...
详细信息
立体匹配是双目视觉系统最关键一步,其处理图像的速度和精度直接影响系统结果。针对传统SAD(Sum of absolutedifferences)算法存在较多冗余计算问题,引入线性插值法降低算法复杂度;针对光照对算法干扰,提出一种融合算法策略避免光照影响;为了提高融合算法处理图像精度,引入Sobel边缘检测算子及自适应惩罚系数约束和保护图像边缘区域;为了获取边缘信息且抵御光照变化影响,采用基于结构森林快速边缘检测及大律法(OTSU)进行图像边缘和非边缘区域的分割;针对图像边缘出现的遮挡,采用左右一致性检测(Left-rightchecking)算法,并采用引导滤波器实现边缘优化。将该算法与传统SGM(Semi-global matching)算法在Middlebury测试集进行对比实验,平均误匹配率降到7.55%以下,平均运算时间较SGM算法缩短3.5s。
针对传统车辆切入过近导致自动驾驶产生脱离的问题,本文提出一种YOLOV7-Tiny(You Only Look Once Version 7 Tiny)和SS-LSTM(Strong Sort Long Short Term Memory)的自动驾驶风险预判模型。首先,模型改进了视觉目标检测模型YOLOV7-Tiny...
详细信息
针对传统车辆切入过近导致自动驾驶产生脱离的问题,本文提出一种YOLOV7-Tiny(You Only Look Once Version 7 Tiny)和SS-LSTM(Strong Sort Long Short Term Memory)的自动驾驶风险预判模型。首先,模型改进了视觉目标检测模型YOLOV7-Tiny,增加小目标检测层;其次,引入SimAM(A Simple,Parameter-Free Attention Module for Convolutional Neural Networks)无参注意力机制模块,优化训练损失函数,并对其目标车辆进行轨迹跟踪及预测,通过改进的多目标跟踪算法StrongSORT(Strong Simple Online and Realtime Tracking)的短期预测不断矫正LSTM(Long Short Term Memory)的长期预测,即建立SS-LSTM模型,并将预测的超车轨迹与智能网联车自身轨迹在同一时间纬度下进行拟合,得到传统车辆切入时的风险预判模型。实验结果表明,本文的自动驾驶风险预判方法有效预判了传统车辆切入时的风险。仿真实验表明,改进YOLOV7-Tiny相比于原有算法mAP(mean Average Precision)提高了2.3个百分点,FPS(Frames Per Second)为61.35 Hz,模型大小为12.6 MB,模型满足车载端轻量化的需求。实车实验表明,根据SS-LSTM模型所得到的风险预判准确率为90.3%。
暂无评论