针对传统车辆切入过近导致自动驾驶产生脱离的问题,本文提出一种YOLOV7-Tiny(You Only Look Once Version 7 Tiny)和SS-LSTM(Strong Sort Long Short Term Memory)的自动驾驶风险预判模型。首先,模型改进了视觉目标检测模型YOLOV7-Tiny...
详细信息
针对传统车辆切入过近导致自动驾驶产生脱离的问题,本文提出一种YOLOV7-Tiny(You Only Look Once Version 7 Tiny)和SS-LSTM(Strong Sort Long Short Term Memory)的自动驾驶风险预判模型。首先,模型改进了视觉目标检测模型YOLOV7-Tiny,增加小目标检测层;其次,引入SimAM(A Simple,Parameter-Free Attention Module for Convolutional Neural Networks)无参注意力机制模块,优化训练损失函数,并对其目标车辆进行轨迹跟踪及预测,通过改进的多目标跟踪算法StrongSORT(Strong Simple Online and Realtime Tracking)的短期预测不断矫正LSTM(Long Short Term Memory)的长期预测,即建立SS-LSTM模型,并将预测的超车轨迹与智能网联车自身轨迹在同一时间纬度下进行拟合,得到传统车辆切入时的风险预判模型。实验结果表明,本文的自动驾驶风险预判方法有效预判了传统车辆切入时的风险。仿真实验表明,改进YOLOV7-Tiny相比于原有算法mAP(mean Average Precision)提高了2.3个百分点,FPS(Frames Per Second)为61.35 Hz,模型大小为12.6 MB,模型满足车载端轻量化的需求。实车实验表明,根据SS-LSTM模型所得到的风险预判准确率为90.3%。
在复杂的低照度环境中获取的图像存在亮度低、噪声多和细节信息丢失等问题,直接使用通用的目标检测方法无法达到较为理想的效果.为此,提出低照度目标检测方法——Dark-YOLO.首先,使用CSPDarkNet-53骨干网络提取低照度图像特征,并提出路径聚合增强模块以进一步增强特征表征能力;然后,设计金字塔平衡注意力模块捕获多尺度特征并加以有效利用,生成包含不同尺度且更具判别力的特征;最后,使用预测交并比(intersection over union,IoU)改进检测头,IoU预测分支为每个预测框预测IoU值,使得目标定位更加准确.在ExDark数据集上的实验结果表明,相较于YOLOv4,均值平均精度(mAP)提升了4.10%,Dark-YOLO方法能够有效地提高在低照度场景下目标检测的性能.
暂无评论