针对在无约束环境下静态手势在识别过程中准确率不高的问题,本文提出了一种融合手部骨架灰度图(Grayscale Image of Hand Skeleton,GHS)的深度神经网络,使用手部关键点及其相互关联性构建手部骨架灰度图。网络的输入为GHS图像和RGB图像...
详细信息
针对在无约束环境下静态手势在识别过程中准确率不高的问题,本文提出了一种融合手部骨架灰度图(Grayscale Image of Hand Skeleton,GHS)的深度神经网络,使用手部关键点及其相互关联性构建手部骨架灰度图。网络的输入为GHS图像和RGB图像,主干网络为yolov3,添加了扩展卷积残差模块,在GHS图像和RGB图像进行特征融合后,通过SE模块对每个通道上的特征进行缩放,采用RReLU激活函数来代替Leaky ReLU激活函数。通过手部关键点及其相互间的连接信息增强手部图像特征,增大手势的类间差异,同时降低无约束环境对手势识别的影响,以提高手势识别的准确率。实验结果表明,在Microsoft Kinect&Leap Motion数据集上相比其他方法,本文方法的平均准确率达到最高,为99.68%;在Creative Senz3D数据集上相比其他方法,本文方法平均准确率达到最高,为99.8%。
为了实现监控场景下的人脸识别,采集了监控视频中500个人每人2张人脸图像构成SVF(Surveillance Video Faces)测试集,包括500个正样本对,499000个负样本对。提出一种改进型加性余弦间隔损失函数,对加性余弦间隔损失函数进行改进,通过在...
详细信息
为了实现监控场景下的人脸识别,采集了监控视频中500个人每人2张人脸图像构成SVF(Surveillance Video Faces)测试集,包括500个正样本对,499000个负样本对。提出一种改进型加性余弦间隔损失函数,对加性余弦间隔损失函数进行改进,通过在特征与目标权重夹角的余弦值减去一个值,在特征与非目标权重夹角的余弦值加一个值,该值为0~1之间的数,通过实验选取最佳值,达到减小类内距离,拉大类间距离的目的。实验结果表明,与Softmax损失函数、乘性角度间隔损失函数及加性余弦间隔损失函数训练的人脸识别模型相比,该方法在监控场景测试集人脸识别准确率最高,为99.1%。
暂无评论