为了解决自动文本摘要任务存在的文本语义信息不能充分编码、生成的摘要语义冗余、原始语义信息丢失等语义问题,提出了一种融合知识和文本语义信息的双编码器自动摘要模型(dual-encoder automatic summarization model incorporating kn...
详细信息
为了解决自动文本摘要任务存在的文本语义信息不能充分编码、生成的摘要语义冗余、原始语义信息丢失等语义问题,提出了一种融合知识和文本语义信息的双编码器自动摘要模型(dual-encoder automatic summarization model incorporating knowledge and semantic information,KSDASum)。该方法采用双编码器对原文语义信息进行充分编码,文本编码器获取全文的语义信息,图结构编码器维护全文上下文结构信息。解码器部分采用基于Transformer结构和指针网络,更好地捕捉文本和结构信息进行交互,并利用指针网络的优势提高生成摘要的准确性。同时,训练过程中采用强化学习中自我批判的策略梯度优化模型能力。该方法在CNN/Daily Mail和XSum公开数据集上与GSUM生成式摘要方法相比,在评价指标上均获得最优的结果,证明了所提模型能够有效地利用知识和语义信息,提升了生成文本摘要的能力。
手势识别是人机交互中的关键技术。传统实时手势识别模型对光照变化、复杂背景等干扰因素适应性不强,所用分类数据集仅包含特定手势,在实际应用中泛化能力不足。针对以上问题,提出背景优化的二阶段静态手势识别算法。在检测阶段,采用YOLOv5s(You Only Look Once version 5 small)作为检测网络,利用其定位能力快速检测手部位置。在识别阶段,首先,利用背景与传感器热噪声对分类数据集进行增强,设计背景优化预处理算法,提升模型对复杂背景的适应性;然后,将VGG-16(Visual Geometry Group-16)作为识别网络的原型,增加归一化层并替换激活函数以加速收敛并防止过拟合。实验中,模型可以在多种干扰下提取图像特征,准确率达到97.9%,F1值达到92.3%。实验结果表明,模型对复杂场景的适应能力高于经原始分类数据集训练后的传统模型,具有更高的实际应用价值。
暂无评论