近年来,全卷积神经网络有效提升了语义分割任务的准确率.然而,由于室内环境的复杂性,室内场景语义分割仍然是一个具有挑战性的问题.随着深度传感器的出现,人们开始考虑利用深度信息提升语义分割效果.以往的研究大多简单地使用等权值的拼接或求和操作来融合RGB特征和深度特征,未能充分利用RGB特征与深度特征之间的互补信息.本文提出一种基于注意力感知和语义感知的网络模型ASNet(Attention-aware and Semantic-aware Network).通过引入注意力感知多模态融合模块和语义感知多模态融合模块,有效地融合多层次的RGB特征和深度特征.其中,在注意力感知多模态融合模块中,本文设计了一种跨模态注意力机制,RGB特征和深度特征利用互补信息相互指导和优化,从而提取富含空间位置信息的特征表示.另外,语义感知多模态融合模块通过整合语义相关的RGB特征通道和深度特征通道,建模多模态特征之间的语义依赖关系,提取更精确的语义特征表示.本文将这两个多模态融合模块整合到一个带有跳跃连接的双分支编码-解码网络模型中.同时,网络在训练时采用深层监督策略,在多个解码层上进行监督学习.在公开数据集上的实验结果表明,本文算法优于现有的RGB-D图像语义分割算法,在平均精度和平均交并比上分别比近期算法提高了1.9%和1.2%.
物联网(Internet of Things,IoT)的快速发展极大地提高了人们的生活与生产效率。在这个过程中,深度神经网络模型在物联网的数据处理及智能化方面起着至关重要的作用。为了防止模型在未经授权的情况下被使用,模型水印技术已成为一种有效...
详细信息
物联网(Internet of Things,IoT)的快速发展极大地提高了人们的生活与生产效率。在这个过程中,深度神经网络模型在物联网的数据处理及智能化方面起着至关重要的作用。为了防止模型在未经授权的情况下被使用,模型水印技术已成为一种有效的版权保护手段。模型所有者可以在模型发布前在模型中嵌入特定的水印行为,通过检测是否存在水印行为来鉴别潜在的盗版模型。然而,模型窃取者可以采用低成本方法,在几乎不影响模型性能的情况下移除水印,从而逃避版权验证。为了解决这一问题,一种创新的基于模拟对抗的鲁棒模型水印方法被提出。该方法的核心在于优化一组水印样本,确保模型即使在遭受水印移除攻击后,水印样本仍能触发水印行为。具体而言,通过分析水印移除攻击的共同特性,构建了模拟这些攻击的水印移除仿真器和模拟无水印状态下模型表现的干净模型仿真器,再利用这些仿真器共同指导水印样本的优化。在CIFAR-10和CIFAR-100数据集上的实验结果显示,所提出的鲁棒模型水印在面对多种水印移除攻击方法时均表现出良好的抵抗能力,证明了该方法的有效性和实用性。
暂无评论