随着硬件水平的提升和人工智能的兴起,模式识别吸引了越来越多的专家学者的关注。一个完整的模式识别系统一般包括以下五个步骤:数据获取、数据预处理、特征提取、特征降维和分类器设计。特征降维通过一个线性或者非线性变换,将原始空间的特征映射到一个有意义的低维子空间,一方面能够降低识别算法的时间复杂度和空间复杂度,另一方面能够缓解“维度灾难”和“小样本问题”等现象。一类分类器是一种将感兴趣的目标类样本和其他所有不感兴趣的样本区分类的方法,且在训练阶段只需要使用目标类样本,因此,可以解决多类分类器在某些类样本缺失或者类样本数不均衡时,分类器无法训练或者分类界面倾斜的问题。雷达自动目标识别作为模式识别在雷达领域中的一种应用,在民用和军用领域也都得到了广泛的发展和应用。本文从特征降维和一类分类器设计两方面,对模式识别中的相关理论和技术问题进行了研究,并用于雷达自动目标识别。论文主要内容概括如下:1.特征降维是高维数据分类中一个重要的预处理步骤。传统的线性特征降维方法,例如线性判别分析,不能处理复杂的非线性数据。虽然近些年提出了一些非线性降维方法,例如局部线性嵌入,但是这些方法是非监督的,不能最大化低维子空间的类间可分性。针对传统特征降维方法在处理非线性数据时不能兼顾降维后特征类间可分性的问题,提出了一种基于混合因子分析模型和距离度量学习的降维方法。提出方法采用混合因子分析模型来描述观测数据的隐变量结构,即对训练样本聚类,并对每个聚类采用因子分析模型对高维数据降维;同时,采用距离度量学习准则来最大化降维后特征的可分性。在提出方法中,混合因子分析模型的对数似然函数与距离度量学习损失项联合优化,不仅可以准确的描述训练样本的隐变量结构,而且还可以保证每个聚类内隐变量的类间可分性。基于仿真数据、Benchmark数据和实测雷达数据的实验结果表明,提出方法可以针对样本空间的不同区域设计最优的变换矩阵,提升最终分类效果。2.一类支持向量机(One-class Support Vector Machine,OC-SVM)和支持向量描述(Support Vector Data Description,SVDD)是两种经典的一类分类器,但是它们的分类性能对模型中的高斯核参数敏感。为了解决OC-SVM和SVDD的高斯核参数选择问题,提出了一种高斯核参数的优化方法。研究表明,在OC-SVM和SVDD中,对于一个合适的高斯核参数,原始空间中的内部样本应该映射到远离分类界面的区域,而原始空间的边界样本应该映射到靠近分类界面的区域。基于这种样本与分类界面之间的几何关系,提出方法在高斯核空间定义了每个样本的信息熵,样本的信息熵越大,样本离分类界面越近。通过最大化边界样本与内部样本信息熵的差值就可以自动获得最优的高斯核参数。提出方法的目标函数可以利用梯度下降法优化求解,不需要预设高斯核参数候选集合,并且确定最优高斯核参数的所需时间要远远小于传统的参数选择方法。基于仿真数据、Benchmark数据和雷达实测数据表明了提出方法的有效性。3.在一类分类器设计中,对于分布复杂的数据,若针对整个样本空间仅仅建立一个分类器,会忽视样本的内在结构,降低分类器的分类效果。为了提升复杂分布下的一类分类性能,提出了一种集成式最大间隔一类分类器。提出方法利用Dirichlet过程混合模型(Dirichlet process mixture,DPM)对训练样本聚类,并在每个聚类学习一个最大间隔一类分类器。通过多个最大间隔一类分类器的集成,可以构造一个描述能力更强的分类界面,提升数据复杂分布下的一类分类性能。DPM聚类模型和最大间隔一类分类模型在同一个贝叶斯框架下联合优化,保证了每一个聚类的可分性。在仿真数据、Benchmark公共数据和实测SAR图像数据的实验结果表明,相比于传统的一类分类器,所提方法具有更好的分类效果。4.特征选择通过选择出与分类最相关的特征,降低特征冗余度,提升分类性能。为了增强集成式最大间隔一类分类器特征变换后的特征可分性以及降低特征冗余度,将特征选择引入到该分类器中,提出了集成式Beta过程最大间隔一类分类器。该方法在集成式最大间隔一类分类器中加入了服从Beta过程先验分布的特征选择因子变量。由于先验分布的稀疏特性,保证了特征选择因子中的大部分元素为0,从而降低了变换后的特征冗余度。此外,特征选择因子和模型的分类参数联合学习,从而可以选择可分性最好的特征,提升鉴别效果。基于仿真数据、Benchmark数据和实测SAR雷达数据的实验结果证明了提出方法的有效性。
暂无评论