咨询与建议

看过本文的还看了

相关文献

该作者的其他文献

文献详情 >融合局部和全局特征的深度多视图聚类网络 收藏

融合局部和全局特征的深度多视图聚类网络

作     者:李顺勇 李嘉茗 曹付元 郑孟蛟 

作者机构:山西大学数学与统计学院 复杂系统与数据科学教育部重点实验室(山西大学) 山西大学计算机与信息技术学院 计算智能与中文信息处理教育部重点实验室(山西大学) 

出 版 物:《计算机科学与探索》 (Journal of Frontiers of Computer Science and Technology)

年 卷 期:2025年

核心收录:

学科分类:12[管理学] 1201[管理学-管理科学与工程(可授管理学、工学学位)] 

基  金:国家自然科学基金项目(62376145 82274360) 山西省基础研究计划资助项目(202303021221054) 山西省回国留学人员科研资助项目(2024-002) 

主  题:多视图聚类 卷积神经网络 Transformer 特征融合 

摘      要:多视图聚类是当前数据分析领域的一个重要研究方向,旨在通过整合来自不同视角的数据,提升聚类精度。然而,传统的多视图聚类方法虽然在一定程度上提高了聚类效果,但往往忽略了视图间局部与全局特征的交互与融合。此外,尽管近年提出的多视图深度聚类方法,通过深度神经网络或对比学习增强了表征能力,但大多只关注局部或全局特征,未能在同一框架下对这两类特征进行综合处理。针对这些不足,提出了一种融合卷积神经网络与Transformer的深度多视图聚类模型(Deep Multi-View Clustering Network Integrating Local and Global Features,DMVCN-ILGF),该模型设计了并行的卷积分支和Transformer分支,分别用于提取局部特征和全局特征。为了实现特征的有效融合,引入了特征交互机制(Feature Interaction Mechanism,FIM)和特征融合模块(Feature Fusion Module,FFM),通过充分整合各视图的特征信息,以增强不同特征的交互和融合,最终提升聚类性能。进一步地,还设计了实例级和类别级对比损失,分别计算各视图的局部与全局特征之间的相似性,从而优化模型的表征能力和聚类效果。实验结果表明,提出的DMVCN-ILGF模型在多个多视图数据集上均取得了显著优于现有方法的聚类性能。

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分