摘要: 摘 要: 数据视图之间的对比学习已经在深度聚类领域取得了显著的成功。然而,由于一个视图的所有监督信息都源自于另一个视图,对比学习只能得到二者共享信息的最小充分表示,并且会弱化视图之间的非共享信息。考虑到图像聚类所需要的特征表示的丰富性,不能保证所有与聚类任务相关的信息都被包含在视图之间的共享信息中,即对比学习所得到的最小充分表示对于聚类任务是不足的。因此,提出了一种优化语义特征的方法,该方法在预训练阶段采用重构损失作为正则化项,增加特征表示和输入之间的互信息,从而近似引入更多与聚类任务相关的信息,降低对比学习过拟合共享信息的风险。在微调阶段,抛弃传统的聚类算法与聚类网络同时更新的方式,采用图片近邻之间的相似性差异作为损失来更新聚类网络,以最大程度的利用图片之间的近邻语义信息。通过在CIFAR10,CIFAR100,STL10数据集上对该方法进行实验,实验结果表明,该方法的准确率高于所有对比的方法,在STL10数据集上比次优的SCAN方法提高了2.7%,并且其他评价指标均取得了领先,验证了该方法的有效性。