3D/2D配准是手术导航的关键技术,现有基于深度学习的配准方法通过网络提取图像特征,继而回归出相应的姿态变换参数。此类方法依赖于真实的样本以及对应的3D标签用于训练,然而这部分专家标注的医疗数据十分稀缺。替代的方案用数字重建放射影像(DRR)图像训练网络,由于图像特征跨域的差异,在X射线图像上难以保持原有的配准精度。针对上述问题,设计基于自注意力的无监督跨域迁移网络(UCDTN),无须依赖X射线图像与其对应的3D空间标签作为训练样本,将源域所捕获的图像特征与空间变换间的对应关系迁移到目标域,借助公共特征减小域间特征的差距、降低跨域所带来的负面影响。实验结果表明,UCDTN预测结果的平均配准误差(mTRE)为2.66 mm;与未经跨域迁移训练的模型相比,mTRE指标降低了70.61%,验证了UCDTN在跨域配准任务上的有效性。