VisCoIN: 利用生成模型实现可解释的深度学习

Restyling Unsupervised Concept Based Interpretable Networks with Generative Models

摘要

本文介绍了一种名为Visualizable CoIN (VisCoIN)的新型架构,旨在解决在大型图像上学习无监督概念字典的CoIN系统中的可视化限制。该方法通过将概念特征映射到预训练生成模型的潜在空间,利用生成模型实现高质量的可视化,并自然地提供了一种直观和交互式的过程来更好地解释学习到的概念。此外,利用预训练生成模型还提高了系统的训练效率。该方法在多个大型图像识别基准上进行了实验,证明了其在可解释预测网络的准确性、重建的保真度以及学习概念的忠实度和一致性方面的有效性。

原理

VisCoIN的核心在于通过一个概念翻译器模块,将概念向量映射到预训练生成模型的潜在空间。这个翻译器与系统的其他参数一起学习,有助于提高概念的质量。通过在训练过程中强制执行重建的感知相似性,VisCoIN引入了一个新的“可视化”属性,使得系统能够从学习到的概念中重建高质量的图像。此外,定义了一个基于概念翻译器和相关生成模型的新概念解释流程,允许对每个概念进行高质量和更全面的可视化。

流程

VisCoIN的工作流程包括以下步骤:

  1. 使用预训练的分类网络f和生成模型G来指导g及其概念提取函数Φ的设计和学习。
  2. 设计一个字典Φ,包含K个概念函数ϕ1, …, ϕK,每个概念激活ϕk(x)由一个小型的卷积特征图表示。
  3. 使用预训练的分类网络f和在其选定的隐藏层上学习一个相对轻量级的网络Ψ来计算概念激活Φ(x)。
  4. 设计Θ,通过池化特征图来获得单个概念激活,并通过线性层和softmax函数进行最终预测。
  5. 引入“可可视化”属性,要求能够从Φ(x)通过预训练的生成模型G重建高质量的图像。
  6. 学习一个额外的概念翻译器模块Ω,将Φ(x)映射到G的潜在空间,以便通过Ω和G获得高质量的重建图像。

应用

VisCoIN的应用前景广泛,特别是在需要高度可解释性的领域,如医疗诊断、自动驾驶和金融分析。该方法不仅提高了模型的透明度和可信度,还通过提供直观和交互式的解释,增强了用户对模型决策的理解和信任。未来工作可能包括将该设计适应于其他类型的生成模型,或应用于不同的视觉领域。