揭秘深度学习模型的“黑箱”:图像感知能力的新解释方法
摘要
本文由Sara Pohland和Claire Tomlin撰写,探讨了深度神经网络(DNN)感知模型在图像分类任务中的不确定性问题。尽管DNN在图像分类方面取得了显著成功,但其“黑箱”性质限制了我们对模型输出的理解,特别是在需要人类干预的现实世界系统中。本文提出五种新颖方法——图像裁剪、片段遮罩、像素扰动、能力梯度和重建损失,用于识别输入图像中导致模型能力低下的区域。这些方法旨在帮助系统理解模型为何不确定,从而在模型能力不足时做出智能决策。研究结果表明,能力梯度和重建损失方法在识别模型不熟悉的图像区域方面表现出色,具有低计算时间和高准确性,适用于决策支持系统。
Read more...








