论文Interpretable Explanations of Black Boxes by Meaningful Perturbation阅读笔记,论文提出了一种optimization-based的可视化方法。
Intro
优势在于方法本身的可解释性很强,缺陷在于optimization需要几百次的前向和反向传播。
Method
Deletion Game,即删去输入尽量少的部分,同时降低尽量多的目标类别分数。
优化问题为:
即使得mask的1范数尽量低、生成的解释
初始化使用blur,相比noise和constant方法,能够缓解神经网络artifact的问题,比如blurred input和直接用0代替的结果如下:
后者(constant方法)更为弥散,收到伪影的影响。
Code
见GitHub.
后续
论文Interpretable and Fine-Grained Visual Explanations for Convolutional Neural Networks沿用了MASK的思路,在MASK原始Deletion Game的基础上,加入了Defending against Adversarial Evidence的思路,即使得解释
不同于MASK,生成的解释是fine-grained的,因为去除了tv-norm。