对抗样本生成技术(图像)总结(待续…)。
对抗样本?
从扰动在图像的存在形式看,有常见的两种情况:
- 在输入
中加入某肉眼不可见的扰动 ,使得 的预测被操纵; - 在输入
中加入某肉眼可见但不引起怀疑的扰动(Patch) ,使得 的预测被操纵;
针对不同任务,有不同的分类,总之,对抗样本攻击技术在于,针对某一具体任务,使用某方法,生成具有某些性质的扰动
反向传播
求解问题:
FGSM(Fast Gradient Sign Method)
利用网络的高维非线性,的性质:
PGD(Projected Gradient Descent)
基于迭代:
常见的投影函数: