0%

来自:NeurIPS 2022

参考:https://zhuanlan.zhihu.com/p/588881767

攻击

On the Robustness of Deep Clustering Models: Adversarial Attacks and Defenses

Adversarial Attack on Attackers: Post-Process to Mitigate Black-Box Score-Based Query Attacks

GAMA: Generative Adversarial Multi-Object Scene Attacks

BadPrompt: Backdoor Attacks on Continuous Prompts

VoiceBox: Privacy through Real-Time Adversarial Attacks with Audio-to-Audio Models

Towards Reasonable Budget Allocation in Untargeted Graph Structure Attacks via Gradient Debias

Decision-based Black-box Attack Against Vision Transformers via Patch-wise Adversarial Removal

Revisiting Injective Attacks on Recommender Systems

阅读全文 »

Improving the Transferability of Targeted Adversarial Examples through Object-Based Diverse Input (CVPR2022)

代码:https://github.com/dreamflake/ODI

解决的问题

本文要解决目标攻击迁移效果差的文体。数据增广是缓解迁移攻击对抗样本对源模型过拟合的一种方法,之前的工作使用简单的数据变换比如 resize ,限制了输入的多样性。本文的研究动机在于人类视觉在三维物体上的图像的卓越感知能力,如果一个图像足够清晰,人类可以在多个观察条件下识别物体内容,如果一个对抗样本对于目标网络看起来像目标类别,这个网络也同样将这个渲染成3D的物体识别为目标类。

阅读全文 »

ECCV2022对抗攻击&防御文章汇总

Accepted papers | ECCV2022 (ecva.net)

参考:ECCV2022 对抗样本方面论文 - 知乎 (zhihu.com)

攻击

Frequency Domain Model Augmentation for Adversarial Attack

Adversarially-Aware Robust Object Detector

A Perturbation-Constrained Adversarial Attack for Evaluating the Robustness of Optical Flow

Physical Attack on Monocular Depth Estimation with Optimal Adversarial Patches

阅读全文 »

本文发表于ICLR2022,代码链接:https://github.com/fiveai/GFCS

摘要

最近关于黑盒对抗性攻击的一系列工作,通过将其整合到基于查询的搜索中,恢复了对代替模型迁移的使用。然而,我们发现,现有的这种类型的方法没有发挥出它们的潜力,而且除此之外还可能过于复杂。在这里,我们提供了一个简单的算法,通过使用代替网络的类别分数梯度进行搜索,实现了最先进的结果,而不需要其他先验因素或启发式方法。该算法的指导性假设是,所研究的网络在基本意义上是在学习类似的功能,因此,从一个网络转移到另一个网络的攻击应该是相当 "容易 "的。这一假设被极低的查询次数和失败率所验证:例如,使用 ResNet-152 作为代理网络对 VGG-16 ImageNet 网络进行无目标的攻击,产生的中位查询次数为6,成功率为99.9%。

阅读全文 »

A Little Robustness Goes a LongWay: Leveraging Robust Features for Targeted Transfer Attacks(NIPS2021)

代码:尚未开源

提出的问题

之前的研究指出目标攻击很难迁移[1],之前对迁移对抗样本的研究主要集中在改进生成成功的图像扰动的优化方法,本文研究了用于构建对抗样本的源神经网络对样本迁移的影响。本文提出略微鲁棒的CNN—被训练成对小的对抗扰动具有鲁棒性的网络,可以被利用来大幅提高目标对抗样本对不同架构的可迁移性,针对一个稍微鲁棒的CNN构建的目标对抗样本可以迁移到 transformer。同时每个单独的略微鲁棒的神经网络都能有效地将特征转移到所有测试的非鲁棒网络,这表明略微鲁棒的网络依赖于与每个非鲁棒网络重叠的特征,尽管任何特定的非鲁棒网络的特征并没有与所有其他非鲁棒网络严重重叠。

阅读全文 »