添加链接
link之家
链接快照平台
  • 输入网页链接,自动生成快照
  • 标签化管理网页链接
相关文章推荐
爱旅游的绿豆  ·  vars.put和vars.putObjec ...·  2 月前    · 

关注公众号,发现CV技术之美

本文分享 CVPR 2023 论文 『T-SEA: Transfer-based Self-Ensemble Attack on Object Detection』 ,北大提出T-SEA: 自集成策略实现更强的黑盒攻击迁移性。

具体信息如下:

  • 论文:https://arxiv.org/pdf/2211.09773.pdf

  • 代码:https://github.com/VDIGPKU/T-SEA

黑盒攻击(Black-box Attack)的两种主要方式为基于查询(Query-based)的黑盒攻击,以及基于迁移(Transfer-based)的黑盒攻击。其中,基于查询的黑盒攻击允许获取目标模型的输出信息,然而,真实场景的模型往往仅提供有限的查询次数且查询成本较高;而基于迁移的黑盒攻击方式由于不需要获取目标模型的任何信息,更有利于真实场景的攻击,但成功率也往往更低。

许多基于迁移的黑盒攻击依靠多模型集成方式来提高攻击的迁移性,也即,在训练对抗样本阶段,通过集成多个不同的白盒模型,以期训练好的对抗样本能在新的黑盒模型上表现出更强的攻击能力。但这种方式往往需要消耗大量训练时间和资源,同时,要获取同一任务的多个模型,在现实应用中也可能具有一定的实现难度。

那么是否能够仅通过已有的单个白盒模型来提高对抗样本在黑盒模型上的迁移性呢?北大王选所王勇涛团队对此进行了探究。

解决思路及技术方案

具体地,作者利用对抗补丁来对目标检测模型进行攻击,将对抗补丁贴到检测目标上,使得检测框消失。为了实现在单个白盒模型上训练的对抗补丁的迁移性,本文工作1.发现改变两个简单的训练设置即可对baseline的性能实现一定的提高;2.提出使用自集成(Self-ensemble)策略来充分提高对抗补丁的迁移性。上述所涉及的整个攻击流程的训练及推理过程如图1所示。

其中,由于自集成策略的加入,可以重新对该问题进行如下的形式化定义。对于数据集和检测器组成的联合分布 ,任务目标为从对抗补丁组成的假设空间 中寻找一个最优 的对抗补丁 ,使得

其中 是损失函数,, 和 表示自集成的数据、模型和对抗补丁。表示正则项,在本工作中使用TV Loss作为正则项。

增强基线的发现(Discovery of the Enhanced Baseline)

如图2所示,本文发现,1.降低 训练过程 中对抗补丁占检测框的大小(图2中的Scale);以及2.采取更缓和的学习率调整策略,可以提升对抗补丁的迁移性。其中,降低训练过程中对抗补丁的占比大小,最终生成的对抗模式往往更大,使得对抗样本在缩放到较小的绝对大小时也能更好地保留对抗模式。

同时,学习率调整策略对训练对抗补丁时的收敛位置也有重要影响。作者采用了一个更加温和的学习率更新策略来训练对抗补丁:

其中 表示第 个 epoch 的损失函数值。

这两个训练策略可以使得基线方法的迁移性能提升,其算法流程框图如Algorithm 1所示。

自集成策略(Self-ensemble Strategies)

尽管本文研究的是 对抗补丁泛化性 ,但一个有益的思考是, 模型泛化性 研究中所体现的“模型复杂度-训练数据规模-泛化性”这样的统计规律仍然是可以借鉴的。对于模型泛化性,作者根据 模型复杂度 训练数据规模 来定义模型的泛化上界。以有监督的分类模型学习为例,作者定义了一个最简单的泛化上界形式:

形式化地, 假设数据集中的"数据-标签"样本对来源于联合数据分布 ,分类问 题的目标即从有限假设集 中找到一个数据到标签的假设映射 。其中联合数据分布 是末知的, 一般研究者只能用有限的数据集 来对模型进 行训练。该训练的优化过程为被称为经验风险最小化 (Empirical Risk Minimization, ERM) 过程,经验风险可以定义为:

其中 表示衡量预测目标与真实目标间距离的损失函数。经验风险衡量的是模型在有限数据 集 上的表现,然而研究者往往更关心模型在真实分布 上的表现,二者相差城小,则模型的泛化性越高。之前的研究证明,经验风险 和真实风险 间存在1-的概率满足下列不等式:

其中N表示训练数据的规模,c是衡量假设空间复杂度的指标,例如参数模型量、VC维等。因此,如果要缩小经验损失和真实损失之间的差距,即提高模型的泛化性,需要扩大训练数据的规模N,减小假设空间复杂度c。在实际经验上,数据增强以及Stochastic Depth、Dropout这样的策略,也的确提高了模型的泛化性。作为启发,作者将它们分别对应于虚拟地增大数据规模,以及降低模型(优化目标)的平均复杂度。

而当上述讨论目标转化为对抗补丁泛化性时,作者提炼出两了个简单但重要的转化关系:

1.优化目标从参数模型转变为了参数对抗补丁;

2.训练数据从普通数据集(图像/文本)转变为了普通数据集(图像)+检测模型(集)。

作者通过上述发现,采用自集成策略来提高对抗样本的迁移性:

1.虚拟地增大数据规模。作者对训练输入的

a)普通图像通数据集进行数据增强;

b)对白盒检测模型进行增强(在本文中采用ShakeDrop来实现);

2.降低优化目标的平均复杂度。降低对抗补丁的平均维度(在本文中通过对补丁进行Cutout操作来实现)。

自集成策略只在对抗补丁的训练过程中使用。其中,模型ShakeDrop在前向及反向传播时对网络中的残差连接进行扰动,如图3所示。

而补丁的Cutout则是通过每次随机mask掉对抗补丁的一块区域来实现。更多实现细节可以参考该论文正文。

本文以AdvPatch这篇文章为基线,对训练的对抗补丁进行迁移性的测试。如Table 1所示,作者采用了8个经典的检测器模型进行实验,每次使用1个检测器作为白盒,并在剩余的7个检测器上测试AP指标来评估其迁移性。从实验结果可以看出,通过增强基线,并加入自集成策略后,对抗样本在白盒及黑盒上都表现出了更强的攻击性,对黑盒的迁移性有明显的提高。T-SEA对于anchor-free的网络同样也有适用性,作者也在repo中新加入了对anchor-free检测器CenterNet的支持。

T-SEA与其他基线的性能对比如Table 3所示,相比于其他方法,T-SEA在白盒攻击性及黑盒迁移性上均有明显的提升。

同时,为了验证本工作提出的方法的适用场景,本文作者采用了不同对抗补丁优化方法来进行消融实验。如表2所示,作者以YoloV5作为白盒检测器,采用不同的优化/基础攻击方法来进行对抗补丁训练,并测试该补丁在其余7个黑盒检测器上的评价性能。可以看出,在不同的优化方法下,本文所提出的策略仍然可以在白盒及黑盒上大幅提升表现。

除了对数字图片进行验证,本工作也对物理场景攻击进行了验证,图4展示了一个物理攻击的Demo。本文作者利用iPad作为对抗补丁的显示载体,并使用笔记本摄像头进行拍摄。可以看到,在对抗样本加入后,人类目标可以在Yolo v5和SSD检测下隐藏,而其他物体仍然可以被正常检测到。

尽管自集成策略目前的实现方式仍然具有一定的局限性(本文采用残差块扰动的方式来对白盒模型进行自集成,而该方法可能无法应用在非CNN的架构当中),但T-SEA的提出充分证明了在仅获得一个已知目标检测器信息的条件下,攻击者即可实现高迁移性的黑盒攻击。这揭示了对抗攻击对目标检测的新风险,也为目标检测的安全性探索提供了研究基础。

欢迎加入「对抗学习 交流群👇备注: adv

关注公众号,发现CV技术之美本文分享 CVPR 2023 论文『T-SEA: Transfer-based Self-Ensemble Attack on Object Detection』,北大提出T-SEA: 自集成策略实现更强的黑盒攻击迁移性。具体信息如下:论文:https://arxiv.org/pdf/2211.09773.pdf代码:https://github.com/VDIGPKU...
LED 2-净 这是我们 CVPR 2021口头论文“ LED 2 -Net:通过可微分深度渲染进行单眼360˚布局估计”的PyTorch实施。 您可以访问我们的项目网站并上传自己的全景图以查看3D结果! 此主要基于 。 您可以使用follwoing命令安装依赖关系。 pip install -r requirements.txt 准备训练数据 在,我们提供了和。 这两个数据集的注释格式遵循 。 格式的详细说明在进行了说明。 在, 和是Matterport3D和Realtor360的配置文件。 Matterport3D 要在Matterport3D上进行训练/,请修改中的。 dataset_image_path : &dataset_image_path '/path/to/image/location' dataset_label_path : &dataset_lab
学习多视图3D点云注册 几何和学习共同支持的非结构化点云正态估计。 normal estimation LG-GAN:标签导向对抗网络,可针对基于点云的深度网络进行灵活的有针对性的 攻击 。 attack 对抗 攻击 下深3D点云模型的等轴测度鲁棒性。 attack 云中的卷积:学习3D图卷积网络中的可变形内核以进行点云分析。 classification segmentation
Awesome- CVPR 2021/ CVPR 2020-Low-Level-Vision A Collection of Papers and Codes for CVPR 2021/ CVPR 2020 Low Level Vision or Image Reconstruction 整理汇总了下2021年 CVPR 和2020年 CVPR 底层视觉(Low-Level Vision)相关的一些论文和代码,包括超分辨率,图像恢复,去雨,去雾,去模糊,去噪等方向。大家如果觉得有帮助,欢迎star~~ Awesome- CVPR 2021-Low-Level-Vision Awesome- CVPR 2020-Low-Level-Vision 相关Low-Level-Vision整理
我们的 CVPR 2019 论文 Distilling Object Detectors with Fine-grained Feature Imitation 的 实现 我们 提出 了一种基于锚点的对象检测模型的通用蒸馏方法,以利用大型教师模型的知识获得增强的小型学生模型,该模型是正交的,可以进一步与量化和剪枝等其他模型压缩方法相结合。 香草知识蒸馏技术的关键观察是预测置信度的类间差异揭示了笨拙的模型如何趋于泛化(例如,当输入实际上是一只狗时,模型将在猫标签上放置多少置信度)。 虽然我们的想法是物体附近特征响应的位置间差异也揭示了检测器倾向于泛化的程度(例如,模型的响应对于不同的近物体锚点位置有何不同)。 我们发布了基于 shufflenet 的检测器和基于VGG11的Faster R-CNN 的提取代码,该代码库 实现 了基于Faster R-CNN模仿。 检查以获取基于 Shufflene
文章目录一、白盒 攻击 1.FGSM2.JSMA:3.DeepFool:4.CW:5.PGD:二、 黑盒 攻击 1.单像素 攻击 2.基于查询3.基于迁移4.基于替代5.其他三、对抗 攻击 与目标检测四、对抗训练&鲁棒性 只是一个自己看过的论文小汇总,还不能当综述,但也包含了很多经典的对抗 攻击 算法,方便回顾和查询,自己看的第一篇综述是: Advances in adversarial attacks and defenses in computer vision: A survey 论文这件事,真的只能多看,上学期看
本文目录摘要基于 集成 黑盒 攻击 方法SCESSPES分析总结 本文 提出 了两种基于 集成 黑盒 攻击 策略 ,分别是selective cascade ensemble strategy (SCES,不知道怎么翻起来信达雅) 和 stack parallel ensemble strategy (SPES,不知道怎么翻起来信达雅)。 基于 集成 黑盒 攻击 方法 本文 提出 的两种方法都是基于 集成 的,SCES方法可以理解为串联方法,而SPES可以理解为并串联方法。为什么要采用 集成 攻击 方法呢?目前的 黑盒 对抗 攻击 方法主要还