添加链接
link之家
链接快照平台
  • 输入网页链接,自动生成快照
  • 标签化管理网页链接

在斯坦福CS224W的课程中,我们了解到GNN的两大局限.容易受到攻击,对噪音不够鲁邦是GNN的重大缺陷之一.


图神经网络及其图表示学习的对抗攻击已经成为图机器学习领域炽手可热的方向之一. 数据挖掘顶级会议KDD2018的最佳论文就是一篇研究图上的对抗攻击的文章,该论文针对图节点分类任务进行对抗攻击。

KDD2018 Best Paper: Adversarial Attacks on Neural Networks for Graph Data

http://cn.arxiv.org/pdf/1805.07984

从该篇文章开始,短短一两年的时间里,图对抗攻击和防御的论文就席卷了各大顶会,如ICLR, NIPS, KDD, AAAI等.

本文由UIC的Philip S. Yu老师带领的数据挖掘小组撰写的综述,主要介绍了图上对抗攻击和防御相关论文.

论文地址: https://arxiv.org/abs/1812.10528

作者也将相关论文整理到GitHub,供大家参考.

https://github.com/YingtongDou/graph-adversarial-learning-literature

图上的攻击

图上的防御

更多关于图神经网络/图表示学习/推荐系统, 欢迎关注我的公众号 【图与推荐】

CS224W 18.1-Limitations of Graph Neural Network

ICLR2019 图上的对抗攻击

神经网络 在各种实际应用中都取得了良好的性能。然而,最近的研究发现,GNN容易受到对抗 攻击 。本文研究了最近引入的一种针对** 注入 攻击 (GIA)**的真实 攻击 场景。在GIA场景中, 攻击 者无法修改输入 的现有连接结构或节点属性,而是通过向其中注入 攻击 节点来执行 攻击 。*我们分析了GNN在GIA设置下的拓扑脆弱性,并在此基础上提出了用于有效注入 攻击 的拓扑缺陷 注入 攻击 (TDGIA)*TDGIA首先引入拓扑脆弱边选择策略来选择原始节点与注入节点连接。然后设计平滑特征优化目标,为注入节点生成特征。 的对抗性学习概况 上的深度学习模型在各种 分析任务(例如节点分类,链接预测和 聚类)中均取得了卓越的性能。但是,它们暴露了对设计良好的输入(即对抗性样本)的不确定性和不可靠性。因此,针对不同 分析任务中的 攻击 防御 都出现了各种研究,从而导致了 对抗学习中的军备竞赛。例如, 攻击 者具有中毒和逃避 攻击 防御 小组相应地具有基于预处理和对抗的方法。 A Survey of Adve rsa ... ©作者|戴恩炎,赵天翔,王苏杭单位|宾夕法尼亚州立大学对于可信 神经网络 (Trustworthy Graph Neural Networks)在隐私(privacy),鲁棒性(robustness),公平(f ai rness)和可解释性(expl ai nability) 的研究工作,我们进行了系统的梳理和讨论。对于可信赖所要求的各个方面,我们将现有概念和方法归类并提炼... DDG-1000驱逐舰DDG-1000驱逐舰是美国海军新一代驱逐舰舰,又称“朱姆沃尔特级驱逐舰”。体长183米,排水量为14500吨,拥有80个发射装置,可发射“战斧”式对陆 攻击 巡航导弹及其他类型的导弹。DDG1000驱逐舰几乎悄无声息,敌方雷达对其几乎无法察觉。它能从95英里外对一个目标同时发射6枚威力强大的导弹。它是美国海军30年来首次推出的新型驱逐舰,其最大特点就是作战功能十分完备。该舰可游刃有余地在深海海域和波斯湾布满水雷的危险海域执行任务。中文名DDG-1000驱逐舰类 型。 来源:专知 本文为论文,建议阅读5分钟 异常的存在将导致“右移”现象。 神经网络 (GNNs)在 异常检测中有着广泛的应用。由于谱滤波器的选择是GNN设计的关键之一,因此通过 谱分析异常是GNN设计的第一步。我们的关键观察是,异常的存在将导致“右移”现象,即频谱能量分布较少集中在低频,较多集中在高频。这一事实促使我们提出了Beta小波 神经网络 (BWGNN)。事实上,BWG... ©PaperWeekly 原创 ·作者|张安琪学校|东华大学硕士生研究方向|隐私保护、Security论文标题:Heterogeneous Graph Matching Network... 项目:https://zitniklab.hms.harvard.edu/projects/GNNGuard/ 代码:https://github.com/mims-harvard/GNNGuard paper:https://arxiv.org/abs/2006.08149 poster:https://zitniklab.hms.harvard.edu/publications/posters/GNNGuard-NeurIPS20.pdf 论文来自于NeurIPS 2020,题目是G