添加链接
link之家
链接快照平台
  • 输入网页链接,自动生成快照
  • 标签化管理网页链接

1、Asymmetric Tri-training for Unsupervised Domain Adaptation–非对抗方法
研究域适应,都希望能够学到域不变的特征,也就是说,假如现在是分类的任务,希望学习到分类器在不同的域都能够表现良好。实际情况是,这是很难的事情,因为不同域的具有不同的分布,具有各自具体域的特性。关于这方面的解决方法很多,看下本文Asymmetric Tri-training的方法吧,即 用不对称的三个网络,其中两个网络用来生伪标签,另外一个网络从伪标签数据中来学习,生成target域的目标表示
在这里插入图片描述
具体看图:先用源域上有标签的数据训练两个不同的分类器,然后目标上无label的图片分别丢到分类器中,分别产生的输出,由于有可能产生false label,所以还需要去挑选。总之中间图表示的意思是,让两个分类器产生无label的图片的伪标签 pseudo-labels,最后利用得到伪标签的目标域数据,去训练第三个分类网络。具体细节看下文:
在这里插入图片描述
1)先看算法过程
用源域数据分别训练F, F1, F2, Ft
把target数据丢入F1和F2,生成pseudo-labels(伪标签),其中需要满足两个条件:两个网络输出是同一个类别;具有足够高的置信度,0.9/0.95。
迭代过程,label数据和 pseudo-labels数据继续训练F, F1, F2; pseudo-labels数据训练F,Ft
训练完成后,F能够学习到目标域的特征表示,分类器Ft也能够目标域数据进行分类。
2)具体的实现细节,看代码,做实验
做两个实验,第一,重新训练网络,多看几层特征分布;
第二、合成图像–>真实图像实验,
集体讨论,有什么可改进的地方

1、Asymmetric Tri-training for Unsupervised Domain Adaptation–非对抗方法        研究域适应,都希望能够学到域不变的特征,也就是说,假如现在是分类的任务,希望学习到分类器在不同的域都能够表现良好。实际情况是,这是很难的事情,因为不同域的具有不同的分布,具有各自具体域的特性。关于这方面的解决方法很多,看下本文Asymmetric Tri-training的方法吧,即用不对称的三个网络,其中两个网络用来生
A sym metric Tri - train ing for Un super vis ed Dom ain Ada pta t ion (2017 ICML)论文笔记 Abstract Tri - train ing (周志华,2005, 无监督学习领 最经典、知名度最高的做法)利用三个分类器按照“少数服从多数”的原则来为无标签的数据生成伪标签,但这种 方法 不适用于无标签的目标 与有标签的源数据不同的情况。 ATDA要解...
A sym metric Tri - train ing for Un super vis ed Dom ain Ada pta t ion 深层模型需要大量的标注样本进行训练,但是收集不同领 的标注样本是代价昂贵的。   无监督领 适应 :利用标注的有标注的源样本和目标样本训练一个在目标 上能够很好地work的分类器。 存在的问题虽然很多的 方法 去对齐源 和目标 样本的分布,但是简单地匹配分布不能确保目标 上的准确率。 为了学习目标 的判别性的表示,假设人工标记的目标样本可以得到很好的表示。 == Tri - train ing :==
@[TOC](【论文笔记】A sym metric Tri - train ing for Un super vis ed Dom ain Ada pta t ion )) 论文地址:http://cn.arxiv.org/pdf/1702.08400v3 代码地址:https://github.com/corenel/pytorch-atda#pytorch-atda ATDA 解决的问题: 源数据有类别标签,...
论文笔记 —— 《A sym metric Tri - train ing for Un super vis ed Dom ain Ada pta t ion 》 图片来自:link ID: M ada zy ** 非对称地使用三个神经网络,非对称的意思是说,与 Tri - train ing 不同,其中的两个来为无标签数据生成伪标签,还有一个来学习伪标签的特征表达。** 要解决的问题是:源数据有标签,目标 没有标签,目标 与源...
适应 尝试将从源 获得的知识传送到目标 ,即测试数据所在的 。主要的挑战在于源 和目标 之间的分布差异。大多数现有工作通常通过最小化分布距离来努力学习 不变表示,例如MMD和最近提出的生成对抗网络(GAN)中的鉴别器。 遵循GAN的类...
这个错误可能是因为你使用了 `surprise` 库中的 `a sym metric _algo` 模块,但是该模块在最新版本的 `surprise` 库中已经被移除了。你可以尝试更新 `surprise` 库,或者改用其他的推荐 算法 模块。如果你需要使用 `a sym metric _algo` 模块,你可以安装旧版本的 `surprise` 库,如 `surprise==1.1.1`。你可以使用以下命令安装旧版本的 `surprise` 库: pip install surprise==1.1.1 请注意,使用旧版本的库可能会带来一些安全和功能上的问题,因此请谨慎使用。
域自适应学习分割:ADVENT: Adversarial Entropy Minimization for Domain Adaptation in Semantic Segmentation Meta Correction: Domain-aware Meta Loss Correction for Unsupervised Domain Adaptation in Semantic Se 藤原闻泰D: 请问大佬最后看懂了没啊,我最近也是在看这个代码和文章,有点不大理解得到 详细记录Few-Shot Semantic Segmentation的框架笔记 好像没有,都是已知了类别 Meta Correction: Domain-aware Meta Loss Correction for Unsupervised Domain Adaptation in Semantic Se 杰青的垫脚石: 楼主您好,最近刚接触这个域适应,看这个文章的时候发现代码和论文对不太上。比如说在训练meta的时候,代码里面好像没有用到训练domain predictor的模型。而且T矩阵好像每次迭代都会被初始化,这个好像跟文中不太一样。还有X_meta的获取是截取图像中比阈值高的部分的像素吗?谢谢您的时间。 论文域适应语义分割:Learning to Adapt Structured Output Space for Semantic Segmentation 凉凉凉jlu: 请问为什么在输出空间上进行适应是有效的能再讲一下吗,我不太理解 详细记录Few-Shot Semantic Segmentation的框架笔记 qq_25892947: 假如query set 里面是狗,对应的support set的mask也是狗的mask,也就是说,我们已经知道了类别(狗这个类),任务是进行分割。那有那种不事先知道类别的few-shot语义分割吗? Meta Correction: Domain-aware Meta Loss Correction for Unsupervised Domain Adaptation in Semantic Se Classes Matter: A Fine-grained Adversarial Approach to Cross-domain Semantic Segmentation(ECCV2020) 2018Unsupervised Domain Adaptation for Semantic Segmentation via Class-Balanced Self-Training