关于迁移学习资料汇总,包括:介绍,综述文章,代表工作及其代码,常用数据集,硕博士论文等等。欢迎一起贡献!
- 最新 Latest
- 迁移学习简介 Introduction to transfer learning
- 迁移学习的综述文章 Survey papers
- 迁移学习文章 Awesome transfer learning papers
- 迁移学习相关代码 Available codes
- 迁移学习代表性研究学者 Scholars
- 迁移学习相关的硕博士论文 Thesis
- 代表性文章阅读 Paper reading
- 迁移学习用于行为识别 Transfer learning for activity recognition
- 常用数据集 Datasets
- Contributing
迁移学习文章 Awesome transfer learning papers
-
20171226 NIPS 2016 把传统工作搬到深度网络中的范例:不是只学习domain之间的共同feature,还学习每个domain specific的feature。这篇文章写得非常清楚,通俗易懂! Domain Separation Networks | 代码
-
20171222 NIPS 2017 用adversarial网络,当target中有很少量的label时如何进行domain adaptation:Few-Shot Adversarial Domain Adaptation
-
20171222 ICCV 2017 对于target中只有很少量的标记数据,用深度网络结合孪生网络的思想进行泛化:Unified Deep Supervised Domain Adaptation and Generalization | 代码和数据
-
20171218 假设target domain中的class是包含在source domain中,然后进行选择性的对抗学习:Partial Transfer Learning with Selective Adversarial Networks
-
20171201 第一篇将Tensor与domain adaptation结合的文章:When Unsupervised Domain Adaptation Meets Tensor Representations | 我的解读
台湾大学李宏毅的视频讲解,非常不错:https://www.youtube.com/watch?v=qD6iD4TFsdQ
动手教程:很好的深度学习+迁移学习的实践教程,有代码有数据,可以直接上手:基于深度学习和迁移学习的识花实践(Tensorflow) | 基于Pytorch的图像分类
一些迁移学习的综述文章,中文英文都有。
-
其中,最具代表性的综述是A survey on transfer learning,对迁移学习进行了比较权威的定义。
-
关于迁移学习的理论方面,有三篇连贯式的理论分析文章连续发表在NIPS和Machine Learning上:理论分析
-
最新的综述是Cross-dataset recognition: a survey,目前刚发在arXiv上,作者是澳大利亚卧龙岗大学的在读博士生,迁移学习领域做的不错。
-
来自香港科技大学Qiang Yang老师团队的最新综述A survey on multi-task learning
-
还有一篇较新的综述是A survey of transfer learning,写于2015-2016年。其中交代了一些比较经典的如同构、异构等学习方法代表性文章。包括了很多方法介绍,值得一看。
-
此外,还包括迁移学习应用于行为识别、迁移学习与增强学习结合等。
-
关于多个源域进行迁移的综述、视觉domain adaptation综述也十分有用。
-
中文方面,迁移学习研究进展是一篇不错的中文综述。
请见这里
全部列表以及代表工作性见这里
- Qiang Yang:中文名杨强。香港科技大学计算机系主任,教授,大数据中心主任。迁移学习领域世界性专家。IEEE/AAAI/IAPR/AAAS fellow。[Google scholar]
- Sinno Jialin Pan:杨强的学生,香港科技大学博士,现任新加坡南洋理工大学助理教授。迁移学习领域代表性综述A survey on transfer learning的第一作者(Qiang Yang是二作)。[Google scholar]
- Wenyuan Dai:中文名戴文渊,上海交通大学硕士,现任第四范式人工智能创业公司CEO。迁移学习领域著名的牛人,在顶级会议上发表多篇高水平文章,每篇论文引用量巨大。
- Lixin Duan:中文名段立新,新加坡南洋理工大学博士,现就职于电子科技大学,教授。
- Fuzhen Zhuang:中文名庄福振,中科院计算所博士,现任中科院计算所副研究员。[Google scholar]
- Mingsheng Long:中文名龙明盛,清华大学博士,现任清华大学助理教授、博士生导师。[Google scholar]
硕博士论文可以让我们很快地对迁移学习的相关领域做一些了解,同时,也能很快地了解概括相关研究者的工作。其中,比较有名的有
- 杨强的学生Sinno Jialin Pan的Feature-based Transfer Learning and Its Applications
- 南加州大学的Boqing Gong的Kernel Methods for Unsupervised Domain Adaptation
- 杨强的学生Hao Hu的Learning based Activity Recognition
- 杨强的学生Wencheng Zheng的Learning with Limited Data in Sensor-based Human Behavior Prediction
- 清华大学龙明盛的迁移学习问题与方法研究
- 上海交通大学戴文渊的基于实例和特征的迁移学习算法研究
- 中科院计算所赵中堂的自适应行为识别中的迁移学习方法研究
- Baochen Sun的Correlation Alignment for Domain Adaptation
其他的文章,请见完整版。
Domain adaptation是迁移学习领域比较热的研究方向,在这里整理了一些经典的文章和说明:Domain adaptation
最近一个推荐、分享论文的网站比较好,我在上面会持续整理相关的文章并分享阅读笔记。详情请见paperweekly。
-
迁移成分分析方法(Transfer component analysis, TCA)
- Domain adaptation via tranfer component analysis
- 发表在IEEE Trans. Neural Network期刊上(现改名为IEEE trans. Neural Network and Learning System),前作会议文章发在AAAI-09上
- 我的解读
-
联合分布适配方法(joint distribution adaptation,JDA)
- Transfer Feature Learning with Joint Distribution Adaptation
- 发表在2013年的ICCV上
- 我的解读
-
测地线流式核方法(Geodesic flow kernel, GFK)
-
领域不变性迁移核学习(Transfer Kernel Learning, TKL)
- Domain invariant transfer kernel learning
- 发表在IEEE Trans. Knowledge and Data Engineering期刊上
-
深度适配网络(Deep Adaptation Network, DAN)
- 发表在ICML-15上:learning transferable features with deep adaptation networks
- 我的解读
-
深度联合适配网络(Joint Adaptation Network, JAN)
- Deep Transfer Learning with Joint Adaptation Networks
- 发表在ICML 2017上,作者也是龙明盛
- 延续了之前的DAN工作,这次考虑联合适配
-
学习迁移(Learning to Transfer, L2T)
- 迁移学习领域的新方向:与在线、增量学习结合
- 我的解读
-
Simultaneous Deep Transfer Across Domains and Tasks
- 发表在ICCV-15上,在传统深度迁移方法上又加了新东西
- 我的解读
我写的迁移学习应用于行为识别领域的文章小总结。
如果你对本项目感兴趣,非常欢迎你加入!
- 正常参与:请直接fork、pull都可以
- 如果要上传文件:请不要直接上传到项目中,否则会造成git版本库过大。正确的方法是上传它的超链接。如果你要上传的文件本身就在网络中(如paper都会有链接),直接上传即可;如果是自己想分享的一些文件、数据等,鉴于国内网盘的情况,请按照如下方式上传:
Welcome!
[文章版权声明]这个仓库是我开源到Github上的,可以遵守相关的开源协议进行使用。这个仓库中包含有很多研究者的论文、硕博士论文等,都来源于在网上的下载,仅作为学术研究使用。我对其中一些文章都写了自己的浅见,希望能很好地帮助理解。这些文章的版权属于相应的出版社。如果作者或出版社有异议,请联系我进行删除(本来应该只放文章链接的,但是由于时间关系来不及)。一切都是为了更好地学术!