迁移学习:经典算法解析

一. 了解迁移学习

(Transfer Learning)目标是将从一个环境中学到的知识用来帮助新环境中的学习任务。

Survey 作者归纳了 Transfer Learning 相关的知识域,有必要了解一下这些名词:

Learning学习 – learning to learn

终身学习 – life-long learning

知识转移 – knowledge transfer

归纳迁移 – inductive transfer

多任务学习 – multi-task learning

知识的巩固 – knowledge consolidation

上下文相关学习 – context sensitive learning

基于知识的归纳偏差 – knowledge-based inductive bias

元学习 – meta learning

增量学习 – and incremental/cumulative learning

二. 迁移学习分类

迁移学习(Transfer Learning)根据 领域 和 任务的相似性,可以这样划分:

们根据 源Domain和目前Domain 之间的关系,源Task 和 目标Task之间的关系,以及任务方法更详细的整理为下表:

 源Domain &目标Domain

  源Task &目标Task

 源Data & 目标Data

   任务方法

传统机器学习

 相同

  相同

  有标签 | 有标签

迁移学习

 归纳式迁移学习

 相同/相关

  相关

 多任务学习 – 有标签 | 有标签

 自我学习    – 无标签 | 有标签

  分类回归

 直推式迁移学习

 相关

  相同

  有标签 | 无标签

  分类回归

 无监督迁移学习

 相关

  相关

  无标签 | 无标签

  聚类降维

实际上,归纳式迁移学习 是应用最广泛的一种方法,从这点上看,迁移学习更适合 有标签的应用域。

根据技术方法,我们将迁移学习的方法划分为:

                             

  说明

 归纳式 

 直推式 

 无监督 

基于样本

的迁移学习

  通过调整 源Domain的标签(辅助) 和 目标Domain标签的权重,协同训练得到目标模型。

  典型方法:TrAdaBoost

 √

 √

基于特征

的迁移学习

  找到 “好”特征 来减少源Domain和目标Domain之间的不同,能够降低分类、回归误差。

  典型方法:Self-taught learning,multi-task structure learning

 √

 √

 √

基于参数

的迁移学习

  发现源Domain和目标Domain之间的共享参数或先验关系。

  典型方法:Learning to learn,Regularized multi-task learning

 √

基于相关性

的迁移学习

  建立源Domain和目标Domain之间的相关知识映射。

  典型方法:Mapping 方法

 √

迁移学习方法虽然在学术有很多研究工作,实际上在应用领域并不算成熟,这本身就是一个很大的命题,关于迁移学习的条件 和 本质也并未形成一套正统的体系来引领研究方向,更多的也是在实验摸索。

迁移学习 目前面临如下几个问题:

1. 哪种情况适合做迁移学习? – What

这里先给个自己的理解:

分类和回归问题是比较适合做迁移学习的场景,有标签的源数据是最好的辅助。

2. 该选择哪种方法? – Which

简单而行之有效的方法是首选,领域在快速发展,也不必拘泥算法本身,改善结果才是硬道理。

3. 如何避免负迁移? – How

迁移学习的目标是改善目标域的 Task效果,这里面 负迁移(Negative Transfer)是很多研究者面临的一个问题,如何得到行之有效的改进,避免负迁移是需要大家去评估和权衡的。

三. 经典算法 TrAdaBoost

TrAdaBoost 算法是基于 样本迁移的 开山之作,由 戴文渊 提出,有着足够的影响力放在第一位来进行讲解。

论文下载:Boosting for Transfer Learning

算法的基本思想是 从源 Domain 数据中 筛选有效数据,过滤掉与目标 Domain 不match的数据,通过 Boosting方法建立一种权重调整机制,增加有效数据权重,降低无效数据权重,下图是 TrAdaBoost 算法的示意图(截图来自于  庄福振 – 迁移学习研究进展):

TrAdaBoost 算法比较简单,用一句话概括就是 从过期数据里面 找出和目标数据最接近的样本数据。

来看 TrAdaBoost 的算法步骤:

 

这里需要说明的一点就是 权重的更新方式,对于辅助样本来讲,预测值和标签越接近,权重越大;而对于目标数据则是相反,预测值和标签差异越大,权重越大。这种策略狠容易理解,我们想找到辅助样本中 和 目标数据分布最接近的样本,同时放大目标样本Loss的影响,那么理想的结果就是:

目标样本预测值与标签尽量匹配(不放过一个没匹配好的数据),辅助样本在前面的基础上筛选出最 match(权重大的) 的部分。

作者在后面给出了理论证明,这里有两个公式(来证明算法收敛):

 

因篇幅问题,这里就不再展开了(和作者说的一样),有兴趣可以参考原Paper,看下实验结果:

实验发现,当 同分布数据(目标数据)占比当低于0.1时,算法效果明显,当比例超过 0.1时,TrBoost 退化为 SVM 的效果

这又是一个显而易见的结论,我们认为大于0.1时,仅仅依靠 目前数据就足够完成样本训练,这种情况下,辅助样本的贡献可以忽略。

另外,当 目标数据 和 辅助数据 差别比较大时,该方法是不 Work的,印证了最初的假设,这里不再展开证明。

四. 多任务学习

多任务学习(Multi-Task Learning, MTL)是一种同时学习多个任务的机器学习方法,该方法由来已久,和深度学习没什么关系。

如果非要把它 和深度学习加上一个 link,我们可以这样来表示:

input1 -> Hidden1-> H1-> Out1                          input1                                       -> Out1

input2 -> Hidden2-> H2-> Out2         ==>       input2 -> Hidden123 -> H123   -> Out2

input3 -> Hidden3-> H3-> Out3                        input3                                        -> Out3

也比较好理解,相当于把多个 Task网络进行合并,同时训练多个任务,这种情况并不鲜见,比如以下2个方向:

1)目标检测 - 复合多任务

目标检测是 分类问题+回归问题的组合,这是一个典型的 Multi-Task,比如:

Detection=Classification+Location

        Mask RCNN = Classification+Location+Segmentation

检测问题前面描述的比较多了,这里就不再贴图了。

2)特征提取 

多任务特征提取,多个输出,这一类问题代表就是 数据结构化,特征识别。

下图是港中文 汤晓鸥组发表的TCDCN(Facial Landmark Detection by Deep Multi-task Learning),很多讲 Multi-Task的软文都拿出来说,我们也借用一下。

在这里 Multi-Task 被同时用作 人脸关键点定位、姿态估计和属性预测(比如性别、年龄、人种、微笑?戴眼镜?)

多任务学习适用于这样的情况:

1)多个任务之间存在关联,比如行人和车辆检测,对于深度网络也可以理解为有部分共同的网络结构;

2)每个独立任务的训练数据比较少,单独训练无法有效收敛;

3)多个任务之间存在相关性信息,单独训练时无法有效挖掘;

- Posted in: AI

- Tags:

0 条评论 ,35 次阅读

  1. 既然来了,说点什么?

发表评论

Top