2.2 支持向量机增量算法
增量式算法的本质,是机器学习系统在处理新 增样本时,能够只对原先学习结果中与新样本有关 的部分进行增加修改或删除操作,与之无关的部分 则不被触及。该算法可以将学习过程的时空复杂度 保持在一个可控的水平。[4]。 增量算法的一个突出特点是支持向量机的学 习不只进行一次,而是数据逐一加入反复优化的过 程。Ralaivola[5] 提出一种基于半径基函数核的线上 算法,即局部增量算法。这一方法主要利用半径基 函数核的局部性,通过考虑输入点邻域中支持向量 的子集,来更新已有的模型。而这一子集,是通过 对误差估计的方差计算得来的。通过使用不同的泛 化误差估计,可以用来检验算法的特性。本文的批 量式增量算法正是基于该文的核心思想演化而来。 Laskov 等人的工作[6] 重点在支持向量机增量算法 的应用设计和分析上,通过对算法的收敛性和复杂 度进行分析,提出一种新的存储和数值运算思路, 进而提高算法的效率。 2.3 迁移学习模型 有关迁移学习的调查报告[7] [8] 指出了迁移学 习的一个基本问题:即为了弥补目标数据域样本 不足的缺陷,可以通过样本充足的相似域来弥补。 Sinno 等人[7] 强调关注迁移学习和其他机器学习算 法的关系,如:领域自适应、多任务学习、样本选 择偏差、协方差偏移等。而 Weiss 等人[8] 重点关注 迁移学习的定义,模型建立和实际应用。