在统计学习中,直推式学习是一种通过观察特定的训练样本,进而预测特定的测试样本的学习方法。直推学习假定未标记示例就是测试示例,因此直推学习的目的就是在这些未标记示例上取得最佳泛化能力。这一思想来源于Vapnik,其出发点是当训练样本非常少,而测试样本非常多时,使用归纳式学习得到的类别判别模型的泛化性能往往很差,直推学习能利用无标注的测试样本的信息发现聚簇,进而更有效地预测。
与纯半监督学习相比,直推式学习持有“封闭世界”假设,即,测试数据是事先给出的、目标是优化测试数据的性能。而纯半监督式学习则持有“开放世界”假设,即,测试数据是未知的,未标注数据不一定是测试数据。
一个经典的直推学习方法是Transductive Support Vector Machine (TSVM)。其基本思想是考虑对未标记样本进行各种可能的标记指派,然后从中找出在所有有标记和未标记样本上间隔最大化的划分超平面。TSVM采用局部搜索的策略来进行迭代求解,即首先使用有标记样本集训练出一个初始SVM,然后使用该学习器对未标记样本进行标记,基于这些有标记样本重新训练SVM,如此反复迭代。