本节介绍了泛化界限,为 SVM 算法提供了强有力的理论依据。

回顾一下, 中超平面或线性假设族的 VC 维数是 。因此,将推论 3.19 中的 VC 维数界限(3.29)应用于这个假设集,得到以下结果:对于任意 ,以至少 的概率,对于任意

当特征空间的维数 与样本大小 相比很大时,这个界限是不明确的。值得注意的是,本节中呈现的学习保证与维数 无关,因此无论其值如何都成立。

我们即将提出的保证适用于实值函数,例如由SVMs返回的函数 ,与返回+1或-1的分类函数不同,例如 。它们基于置信边距的概念。实值函数 在标记为 的点 上的置信边距是量 。因此,当 正确分类 时,我们将 的大小解释为 所做预测的置信度。置信边距的概念与几何边距不同,且不需要线性可分性的假设。但是,在可分的情况下,这两个概念如下相关:对于具有几何边距 ,训练样本上任何标记为 的点 的置信边距至少为 ,即

鉴于置信边距的定义,对于任何参数 ,我们将定义一个 -边距损失函数,该函数在错误分类点 时,与零一损失一样,对 进行惩罚,其代价为1,但是如果 正确分类 且置信度小于或等于 时,也会(线性地)对 进行惩罚。本节主要基于边距的泛化界限,将以这个损失函数的形式呈现,该函数正式定义如下。

定义5.5(边距损失函数)对于任何 -边距损失是定义为所有 的函数 ,通过 来定义,且,

这个损失函数在图5.6中有所说明。参数 可以被解释为对假设 所需求的置信边缘。经验边缘损失同样被定义为训练样本上的边缘损失。

定义5.6(经验边缘损失) - 假设 ,经验边缘损失定义为

注意,对于任何 。因此,经验边缘损失可以被以下方式上界:

0192515b-435f-75ef-9b27-37409ba7b98f_14_650_255_498_417_0.jpg

图5.6

以红色表示的边缘损失,是相对于边缘参数 定义的。

在所有接下来的结果中,经验边缘损失可以被这个上界替代,它有一个简单的解释:它是训练样本 中被错误分类或分类置信度小于 的点的比例。换句话说,上界是训练数据中边缘小于 的点的比例。这对应于图5.6中蓝色虚线表示的损失函数。

使用基于 的损失函数而不是零一损失或图5.6中蓝色虚线定义的损失的一个关键好处是 -Lipschitz连续的,因为函数斜率的绝对值最大为 。以下引理将一个假设集 与此类Lipschitz函数复合后的经验Rademacher复杂性与 的经验Rademacher复杂性联系起来。它将被用于证明基于边缘的泛化界限。

定理 5.7(Talagrand 引理)设 为从 的 l-Lipschitz 函数, 为 Rademacher 随机变量。那么,对于任何实值函数的假设集 ,以下不等式成立:

特别地,如果 对于所有 成立,那么以下结论成立:

证明:首先我们固定一个样本 ,然后,根据定义,

其中 。根据上确界的定义,对于任何

,存在 使得

因此,对于任何 ,根据 的定义,

。那么,前一个不等式意味着

由于不等式对于所有 都成立,我们有

对所有其他 以相同的方式进行证明,得证引理。

下面是一个基于边界的通用泛化界限,它将被用于几个算法的分析中。

定理 5.8(二分类的边界界限) - - tions。固定 ,那么,对于任何 ,以至少 的概率,以下对于所有 成立:

证明:设 。考虑取值在 中的函数族:

根据定理 3.3,以至少 的概率,对于所有

因此,对于所有

由于 对于所有 成立,我们有 ,因此

由于 -Lipschitz,根据引理 5.7,我们有 并且 可以重写为以下形式:

这证明了(5.39)。第二个不等式(5.40)也可以用定理3.3的第二个不等式(3.4)代替(3.3)以同样的方式推导出来。

定理5.8的泛化界限表明了一种权衡:的较大值会减少复杂度项(第二项),但往往会通过要求假设具有更高的置信边缘来增加经验边缘损失(第一项)。因此,如果对于相对较大的值,的经验边缘损失仍然相对较小,那么将从对其泛化误差非常有利的保证中受益。对于定理5.8,边缘参数必须预先选择。但是,定理的界限可以推广到对所有都成立,代价是增加一个适度额外的项,如下定理所示(可以导出此定理的具有更好常数的版本,见练习5.2)。

定理5.9 设是一组实值函数。固定。那么,对于任何,以至少的概率,以下对所有都成立:

证明:考虑两个序列,其中。根据定理5.8,对于任何固定的

选择,那么,根据并集界限,以下成立:

我们可以选择 。对于任何 ,存在 使得 ,并且 。对于那个 ,因此 以及 。此外,对于任何 。因此,以下不等式成立:

这证明了第一个陈述。第二个陈述可以用类似的方法证明。

具有界权向量的线性假设的Rademacher复杂度可以以下式界定。

定理5.10 设 是大小为 的样本,且 。那么, 的经验Rademacher复杂度可以以下式界定:

证明:证明通过一系列不等式得出:

第一个不等式利用了Cauchy-Schwarz不等式和 的界限,第二个由Jensen不等式得出,第三个由 0 对于 ,最后一个由 得出。

结合定理5.10和定理5.8直接得到以下具有界权向量的线性假设的一般边缘界限,呈现在推论5.11中。

推论5.11 设 并且假设 。固定 ,那么,对于任何 ,在样本 大小为 的选择上,至少以 的概率,以下对于任何 成立:

与定理5.8一样,这个推论的界限可以通过结合定理5.10和定理5.9,以增加一个额外项 的代价,推广到对所有 一致成立。

线性假设的这个泛化界限非常引人注目,因为它不直接依赖于特征空间的维度,而只依赖于边界。它表明,当 较大(第二项较小)且经验边界损失相对较小(第一项)时,可以取得小的泛化误差。后者发生在只有少数点被错误分类或者虽然分类正确但边界小于 的情况下。当训练样本线性可分时,对于具有几何边界 的线性假设和置信边界参数的选择 ,经验边界损失项为零。因此,如果 相对较大,这为相应线性假设的泛化误差提供了强有力的保证。

保障不明确依赖于特征空间的维度这一事实可能令人惊讶,并且似乎与定理3.20和3.23的VC维数下界相矛盾。那些下界表明,对于任何学习算法 ,都存在一个使算法返回的假设误差为 的不良分布,且概率非零。然而,推论的界限并没有排除这种不良情况:对于这样的不良分布,即使边界 相对较小,经验边界损失也会很大,因此推论的界限在这种情况下会比较宽松。

因此,在某种意义上,推论的学习保障取决于良好边界值 的期望:如果存在一个相对较大的边界值 ,使得经验边界损失较小,那么推论将保证小的泛化误差。这种有利的边界情况依赖于分布:尽管学习界限与分布无关,但良好边界的存在实际上是与分布相关的。在应用中,有利的边界似乎相对频繁出现。

推论的界限为支持最大化边缘算法(如支持向量机)提供了强有力的证明。选择 ,通过对推论5.11的泛化到一个关于 的均匀界限,对于任何 ,在至少 的概率下,以下对所有 都成立:

不等式对于 大于 的情况也显然成立,因为在这种情况下,根据柯西-施瓦茨不等式,对于任何 ,我们有 并且 对所有 都等于一。

现在,对于任何 -边缘损失函数被 -折页损失所上界:

因此,在至少 的概率下,以下对所有 和所有 都成立:

由于任何 承认与 相同的泛化误差,在至少 的概率下,以下对所有 和所有 都成立:

这个不等式可以用来导出一个算法,该算法选择 以最小化右边。关于 的最小化不会导致一个凸优化,并且依赖于影响第二项和第三项的理论常数因子,这可能不是最优的。因此,相反, 被留作算法的一个自由参数,通常通过交叉验证来确定。

现在,由于右边只有第一项依赖于 ,对于任何 ,界限建议选择 作为以下优化问题的解:

引入拉格朗日变量 ,优化问题可以等价地写为

由于对于(5.47)约束中任意选择的 ,在(5.48)公式中存在一个等价的对偶变量 ,它实现了相同的最优 可以通过交叉验证自由选择。 得到的算法与支持向量机(SVMs)完全一致。请注意,另一种目标函数以及相应的算法将基于经验边缘损失而不是合页损失。然而,合页损失的优势在于它是凸的,而边缘损失则不是。

如前所述,刚刚讨论的界限并不直接依赖于特征空间的维度,而是在给定的有利边缘时保证良好的泛化。因此,它们建议在非常高维的空间中寻找大边缘分离超平面。鉴于SVMs对偶优化问题的形式,确定优化问题的解并将其用于预测都需要在该空间中计算许多内积。对于非常高维的空间,这些内积的计算可能会变得非常昂贵。下一章提供了这个问题的解决方案,该方案进一步将SVMs推广到非向量输入空间。