模型选择的另一种方法,交叉验证,包括使用训练样本的一部分作为验证集来选择一个假设集 。
- 这与依赖理论学习界限为每个假设集分配惩罚的SRM模型形成对比。
- 在本节中,我们分析交叉验证方法并将其性能与SRM进行比较。
与前一节类似, 设为一个具有递增复杂度的可数假设集序列。 交叉验证(CV)的解是通过以下方式获得的。
- 设 为大小为. 的独立同分布带标签样本
- 将其分为大小为 的样本 和大小为 的样本 , 其中
- 通常选择相对较小。
- 保留用于训练,
- 用于验证。
- 对于任意的 ,设 表示使用假设集 在 上运行ERM得到的解。
- 通过交叉验证返回的假设是ERM解 在上表现最好的:
以下的一般结果将帮助我们推导出交叉验证的学习保证。
命题4.3
对于
- 任意的
- 任意的样本大小 ,
以下的一般不等式成立:
\begin{proof}
通过联合界,我们可以写出
假设在的条件下是固定的。 此外,样本与独立。 因此,通过 Hoeffding 不等式, 我们可以界定条件概率如下:
将这个界右侧代入(4.8)并对求和得到
这就完成了证明。
\end{proof}
设
- 为使用大小为 的样本 的SRM解的泛化误差,
- 为使用大小为 的样本 的交叉验证解的泛化误差。 那么,利用 命题4.3,可以推导出以下的学习保证, 它比较了CV方法的误差与SRM的误差。
定理4.4 交叉验证与SRM的比较)
对任意 , 有至少 的概率,以下成立:
其中,对于任何 , 表示包含 的假设集的最小索引。
\begin{proof}
根据 命题4.3 和 定理4.2, 利用 作为最小化者的性质,对于任何 ,在至少 的概率下,以下不等式成立:
这完成了证明。
\end{proof}
刚才证明的学习保证显示,
- 对于样本大小为 的CV解,其泛化误差与样本大小为 的SRM解的泛化误差相近。
- 对于相对较小的,这表明了一个类似于SRM的保证,正如之前讨论的,这是非常有利的。
- 然而,在某些不利的条件下,一个算法(在这里是SRM)在 个点上训练的性能可能比在 个点上训练的性能差得多
- 避免这种相变问题是实际中使用 倍交叉验证方法的主要动机之一,参见 4.5 n-折交叉验证。
- 因此,这个界限实际上暗示了一个权衡:
- 应该足够小以避免刚刚提到的有利条件,
- 同时应该足够大,以便界限右侧保持较小且具有信息性。
在实践中,CV的学习界限在某些情况下可以更加明确。
- 例如,假设假设集 是嵌套的,并且ERM解的实证误差在达到零之前是递减的:
- 对于任何 ,对于所有满足 的 以及 其他情况,
- 注意到 至少意味着 的一个误差,因此
- 鉴于这一点,我们必须有,对于所有,
- 因此,我们得到,对于所有,
- 并且我们可以假设
- 由于 的复杂性随 增加而增加,我们还得到
- 鉴于这一点,我们得到以下更明确的学习界限,用于交叉验证: