模型选择的另一种方法,交叉验证,包括使用训练样本的一部分作为验证集来选择一个假设集

  • 这与依赖理论学习界限为每个假设集分配惩罚的SRM模型形成对比。
  • 在本节中,我们分析交叉验证方法并将其性能与SRM进行比较。

与前一节类似, 设为一个具有递增复杂度的可数假设集序列。 交叉验证(CV)的解是通过以下方式获得的。

  • 为大小为. 的独立同分布带标签样本
  • 将其分为大小为 的样本 和大小为 的样本 , 其中
    • 通常选择相对较小。
    • 保留用于训练,
    • 用于验证。
  • 对于任意的 ,设 表示使用假设集 上运行ERM得到的解。
  • 通过交叉验证返回的假设是ERM解 上表现最好的:

以下的一般结果将帮助我们推导出交叉验证的学习保证。

命题4.3

对于

  • 任意的
  • 任意的样本大小

以下的一般不等式成立:

\begin{proof} 通过联合界,我们可以写出

假设的条件下是固定的。 此外,样本独立。 因此,通过 Hoeffding 不等式, 我们可以界定条件概率如下:

将这个界右侧代入(4.8)并对求和得到

这就完成了证明。 \end{proof}

  • 为使用大小为 的样本 的SRM解的泛化误差,
  • 为使用大小为 的样本 的交叉验证解的泛化误差。 那么,利用 命题4.3,可以推导出以下的学习保证, 它比较了CV方法的误差与SRM的误差。

定理4.4 交叉验证与SRM的比较)

对任意 , 有至少 的概率,以下成立:

其中,对于任何 , 表示包含 的假设集的最小索引。

\begin{proof} 根据 命题4.3定理4.2, 利用 作为最小化者的性质,对于任何 ,在至少 的概率下,以下不等式成立:

这完成了证明。 \end{proof}

刚才证明的学习保证显示,

  • 对于样本大小为 的CV解,其泛化误差与样本大小为 的SRM解的泛化误差相近。
  • 对于相对较小的,这表明了一个类似于SRM的保证,正如之前讨论的,这是非常有利的。
  • 然而,在某些不利的条件下,一个算法(在这里是SRM)在 个点上训练的性能可能比在 个点上训练的性能差得多
    • 避免这种相变问题是实际中使用 倍交叉验证方法的主要动机之一,参见 4.5 n-折交叉验证
  • 因此,这个界限实际上暗示了一个权衡:
    • 应该足够小以避免刚刚提到的有利条件,
    • 同时应该足够大,以便界限右侧保持较小且具有信息性。

在实践中,CV的学习界限在某些情况下可以更加明确。

  • 例如,假设假设集 是嵌套的,并且ERM解的实证误差在达到零之前是递减的:
  • 对于任何 ,对于所有满足 以及 其他情况,
  • 注意到 至少意味着 的一个误差,因此
  • 鉴于这一点,我们必须有,对于所有
  • 因此,我们得到,对于所有
  • 并且我们可以假设
  • 由于 的复杂性随 增加而增加,我们还得到
  • 鉴于这一点,我们得到以下更明确的学习界限,用于交叉验证: