• 在最一般的情况下,可能不存在与标记训练样本一致的 中的假设。
  • 实际上,这在实践中是典型的情况,其中学习问题可能有些困难,或者概念类比学习算法使用的假设集更复杂。

Thumb 鸭兔错觉 - Wikiwand articles

  • 然而,在训练样本上错误数量较少的不一致假设可能是有用的,正如我们将看到的, 它们在某些假设下可以从有利的保证中受益。
  • 本节将呈现了针对这种不一致情况和有限假设集的学习保证。

为了在这个更一般的设置中推导学习保证,我们将使用Hoeffding不等式(定理D.2)或以下推论,它将单个假设的泛化误差和经验误差联系起来。

推论 2.10

确定。那么,对于任何假设,以下不等式成立:

通过并集界限,这暗示了以下双向不等式:

\begin{proof} 结果直接来自定理D.2。 \end{proof}


(2.16) 右侧设置为等于 并求解 , 立即为单个假设得到以下界限。

推论 2.11(泛化边界 — 单个假设)

给定一个假设 。 那么,对于任何 , 以下不等式至少以 的概率成立: R\left( h\right) \leq {\widehat{R}}_{S}\left( h\right) + \sqrt{\frac{\log \frac{2}{\delta }}{2m}} \tag{2.17}


示例 2.12 (抛硬币)说明了在简单情况下这个推论的应用。

由上述示例可见,与一致情况的证明一样,我们需要推导出一个均匀收敛边界,即对于所有假设 都以高概率成立的一个边界: 定理2.13 学习界限 — 有限H 不一致情况