考虑

  • 实例集合是平面上的点,
  • 概念类 是所有位于 中的轴对齐矩形的集合。
    • 每个概念 是特定轴对齐矩形内部的点的集合。

  • 学习问题包括使用标记的训练样本以小的误差确定目标轴对齐矩形。
  • 我们将证明轴对齐矩形的概念类是 PAC 可学习的。

图 2.1. 目标概念 和可能的假设 。圆圈代表训练实例。一个蓝色圆圈是一个标记为 1 的点,因为它落在矩形 R 内。其他的为红色并标记为 0。

01917e5a-246e-7afb-b594-9077a1d7cfd5_12_134779.jpg


  • 表示目标轴对齐矩形
  • 表示一个假设。
  • 的误差区域由以下两类区域组成 ^fig-2-1
    • 内但不在 内的区域
      • 对应假阴性,即被 1 标记为 0 或负值的点,实际上是正的或标记为 1。
    • 内但不在 内的区域
      • 对应假阳性,即被 正面标记的点实际上是负面标记的。

  • 回忆 PAC学习的定义, 为了证明概念类是 PAC 可学习的,我们描述了一个简单的 PAC 学习算法
  • 给定一个标记样本 ,算法包括返回包含标记为 1 的点的 最紧的 轴对齐矩形
  • ^fig-2-2 描述了算法返回的假设。
  • 根据定义, 不会产生任何假阳性,因为它的点必须包含在目标概念 中。
  • 因此, 的误差区域包含在 中。

图 2.2 算法返回的假设 的说明。 01917e5a-246e-7afb-b594-9077a1d7cfd5_13_136763.jpg


  • 为一个目标概念。
  • 固定
  • 表示由 定义的区域的概率质量,
    • 即根据 随机抽取的点落在 内的概率。
  • 由于我们的算法产生的错误只能是由于点落在 内,
    • 我们可以假设
    • 否则,无论接收到什么样的训练样本 的错误小于或等于

  • 由于 ,我们可以定义
    • 四个矩形区域
    • 每个区域的概率至少为
    • 这些区域可以通过
      • 从完整的矩形 开始,
      • 然后通过尽可能移动一边来减小大小,
      • 同时保持至少 的分布质量来构建。
    • ^fig-2-3 说明了这些区域的定义。

图 2.3 区域 的示例。 01917e5a-246e-7afb-b594-9077a1d7cfd5_14_268997.jpg


  • 为定义 的四个实数值。
    • 左边的矩形 定义
    • 排除最右的边得到的区域
      • 概率 至多
    • 以类似的方式定义。

  • 如果 碰到这四个区域
  • 那么,因为它是一个矩形,它将在这些区域中的每一个都有一边(几何论证 ^fig-2-3)。
  • 它的误差区域,即 中未被它覆盖的部分,
    • 包含在这些区域的并集中
    • 其概率质量不可能超过
  • 通过逆否命题可得, 如果 , 那么 必须至少错过 中的一个区域。

  • 最后一步,我们使用了对于所有 都成立的广义不等式

  • 对于任何 ,为了确保 ,我们可以施加


  • 对于任何
    • 如果样本大小 大于
    • 那么
  • 表示 中的点以及与坐标轴平行的矩形的计算成本是常数,
    • 后者可以通过它们的四个角来定义。
  • 这证明了
    • 与坐标轴平行的矩形的概念类是PAC可学习的,
    • PAC学习与坐标轴平行的矩形的样本复杂度在 内。

Remark

  • 我们将在本书中经常看到,表示样本复杂度结果(如 (2.6) )的一种等价方式,是给出一个泛化边界。
  • 泛化边界表明,在至少 的概率下,算法错误 被某个依赖于样本大小 的量所上界。
  • 为了得到这个结果,只需将 设置为(2.5)中导出的上界,即 并求解
  • 这表明在至少 的概率下,算法的错误被如下界定:R\left( {\mathrm{R}}_{\mathrm{S}}\right) \leq \frac{4}{m}\log \frac{4}{\delta} \tag{2.7}

Question

对于这个例子,可以考虑其他PAC学习算法。

  • 一个替代方案是返回不包含负点的最大轴对齐矩形。
  • 刚刚为最紧密轴对齐矩形提出的PAC学习证明可以很容易地适应于其他此类算法的分析。

  • 在此例中考虑的假设集 与概念类 相重合,且其数量是无限的。
    • 尽管如此,问题还是允许有一个简单的PAC学习证明。
  • 那么我们可能会问,是否可以将类似的证明轻易应用于其他类似的概念类。
    • 这并不简单,因为证明中使用的特定几何论证是关键。
    • 将证明扩展到其他概念类,如非同心圆的概念类(见 2.4 非同心圆。),并不平凡。
    • 因此,我们需要一种更一般的证明技术和更一般的结果。
  • 接下来的两个部分在有限假设集的情况下为我们提供了这样的工具。

Homework