考虑
- 实例集合是平面上的点,
- 概念类 是所有位于 中的轴对齐矩形的集合。
- 每个概念 是特定轴对齐矩形内部的点的集合。
- 学习问题包括使用标记的训练样本以小的误差确定目标轴对齐矩形。
- 我们将证明轴对齐矩形的概念类是 PAC 可学习的。
图 2.1. 目标概念 和可能的假设 。圆圈代表训练实例。一个蓝色圆圈是一个标记为 1 的点,因为它落在矩形 R 内。其他的为红色并标记为 0。
- 表示目标轴对齐矩形
- 表示一个假设。
- 的误差区域由以下两类区域组成 ^fig-2-1
- 内但不在 内的区域
- 对应假阴性,即被 1 标记为 0 或负值的点,实际上是正的或标记为 1。
- 内但不在 内的区域
- 对应假阳性,即被 正面标记的点实际上是负面标记的。
- 内但不在 内的区域
- 回忆 PAC学习的定义, 为了证明概念类是 PAC 可学习的,我们描述了一个简单的 PAC 学习算法 。
- 给定一个标记样本 ,算法包括返回包含标记为 1 的点的 最紧的 轴对齐矩形 。
- ^fig-2-2 描述了算法返回的假设。
- 根据定义, 不会产生任何假阳性,因为它的点必须包含在目标概念 中。
- 因此, 的误差区域包含在 中。
图 2.2 算法返回的假设 的说明。
- 令 为一个目标概念。
- 固定 。
- 令 表示由 定义的区域的概率质量,
- 即根据 随机抽取的点落在 内的概率。
- 由于我们的算法产生的错误只能是由于点落在 内,
- 我们可以假设 ;
- 否则,无论接收到什么样的训练样本 , 的错误小于或等于 。
- 由于 ,我们可以定义
- 四个矩形区域 ,,,
- 每个区域的概率至少为 。
- 这些区域可以通过
- 从完整的矩形 开始,
- 然后通过尽可能移动一边来减小大小,
- 同时保持至少 的分布质量来构建。
- ^fig-2-3 说明了这些区域的定义。
图 2.3 区域 的示例。
- 令 , , , 为定义 的四个实数值。
- 左边的矩形 由 定义
- 。
- 从 排除最右的边得到的区域
- 概率 至多 为
- 以类似的方式定义。
- 左边的矩形 由 定义
- 如果 碰到这四个区域 ,
- 那么,因为它是一个矩形,它将在这些区域中的每一个都有一边(几何论证 ^fig-2-3)。
- 它的误差区域,即 中未被它覆盖的部分,
- 包含在这些区域的并集中
- 其概率质量不可能超过 。
- 通过逆否命题可得, 如果 , 那么 必须至少错过 , 中的一个区域。
- ^fig-2-3 可见
- 最后一步,我们使用了对于所有 都成立的广义不等式 。
- 对于任何 ,为了确保 ,我们可以施加
- 对于任何 和 ,
- 如果样本大小 大于 ,
- 那么 。
- 表示 中的点以及与坐标轴平行的矩形的计算成本是常数,
- 后者可以通过它们的四个角来定义。
- 这证明了
- 与坐标轴平行的矩形的概念类是PAC可学习的,
- PAC学习与坐标轴平行的矩形的样本复杂度在 内。
Remark
- 我们将在本书中经常看到,表示样本复杂度结果(如 (2.6) )的一种等价方式,是给出一个泛化边界。
- 泛化边界表明,在至少 的概率下,算法错误 被某个依赖于样本大小 和 的量所上界。
- 为了得到这个结果,只需将 设置为(2.5)中导出的上界,即 并求解 。
- 这表明在至少 的概率下,算法的错误被如下界定:R\left( {\mathrm{R}}_{\mathrm{S}}\right) \leq \frac{4}{m}\log \frac{4}{\delta} \tag{2.7}
Question
对于这个例子,可以考虑其他PAC学习算法。
- 一个替代方案是返回不包含负点的最大轴对齐矩形。
- 刚刚为最紧密轴对齐矩形提出的PAC学习证明可以很容易地适应于其他此类算法的分析。
- 在此例中考虑的假设集 与概念类 相重合,且其数量是无限的。
- 尽管如此,问题还是允许有一个简单的PAC学习证明。
- 那么我们可能会问,是否可以将类似的证明轻易应用于其他类似的概念类。
- 这并不简单,因为证明中使用的特定几何论证是关键。
- 将证明扩展到其他概念类,如非同心圆的概念类(见 2.4 非同心圆。),并不平凡。
- 因此,我们需要一种更一般的证明技术和更一般的结果。
- 接下来的两个部分在有限假设集的情况下为我们提供了这样的工具。
Homework