第5.2节中描述的最大间隔或最优超平面解决方案是由Vapnik和Chervonenkis于1964年提出的。由于在实际中的大多数任务中数据不是线性可分的,该算法的应用范围有限。相比之下,第5.3节中针对一般不可分情况的SVM算法,由Cortes和Vapnik于1995年以支持向量网络的名字提出,已经被广泛采用并证明在实践中是有效的。该算法及其理论对理论机器学习和应用机器学习产生了深远的影响,并激发了对各种主题的研究。已经提出了几种专用算法来解决在解决SVM问题时出现的特定二次规划问题,例如Platt于1999年提出的SMO算法(见练习5.4),以及一系列其他分解方法,如Hsieh等人于2008年在LibLinear软件库中使用的,以及Allauzen等人于2010年用于解决使用有理核时的问题的方法(见第6章)。

支持支持向量机(SVM)算法的许多理论([Cortes和Vapnik,1995,Vapnik,1998]),特别是第5.4节中介绍的支持边界理论,已经被学习理论和统计学界采用,并应用于各种其他问题。关于标准超平面的VC维度的边界(练习5.7)是由Vapnik [1998]提出的,其证明与Novikoff关于在可分情况下感知器算法更新次数的边界非常相似。我们基于Rademacher复杂性的边缘保证的表述遵循了Koltchinskii和Panchenko [2002]的优雅分析(也见Bartlett和Mendelson [2002],Shawe-Taylor等人[1998])。我们对Talgrend引理5.7的证明是Ledoux和Talagrand [1991,第112-114页]给出的更一般结果的更简洁版本。有关与在训练样本上找到具有最少错误数的超平面问题相关的难度结果,请参见Höffgen等人[1995]。