支持向量机综述

目前为止讲过的模型中,朴素贝叶斯模型属于生成模型:它的训练过程其实很难称之为“训练”——毕竟它只是对输入的训练数据集进行了若干“计数”的操作;决策树模型的训练过程虽然确实有一些训练的意思在里面,但其本质——各种信息不确定性的度量仍然脱不出“计数”的范畴。换句话说,朴素贝叶斯和决策树的核心步骤似乎都只是“计数”而已。随机森林和 AdaBoost 自不用提,它们都只是将已有的模型进行集成、其本身的训练过程可谓不是主体

然而我们都知道、机器学习当然不只是“计数”那么简单的一回事。因此我们拟在本系列及以后的系列中介绍另一大类训练方法——梯度下降法(Gradient Decent;有时我们也称之为最速下降法(Steepest Descent))。就本系列而言,我们会先介绍一个比较简易的、应用到了梯度下降法的模型——感知机(Perceptron),然后我们会介绍一个思想和感知机类似、但是应用场景更加广泛的模型——支持向量机(Support Vector Machine,常简称为SVM)

以下是目录:

需要指出的是、本系列的前三篇文章讨论的都是二类分类问题,回归问题和把二类算法拓展成多类算法的手段会放在多分类与支持向量回归中进行简要介绍(注意虽然我们上一个系列叙述 AdaBoost 算法时同样也只针对二类分类问题进行了说明、但是应用多分类与支持向量回归中的内容是可以将上一个系列涉及到的的诸多 AdaBoost 二分类模型推广成多分类模型的)

观众老爷们能赏个脸么 ( σ'ω')σ