支持向量机模型(SVM)是一个二分类模型,基本思想是求解能够正确划分训练数据集并且几何间隔最大的分离超平面,其学习策略便是间隔最大化,最终化为一个凸二次规划问题的求解。
SVM可分为线性可分支持向量机、线性支持向量机和非线性支持向量机。

算法推导

1. 线性可分支持向量机

  • 引入函数间隔和几何间隔

线性向量机的基本思想是硬间隔最大化,即:

$$
\begin{aligned}
\max_{w,b} \ \ \ \ &γ\\
s.t.\ \ \ \ \ &y_i·\frac{1}{||w||} ·(w·x_i+b)≥γ,i=1,2,…,N
\end{aligned}
$$
即:
$$
\begin{aligned}
\max_{w,b} \ \ \ \ &\frac{ŷ}{||w||}\\
s.t.\ \ \ \ \ &y_i·(w·x_i+b)≥ŷ,i=1,2,…,N
\end{aligned}
$$
取$ŷ=1$,得
$$
\begin{aligned}
\min_{w,b} \ \ \ \ &\frac{1}{2}{||w||}^2\\
s.t.\ \ \ \ \ &y_i·(w·x_i+b)-1≥0,i=1,2,…,N
\end{aligned}
$$

这是一个凸二次规划问题,通过引入拉格朗日乘子法,构建拉格朗日对偶函数,通过求其对偶函数的解,从而得到原始问题的最优解。

  • 定义拉格朗日函数:

$$
L(w,b,α)= \frac{1}{2}{||w||}^2-\sum_{i=1}^N{α_iy_i (w·x_i+b)}+\sum_{i=1}^N{α_i}
$$
其中,$α={(α_1,α_2,…,α_N)}^T$为拉格朗日乘子向量,$α_i≥0,i=1,2,…,N$

原始问题的对偶问题是极大极小问题

$$
\max_α{\min_{w,b} L(w,b,α)}
$$

  • 求解对偶问题
    • 求$\min_{w,b} L(w,b,α)$

分别对w,b求偏导数并令其为0:

$$
\begin{aligned}
\nabla_w L(w,b,α)=w-\sum_{i=1}^N{α_i y_i x_i}=0 \\
\nabla_b L(w,b,α)=\sum_{i=1}^N{α_i y_i}=0
\end{aligned}
$$

$$
\begin{aligned}
w=\sum_{i=1}^N{α_i y_i x_i} \\
\sum_{i=1}^N{α_i y_i}=0
\end{aligned}
$$

代入拉格朗日函数,得

$$
L(w,b,α)= \frac{1}{2}\sum_{i=1}^N\sum_{j=1}^N α_i α_j y_i y_j (x_i·x_j+b)-\sum_{i=1}^N{α_i y_i ((\sum_{j=1}^N{α_j y_j x_j})·x_i+b)}+\sum_{i=1}^Nα_i
$$

$$
= -\frac{1}{2}\sum_{i=1}^N\sum_{j=1}^N α_i α_j y_i y_j (x_i·x_j)+\sum_{i=1}^Nα_i
$$

$$
\min_{w,b} L(w,b,α) = -\frac{1}{2}\sum_{i=1}^N\sum_{j=1}^N α_i α_j y_i y_j (x_i·x_j)+\sum_{i=1}^Nα_i
$$

  • 求$\min_{w,b} L(w,b,α)$对$α$的极大:

    $$
    \max_{α}\ \ \ -\frac{1}{2}\sum_{i=1}^N\sum_{j=1}^N α_i α_j y_i y_j (x_i·x_j)+\sum_{i=1}^Nα_i
    $$

    $$
    s.t.\ \ \ \sum_{i=1}^N{α_i y_i}=0
    $$

    $$
    \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ α_i≥0,i=1,2,…,N
    $$

    即:

    $$
    \min_{α}\ \ \ \frac{1}{2}\sum_{i=1}^N\sum_{j=1}^N α_i α_j y_i y_j (x_i·x_j)-\sum_{i=1}^Nα_i
    $$

    $$
    s.t.\ \ \ \sum_{i=1}^N{α_i y_i}=0
    $$

    $$
    \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ α_i≥0,i=1,2,…,N
    $$

    求得最优解1

    $$
    \alpha^x={({\alpha_1}^x,{\alpha_2}^x,…,{\alpha_N}^x)}^{T}
    $$

    计算

    $$
    w^*=\sum_{i=1}^N {α_i}^x y_i x_i
    $$

    并选择$α^x$的一个正分量${α_j}^x>0$,计算

    $$
    b^x=y_i-\sum_{i=1}^N {α_i}^x y_i (x_i·x_j)
    $$

    求得分类决策函数:

    $$
    f(x)=sign(w^x·x+b^x)
    $$

    可知$w^x$,$b^x$只依赖训练数据中对应于${α_i}^x>0$的样本点$(x_i,y_i)$,而其他样本点对$w^x$,$b^x$没有影响。将训练样本中对应于${α_i}^x>0$的实例点称为支持向量。

2. 线性支持向量机

对于线性不可分训练集,引入松弛变量,采用软间隔最大化策略

  • 其原始问题为:

$$
\begin{aligned}
\min_{w,b} \ \ \ \ &\frac{1}{2}{||w||}^2+C\sum_{i=1}^{N}{ξ_i} \\
s.t.\ \ \ \ \ &y_i·(w·x_i+b)≥1-ξ_i,i=1,2,…,N \\
&ξ_i≥0,i=1,2,…,N
\end{aligned}
$$

构建拉格朗日函数:

$$
L(w,b,ξ,α,μ)=\frac{1}{2}{||w||}^2+C\sum_{i=1}^{N}{ξi}-\sum_{i=1}^N{α_i(y_i (w·x_i+b)-1+ξi)}-\sum_{i=1}^N{μ_i ξ_i}
$$

求导后代入,得

$$
min_{w,b} {L(w,b,ξ,α,μ)}=-\frac{1}{2}\sum_{i=1}^N\sum_{j=1}^N α_i α_j y_i y_j (x_i·x_j)+\sum_{i=1}^Nα_i
$$

得其对偶问题:

$$
\max_{α}\ \ \ -\frac{1}{2}\sum_{i=1}^N\sum_{j=1}^N α_i α_j y_i y_j (x_i·x_j)+\sum_{i=1}^Nα_i \\
$$

$$
s.t.\ \ \ \sum_{i=1}^N{α_i y_i}=0\\
$$

$$
\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ α_i≥0,i=1,2,…,N
$$

$$
\ \ \ \ \ \ \ \ \ \ \ \ \ C-α_i-μ_i=0
$$

$$
\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ μ_i≥0,i=1,2,…,N
$$

可以看做最小化以下目标函数:
$$
\sum_{i=1}^N[1-y_i (w·x_i+b)]_++λ||w||^2
$$
目标函数第一项是经验风险,称为合页损失函数(hinge loss function)

3. 非线性支持向量机

核函数:我们可以使用核函数,将原始输入空间映射到新的样本空间,从而使原来线性不可分得变成高维的线性可分。
在线性支持向量机的对偶问题中,无论是目标函数还是决策函数都只涉及输入实例与实例之间的内积。在对偶问题的目标函数中内积可以用核函数来代替,此时对偶问题的目标函数成为:

$$
W(α)=\frac{1}{2}\sum_{i=1}^N\sum_{j=1}^N α_i α_j y_i y_j K(x_i·x_j)+\sum_{i=1}^Nαi
$$

同样,分类决策函数中的内积也可以用核函数代替,而分类决策函数成为:

$$
f(x)=sign(\sum{i=1}^{N_s}α_i^x y_i·ϕ(x_i)·\phi(x)+b^x)
\ \ \ =sign(\sum_{i=1}^{N_s}α_i^x y_i K(x_i,x)+b^x)
$$



## SMO

SMO是用于快速求解SVM的
它选择凸二次规划的两个变量,其他的变量保持不变,然后根据这两个变量构建一个二次规划问题,这个二次规划关于这两个变量解会更加的接近原始二次规划的解,通过这样的子问题划分可以大大增加整个算法的计算速度,关于这两个变量:
1. 其中一个是严重违反KKT条件的一个变量
2. 另一个变量是根据自由约束确定,求剩余变量的最大化来确定的。


## 相关问题

> SVM如何解决多分类问题?

1. 直接法
直接在目标函数上进行修改,将多个分类面的参数求解合并到一个最优化问题中,通过求解该优化就可以实现多分类(计算复杂度很高,实现起来较为困难)
2. 间接法
1) 一对多
其中某个类为一类,其余n-1个类为另一个类,比如A,B,C,D四个类,第一次A为一个类,{B,C,D}为一个类训练一个分类器,第二次B为一个类,{A,C,D}为另一个类,按这方式共需要训练4个分类器,最后在测试的时候将测试样本经过这4个分类器$f1(x)$,$f2(x)$,$f3(x)$和$f4(x)$,取其最大值为分类器(这种方式由于是1对M分类,会存在偏置,很不实用)
2) 一对一(libsvm实现的方式)
任意两个类都训练一个分类器,那么n个类就需要n_(n-1)/2个svm分类器。
还是以A,B,C,D为例,那么需要{A,B},{A,C},{A,D},{B,C},{B,D},{C,D}为目标共6个分类器,然后在预测的将测试样本通过这6个分类器之后进行投票选择最终结果。(这种方法虽好,但是需要$n_(n-1)/2$个分类器代价太大,不过 可以使用循环图来进行改进)

> KKT条件及其物理意义

KKT条件可以总结成:约束条件(原始约束和引入拉格朗日乘子后的约束)、对x偏导为0、对偶互补条件
针对问题:
$$
\begin{aligned}
\min\ & {f(x)} \\
s.t.\ \ &h(x)=0 \\
&g(x)≤0
\end{aligned}
$$
对于这个问题先不看等式约束,画出不等式约束和目标函数关系图:

不等式约束

其中,阴影部分就是可行域,也就是说可行域从原来的一条线变成了一块区域。那么能取到极值点的地方可能有两种情况:
1、还是在 $h(x)$和等值线相切的地方
2、$f(x)$的极值点本身就在可行域里面。

两种情况

因为如果不是相切,那么,对任意一个在可行域中的点,如果在它附近往里走或者往外走,$f(x)$一般都会变大或者变小,所以绝大部分点都不会是极值点。除非这个点刚好在交界处,且和等值线相切;或者这个点在可行域内部,但是本身就是$f(x)$的极值点。
对于第一种情况,不等式约束就变成等式约束了,定义拉格朗日函数:
$$
L(x,λ,μ)= f(x)+λh(x)+μg(x)
$$
使用拉格朗日乘子法:
$$
∇_x L(x,λ,μ)=0 \\
h(x)=0 \\
g(x)=0 \\
μ≥0
$$
这里需要解释一下,为什么是$μ≥0$。在“不等式约束”图中,问题的可行域是在$ g(x)≤0$一侧,而$g(x)$ 的梯度是指向大于 0 的一侧,也就是不是可行域的一侧。而求的问题是极小值,所以 $f(x)$ 在交点处的梯度是指向可行域的一侧,也就是说两个梯度一定是相反的。所以也就可以确定这里的系数一定是大于等于0的。而等式约束由于不知道$h(x)$ 的梯度方向,所以对它没有约束。
对于第二种情况,不等式约束就相当于没有,定义拉格朗日函数
$$
L(x,λ)= f(x)+λh(x)
$$
使用拉格朗日乘子法:
$$
∇_x L(x,λ)=0 \\
h(x)=0 \\
g(x)≤0 \\
μ=0 \\
$$
不同的是第一种情况有$g(x)=0$且$μ≥0$,第二种情况$g(x)≤0$且$μ=0$,综合两个问题可得:
$$
∇_x L(x,λ,μ)=0 \\
μg(x)=0 \\
μ≥0 \\
h(x)=0 \\
g(x)≤0 \\
$$
这个就是 KKT 条件。它的含义是这个优化问题的极值点一定满足这组方程组。(不是极值点也可能会满足,但是不会存在某个极值点不满足的情况)它也是原来的优化问题取得极值的必要条件。

> LR与SVM的区别和联系

相同点:
1、都是有监督的分类算法;
2、如果不考虑核函数,LR和SVM都是线性分类算法。它们的分类决策面都是线性的。
3、LR和SVM都是判别式模型。
不同点:
1、本质上是loss函数不同,或者说分类的原理不同。LR模型找到的那个超平面,是尽量让所有点都远离他,而SVM寻找的那个超平面,是只让最靠近中间分割线的那些点尽量远离,即只用到那些支持向量的样本。SVM只考虑分界面附近的少数点,而LR则考虑所有点。
2、SVM是结构风险最小化,LR则是经验风险最小化。
结构风险最小化就是在训练误差和模型复杂度之间寻求平衡,防止过拟合,减小泛化误差。为了达到结构风险最小化的目的,最常用的方法就是添加正则项。SVM的loss函数具有L2正则项;LR需要加入正则化项。
3、SVM不能产生概率,LR可以产生概率。
4、在解决非线性问题时,SVM可采用核函数的机制,而LR通常不采用核函数的方法。
5、SVM计算复杂,但效果比LR好,适合小数据集;LR计算简单,适合大数据集,可以在线训练。