• 论文，介绍支持向量机用于曲线拟合，基于支持向量机的散乱数据拟合
• 支持向量机可以用来拟合线性回归。 相同的最大间隔（maximum margin）的概念应用到线性回归拟合。代替最大化分割两类目标是，最大化分割包含大部分的数据点（x，y）。我们将用相同的iris数据集，展示用刚才的概念来...
支持向量机可以用来拟合线性回归。  相同的最大间隔（maximum margin）的概念应用到线性回归拟合。代替最大化分割两类目标是，最大化分割包含大部分的数据点（x，y）。我们将用相同的iris数据集，展示用刚才的概念来进行花萼长度与花瓣宽度之间的线性拟合。
相关的损失函数类似于max（0，|yi-（Axi+b）|-ε）。ε这里，是间隔宽度的一半，这意味着如果一个数据点在该区域，则损失等于0。
# SVM Regression
#----------------------------------
#
# This function shows how to use TensorFlow to
# solve support vector regression. We are going
# to find the line that has the maximum margin
# which INCLUDES as many points as possible
#
# We will use the iris data, specifically:
#  y = Sepal Length
#  x = Pedal Width

import matplotlib.pyplot as plt
import numpy as np
import tensorflow as tf
from sklearn import datasets
from tensorflow.python.framework import ops
ops.reset_default_graph()

# Create graph
sess = tf.Session()

# iris.data = [(Sepal Length, Sepal Width, Petal Length, Petal Width)]
x_vals = np.array([x[3] for x in iris.data])
y_vals = np.array([y[0] for y in iris.data])

# Split data into train/test sets
train_indices = np.random.choice(len(x_vals), round(len(x_vals)*0.8), replace=False)
test_indices = np.array(list(set(range(len(x_vals))) - set(train_indices)))
x_vals_train = x_vals[train_indices]
x_vals_test = x_vals[test_indices]
y_vals_train = y_vals[train_indices]
y_vals_test = y_vals[test_indices]

# Declare batch size
batch_size = 50

# Initialize placeholders
x_data = tf.placeholder(shape=[None, 1], dtype=tf.float32)
y_target = tf.placeholder(shape=[None, 1], dtype=tf.float32)

# Create variables for linear regression
A = tf.Variable(tf.random_normal(shape=[1,1]))
b = tf.Variable(tf.random_normal(shape=[1,1]))

# Declare model operations

# Declare loss function
# = max(0, abs(target - predicted) + epsilon)
# 1/2 margin width parameter = epsilon
epsilon = tf.constant([0.5])
# Margin term in loss
loss = tf.reduce_mean(tf.maximum(0., tf.subtract(tf.abs(tf.subtract(model_output, y_target)), epsilon)))

# Declare optimizer
train_step = my_opt.minimize(loss)

# Initialize variables
init = tf.global_variables_initializer()
sess.run(init)

# Training loop
train_loss = []
test_loss = []
for i in range(200):
rand_index = np.random.choice(len(x_vals_train), size=batch_size)
rand_x = np.transpose([x_vals_train[rand_index]])
rand_y = np.transpose([y_vals_train[rand_index]])
sess.run(train_step, feed_dict={x_data: rand_x, y_target: rand_y})

temp_train_loss = sess.run(loss, feed_dict={x_data: np.transpose([x_vals_train]), y_target: np.transpose([y_vals_train])})
train_loss.append(temp_train_loss)

temp_test_loss = sess.run(loss, feed_dict={x_data: np.transpose([x_vals_test]), y_target: np.transpose([y_vals_test])})
test_loss.append(temp_test_loss)
if (i+1)%50==0:
print('-----------')
print('Generation: ' + str(i+1))
print('A = ' + str(sess.run(A)) + ' b = ' + str(sess.run(b)))
print('Train Loss = ' + str(temp_train_loss))
print('Test Loss = ' + str(temp_test_loss))

# Extract Coefficients
[[slope]] = sess.run(A)
[[y_intercept]] = sess.run(b)
[width] = sess.run(epsilon)

# Get best fit line
best_fit = []
best_fit_upper = []
best_fit_lower = []
for i in x_vals:
best_fit.append(slope*i+y_intercept)
best_fit_upper.append(slope*i+y_intercept+width)
best_fit_lower.append(slope*i+y_intercept-width)

# Plot fit with data
plt.plot(x_vals, y_vals, 'o', label='Data Points')
plt.plot(x_vals, best_fit, 'r-', label='SVM Regression Line', linewidth=3)
plt.plot(x_vals, best_fit_upper, 'r--', linewidth=2)
plt.plot(x_vals, best_fit_lower, 'r--', linewidth=2)
plt.ylim([0, 10])
plt.legend(loc='lower right')
plt.title('Sepal Length vs Pedal Width')
plt.xlabel('Pedal Width')
plt.ylabel('Sepal Length')
plt.show()

# Plot loss over time
plt.plot(train_loss, 'k-', label='Train Set Loss')
plt.plot(test_loss, 'r--', label='Test Set Loss')
plt.title('L2 Loss per Generation')
plt.xlabel('Generation')
plt.ylabel('L2 Loss')
plt.legend(loc='upper right')
plt.show()

输出结果：
-----------
Generation: 50
A = [[ 2.91328382]] b = [[ 1.18453276]]
Train Loss = 1.17104
Test Loss = 1.1143
-----------
Generation: 100
A = [[ 2.42788291]] b = [[ 2.3755331]]
Train Loss = 0.703519
Test Loss = 0.715295
-----------
Generation: 150
A = [[ 1.84078252]] b = [[ 3.40453291]]
Train Loss = 0.338596
Test Loss = 0.365562
-----------
Generation: 200
A = [[ 1.35343242]] b = [[ 4.14853334]]
Train Loss = 0.125198
Test Loss = 0.16121
基于iris数据集（花萼长度和花瓣宽度）的支持向量机回归，间隔宽度为0.5
每次迭代的支持向量机回归的损失值（训练集和测试集）
直观地讲，我们认为SVM回归算法试图把更多的数据点拟合到直线两边2ε宽度的间隔内。这时拟合的直线对于ε参数更有意义。如果选择太小的ε值，SVM回归算法在间隔宽度内不能拟合更多的数据点；如果选择太大的ε值，将有许多条直线能够在间隔宽度内拟合所有的数据点。作者更倾向于选取更小的ε值，因为在间隔宽度附近的数据点比远处的数据点贡献更少的损失。
展开全文
• 四种支持向量机用于函数拟合与模式识别的Matlab示例程序
• 基于最小二乘支持向量机的机组能耗曲线拟合
• 基于粒子群算法-最小二乘支持向量机算法的磁化曲线拟合.pdf
• 最小二乘支持向量机(Least Square Support Vector Machine,简称LSSVM)是对支持向量机(SVM)的一种改进,是继人工神经网络(ANN)之后又一新的机器学习方法。利用LSSVM拟合了利用Duncan - Chang本构模型的E- V模式数值...
• # 以下为之前的logistics模型 pre_1 (myfit,type='response') modelroc_1 (Affairs$ynaffair,pre_1) # 使用支持向量机算法对同样的数据进行预测 library(e1071) ###### 这个包里面有svm svm_model (ynaffair ~ ...  step1 线性回归ROC与AUC的实现 rm(list = ls()) # BiocManager::install('ROCR') library(ROCR) # 载入AER包,使用包中的Affairs数据集 # BiocManager::install('AER') library(AER) data(Affairs,package="AER") # 将'affaris'特征进行因子化处理,作为新增加的一列'ynaffairs' Affairs$ynaffair[Affairs$affairs > 0] Affairs$ynaffair[Affairs$affairs== 0] Affairs$ynaffair
# 构建Logistics模型
myfit
pre
pred
# 计算AUC值
performance(pred,'auc')@y.values
perf
plot(perf)
这是计算affair的一个数据集

结果
summary(myfit) ### 得到拟合公式

拟合公式
step2 绘图强大的一个包——pROC
虽然ROCR包可以满足我们的需要，但在功能上还是有些单一，绘制的图也比较粗糙。因此接下来我们学习R中更为强大的一个包——pROC，该包不仅作图美观，还可以在同一幅图上绘制多条ROC曲线，方便我们比较两个分类器的性能优劣。
# BiocManager::install('pROC')
library(pROC)
# 同样使用上一节中的myfit模型
pre
modelroc
modelroc
# 可视化展示,同时给出AUC的面积与最优的临界点
plot(modelroc, print.auc=TRUE, auc.polygon=TRUE, grid=c(0.1, 0.2), grid.col=c("green", "red"), max.auc.polygon=TRUE, auc.polygon.col="skyblue", print.thres=TRUE)

结果2
step3 支持向量机法SVM
svm命令的R包 下载

svm命令的R包
# 以下为之前的logistics模型
pre_1
modelroc_1
# 使用支持向量机算法对同样的数据进行预测
library(e1071) ###### 这个包里面有svm
svm_model
# 提取模型预测值并进行格式处理
pred_2
pred_2
modelroc_2
modelroc_2
plot(modelroc_1, print.auc=TRUE, auc.polygon=TRUE, grid=c(0.1, 0.2), grid.col=c("green", "red"), max.auc.polygon=TRUE, auc.polygon.col="skyblue", print.thres=TRUE,col='blue')

最终的结果
SVM深度分析：区分training group和test group请参考文章

展开全文
• 支持向量回归于支持向量机的不同之处3. SVM 算法小结 1.SVM分类器 SVM 擅长解决复杂的中小规模的非线性问题，甚至在特征多余训练样本时也能有非常好的表现。 但是随着样本量的增加，SVM模型的计算复杂度会呈m^2 或m^...


线性支持向量回归
1.SVM分类器2.支持向量回归于支持向量机的不同之处3. SVM 算法小结

1.SVM分类器
SVM 擅长解决复杂的中小规模的非线性问题，甚至在特征多余训练样本时也能有非常好的表现。 但是随着样本量的增加，SVM模型的计算复杂度会呈m^2 或m^3增加。 SVM 算法涉及到非常多的概念：间隔、支持向量、核函数、对偶、凸优化等。
在两类样本线性可分的情况下，感知机可以保证找到一个解，完全正确的区分这两类样本。但是解不唯一，（如图2）而且这些决策边界的质量也不相同，直观上来看这条线两边的间隔越大越好。那么有没有一种方法可以直接找到这个最优解呢？ 这个就要找支持向量机了。从直观上来看，约束条件越多对模型的限制也就越大，因此解的个数也就越少。感知机的解不唯一，那么给感知机的代价函数加上更强的约束条件好像就可以减少解的个数。事实上也是这样的。
支持向量机的代价函数：
在分类正确时，即y(w⋅x+b)>1，loss=0;
在分类错误时，即y(w⋅x+b)≤1，loss=−y(w⋅x+b).
比较一下可以发现，原来w⋅x+b只需要大于0或小于0就可以了，但是现在需要大于1或小于1. 在这里为什么选择1我还没有很直观的解释，但是有一点非常重要：原来的决策边界只是一条直线，现在则变成了一条有宽度的条带。原来差异非常小的两个点（例如w⋅x+b=0附近的两个点）就可以被分成不同的两类，但是现在至少要相差 2/||w|| 才可以，如下图所示。  图3：设样本属于两个类，用该样本训练SVM得到的最大间隔超平面。在超平面上的样本点也称为支持向量。
为了统一起见，下面还是将决策边界定义为w⋅x+b=0，两边的边界（两条虚线）分别为w⋅x+b=1和w⋅x+b=−1，此时只是b的符号不同其他性质都相同. 其中w,b就是模型训练时需要优化的参数。由上面的示意图可以得到以下信息：
1)两条虚线之间的距离为2||w||； 2)待优化参数w的方向就是决策边界的法向量方向（w与决策边界垂直）； 3)此时边界上一共有3个点，这三个点也就是此时的支持向量。 计算两条虚线之间的距离可得： 对于直线w⋅x+b=1来说，截距式为x2=−w1/w2∗x1+(1−b)/w2，相当于沿着x2轴向上平移了1w2，计算可得该直线与w⋅x+b=0沿法向量方向的距离为 Γ=（1/(w12+w22）)1/2=1/||w||,，参考图4.
图4 margin的宽度γ 优化目标： SVM的优化目标就是最大化margin的宽度为γ，因为γ=1/||w||, 其中||w||是待优化参数w的模长。因此优化目标等价于最小化||w||，可以表示为为： 对于(x(1),y(1)), …, (x(m),y(m))∈Rd×{−1,1}，minw∈Rd,b∈R||w||2
s.t. y(i)(w⋅x(i)+b)≥1对于所有的i=1,2,…,m成立。 下面是分别使用感知机和SVM对鸢尾属数据集中setosa这一类和非setosa进行分类的效果比较：  图5：感知线性分类器  图6 线性SVM分类结果 比较图5和图6可以看到，SVM确定的决策边界周围的margin更大一些，因此对更多未知的样本进行分类时，在边界上的一些点可以得到更准确的分类结果。 线性不可分：  在上图中，setosa这一类与其他两类是线性可分的，但是virginica这一类与与之相邻的versicolor有一些点是重合的，也就是说是线性不可分的。此时仍然可以使用SVM来进行分类，原理是在代价函数中加入了一个松弛变量(slack) ξ，
对于(x(1),y(1)), …, (x(m),y(m))∈Rd×{−1,1}，minw∈Rd,b∈R||w||2+C∑mi=1ξi s.t. y(i)(w⋅x(i)+b)≥1−ξi对于所有的i=1,2,…,m成立
上面的优化目标加入松弛变量后，就可以允许一定程度的违反两边的边界（由上式中的C来控制），允许一定的错误分类，从而将两类原来线性不可分的两类数据分开。 下面是C=1000时，对virginica和非virginica的分类效果：  图8 加入松弛变量后的SVM分类效果
2.支持向量回归于支持向量机的不同之处
支持向量回归模型（Support Vector Regression， SVR）是使用SVM来拟合曲线，做回归分析。分类和回归问题是有监督机器学习中最重要的两类任务。与分类的输出是有限个离散的值不同的是，回归模型的输出在一定范围内是连续的。
在SVM分类模型中，我们的目标函数是让权值的二范数最小，同时让各个训练集中的点尽量远离自己类别一边的支持向量。
回归模型中，目标是让训练集中的每个点（xi,yi）尽量拟合到一个线性模型yi=wφ（xi）+ b。 对于一般的回归模型，我们是用均方差作为损失函数,但是SVR不是这样定义损失函数的。 SVR需要我们顶一个常量 ε>0，对于每一个点（xi,yi）,如果 |yi-wφ（xi）- b| ≤ ε ，则对应的损失为 yi-wφ（xi）- b - ε，这个均方差损失函数不同，如果是均方差，那么只要 yi-wφ（xi）- b≠0 ,就会有损失。 如下图所示，在蓝色条带里面的点都是没有损失的，但是外面的点是有损失的，损失大小为红色线的长度。  因此，SVR的损失函数度量为：  SVR目标函数的原始形式  我们可以先求优化函数对于w,b,ξi∨,ξi∧的极小值, 接着再求拉格朗日乘子α∨,α∧,μ∨,μ∧的极大值。 求解后得到对应目标函数如下：
3. SVM 算法小结
SVM算法是一个很优秀的算法，在集成学习和神经网络之类的算法没有表现出优越性能前，SVM基本占据了分类模型的统治地位。目前则是在大数据时代的大样本背景下,SVM由于其在大样本时超级大的计算量，热度有所下降，但是仍然是一个常用的机器学习算法。
优点
解决高维特征的分类问题和回归问题很有效,在特征维度大于样本数时依然有很好的效果。
2) 仅仅使用一部分支持向量来做超平面的决策，无需依赖全部数据。
3) 有大量的核函数可以使用，从而可以很灵活的来解决各种非线性的分类回归问题。
样本量不是海量数据的时候，分类准确率高，泛化能力强。
不足
如果特征维度远远大于样本数，则SVM表现一般。  SVM在样本量非常大，核函数映射维度非常高时，计算量过大，不太适合使用。
3）非线性问题的核函数的选择没有通用标准，难以选择一个合适的核函数。
4）SVM对缺失数据敏感。
参考： 链接1：https://www.cnblogs.com/Belter/p/8975606.html 链接2：https://www.cnblogs.com/pinard/p/6113120.html 链接3：https://cloud.tencent.com/developer/article/1085058?from=article.detail.1084628
展开全文
• ... 关于SVM网上已经有很多很多的前辈有过讲解，这两天自己在网上看了看资料，结合前辈们的文章对SVM进行了一个整理，把看的过程中产生的一些问题也进行了解答。本来想着总结得简洁明了...支持向量机(Support Vector Ma
由于格式问题，为方便阅读，请点击链接访问原文
点击此处访问原文
关于SVM网上已经有很多很多的前辈有过讲解，这两天自己在网上看了看资料，结合前辈们的文章对SVM进行了一个整理，把看的过程中产生的一些问题也进行了解答。本来想着总结得简洁明了又易懂，但SVM本就有严格的数学理论支撑，不像其他机器学习算法是一个黑箱，写完发现要尽量让小白也懂少不了具体的论述，再加上前辈们也整理的很好，所以啰嗦了很长很长。但也算是很详细了。 一、SVM简介 1. 1 SVM的引入 支持向量机(Support Vector Machine)是Cortes和Vapnik于1995年首先提出的，它在解决小样本、非线性及高维模式识别中表现出许多特有的优势，并能够推广应用到函数拟合等其他机器学习问题中。  小样本，并不是说样本的绝对数量少（实际上，对任何算法来说，更多的样本几乎总是能带来更好的效果），而是说与问题的复杂度比起来，SVM算法要求的样本数是相对比较少的。 非线性，是指SVM擅长应付样本数据线性不可分的情况，主要通过松弛变量（也有人叫惩罚变量）和核函数技术来实现，这一部分是SVM的精髓，以后会详细讨论。多说一句，关于文本分类这个问题究竟是不是线性可分的，尚没有定论，因此不能简单的认为它是线性可分的而作简化处理，在水落石出之前，只好先当它是线性不可分的（反正线性可分也不过是线性不可分的一种特例而已，我们向来不怕方法过于通用）。 高维模式识别是指样本维数很高，例如文本的向量表示，如果没有经过另一系列文章（《文本分类入门》）中提到过的降维处理，出现几万维的情况很正常，其他算法基本就没有能力应付了，SVM却可以，主要是因为SVM 产生的分类器很简洁，用到的样本信息很少（仅仅用到那些称之为“支持向量”的样本），使得即使样本维数很高，也不会给存储和计算带来大麻烦（相对照而言，kNN算法在分类时就要用到所有样本，样本数巨大，每个样本维数再一高，这日子就没法过了……）。 目前在引入SVM概述时主要有两个方式： 一是： 支持向量机方法是建立在统计学习理论的VC 维理论和结构风险最小原理基础上的，根据有限的样本信息在模型的复杂性（即对特定训练样本的学习精度，Accuracy）和学习能力（即无错误地识别任意样本的能力）之间寻求最佳折衷，以期获得最好的推广能力（或称泛化能力）。解释一下就是，与统计机器学习的精密思维相比，传统机器学习基本上属于摸着石头过河，用传统的机器学习方法构造分类系统完全成了一种技巧，一个人做的结果可能很好，另一个人差不多的方法做出来却很差，缺乏指导和原则。 所谓VC维是对函数类的一种度量，可以简单的理解为问题的复杂程度，VC维越高，一个问题就越复杂。正是因为SVM关注的是VC维，后面我们可以看到，SVM解决问题的时候，和样本的维数是无关的（甚至样本是上万维的都可以，这使得SVM很适合用来解决文本分类的问题，当然，有这样的能力也因为引入了核函数）。 结构风险是什么呢？机器学习本质上就是一种对问题真实模型的逼近（我们选择一个我们认为比较好的近似模型，这个近似模型就叫做一个假设），但毫无疑问，真实模型一定是不知道的（如果知道了，我们干吗还要机器学习？直接用真实模型解决问题不就可以了？对吧，哈哈）既然真实模型不知道，那么我们选择的假设与问题真实解之间究竟有多大差距，我们就没法得知。这个与问题真实解之间的误差，就叫做风险（更严格的说，误差的累积叫做风险）。我们选择了一个假设之后（更直观点说，我们得到了一个分类器以后），真实误差无从得知，但我们可以用某些可以掌握的量来逼近它。最直观的想法就是使用分类器在样本数据上的分类的结果与真实结果（因为样本是已经标注过的数据，是准确的数据）之间的差值来表示。这个差值叫做经验风险Remp(w)(也就是模型在样本数据上的误差)。以前的机器学习方法都把经验风险最小化作为努力的目标，但后来发现很多分类函数能够在样本集上轻易达到100%的正确率，在真实分类时却一塌糊涂（即所谓的推广能力差，或泛化能力差）。此时的情况便是选择了一个足够复杂的分类函数（它的VC维很高），能够精确的记住每一个样本，但对样本之外的数据一律分类错误。回头看看经验风险最小化原则我们就会发现，此原则适用的大前提是经验风险要确实能够逼近真实风险才行（行话叫一致），但实际上能逼近么？答案是不能，因为样本数相对于现实世界要处理的数据来说简直九牛一毛，经验风险最小化原则只在这占很小比例的样本上做到没有误差，当然不能保证在更大比例的真实数据上也没有误差。 统计学习因此而引入了泛化误差界的概念，就是指真实风险应该由两部分内容刻画，一是经验风险，代表了分类器在给定样本上的误差；二是置信风险，代表了我们在多大程度上可以信任分类器在未知数据分类的结果。很显然，第二部分是没有办法精确计算的，因此只能给出一个估计的区间，也使得整个误差只能计算上界，而无法计算准确的值（所以叫做泛化误差界，而不叫泛化误差）。 置信风险与两个量有关，一是样本数量，显然给定的样本数量越大，我们的学习结果越有可能正确，此时置信风险越小；二是分类函数的VC维，显然VC维越大，推广能力越差，置信风险会变大。 泛化误差界的公式为：R(w)≤Remp(w)+Ф(n/h)。公式中R(w)就是真实风险，Remp(w)就是经验风险，Ф(n/h)就是置信风险。统计学习的目标从经验风险最小化变为了寻求经验风险与置信风险的和最小，即结构风险最小。SVM正是这样一种努力最小化结构风险的算法。 二是： 另一种引入方式是从logistic回归出发，引出了SVM，既揭示了模型间的联系，也让人觉得过渡更自然。 Logistic回归目的是从特征学习出一个0/1分类模型，而这个模型是将特性的线性组合作为自变量，由于自变量的取值范围是负无穷到正无穷。因此，使用logistic函数（或称作sigmoid函数）将自变量映射到(0,1)上，映射后的值被认为是属于y=1的概率。 形式化表示就是假设函数：   其中x是n维特征向量，函数g就是logistic函数。   的图像是   这里就不详细论述逻辑回归了。总结来说就是Logistic回归就是要学习得到theta，使得正例的特征远大于0，负例的特征远小于0，强调在全部训练实例上达到这个目标。   logistic回归强调所有点尽可能地远离中间那条线。学习出的结果也就中间那条线。考虑上面3个点A、B和C。从图中我们可以确定A是×类别的，然而C我们是不太确定的，B还算能够确定。这样我们可以得出结论，我们更应该关心靠近中间分割线的点，让他们尽可能地远离中间线，而不是在所有点上达到最优。因为那样的话，要使得一部分点靠近中间线来换取另外一部分点更加远离中间线。我想这就是支持向量机的思路和logistic回归的不同点，一个考虑局部（不关心已经确定远离的点），一个考虑全局（已经远离的点可能通过调整中间线使其能够更加远离）。这是我的个人直观理解。 1.2 SVM入门 线性分类器(一定意义上,也可以叫做感知机) 是最简单也很有效的分类器形式.在一个线性分类器中,可以看到SVM形成的思路,并接触很多SVM的核心概念. 用一个二维空间里仅有两类样本的分类问题来举个小例子。如图所示   C1和C2是要区分的两个类别，在二维平面中它们的样本如上图所示。中间的直线就是一个分类函数，它可以将两类样本完全分开。一般的，如果一个线性函数能够将样本完全正确的分开，就称这些数据是线性可分的，否则称为非线性可分的。 什么叫线性函数呢？在一维空间里就是一个点，在二维空间里就是一条直线，三维空间里就是一个平面，可以如此想象下去，如果不关注空间的维数，这种线性函数还有一个统一的名称——超平面（Hyper Plane）！ 实际上，一个线性函数是一个实值函数（即函数的值是连续的实数），而我们的分类问题（例如这里的二元分类问题——回答一个样本属于还是不属于一个类别的问题）需要离散的输出值，例如用1表示某个样本属于类别C1，而用0表示不属于（不属于C1也就意味着属于C2），这时候只需要简单的在实值函数的基础上附加一个阈值即可，通过分类函数执行时得到的值大于还是小于这个阈值来确定类别归属。 例如我们有一个线性函数     g(x)=wx+b 我们可以取阈值为0，这样当有一个样本xi需要判别的时候，我们就看g(xi)的值。若g(xi)>0，就判别为类别C1，若g(xi)<0，则判别为类别C2（等于的时候我们就拒绝判断，呵呵）。此时也等价于给函数g(x)附加一个符号函数sgn()，即f(x)=sgn [g(x)]是我们真正的判别函数。 关于g(x)=wx+b这个表达式要注意三点：一，式中的x不是二维坐标系中的横轴，而是样本的向量表示，例如一个样本点的坐标是(3,8)，则xT=(3,8) ，而不是x=3（一般说向量都是说列向量，因此以行向量形式来表示时，就加上转置）。二，这个形式并不局限于二维的情况，在n维空间中仍然可以使用这个表达式，只是式中的w成为了n维向量；三，g(x)不是中间那条直线的表达式，中间那条直线的表达式是g(x)=0，即wTx+b=0，我们也把这个函数叫做分类面。 实际上很容易看出来，中间那条分界线并不是唯一的，我们把它稍微旋转一下，只要不把两类数据分错，仍然可以达到上面说的效果，稍微平移一下，也可以。此时就牵涉到一个问题，对同一个问题存在多个分类函数的时候，哪一个函数更好呢？显然必须要先找一个指标来量化“好”的程度，通常使用的都是叫做“分类间隔”的指标。下一节我们就仔细说说分类间隔，也补一补相关的数学知识。 1.3 分类间隔 需要有一个指标来衡量解决方案（即我们通过训练建立的分类模型）的好坏，而分类间隔是一个比较好的指标。 1.3.1 函数间隔 在进行分类的时候，我们可以让计算机这样来看待我们提供给它的训练样本，每一个样本由一个向量（就是那些数据特征所组成的向量）和一个标记（标示出这个样本属于哪个类别）组成。如下： Di=(xi,yi) xi就是数据向量（维数很高），yi就是分类标记，在二元的线性分类中，这个表示分类的标记只有两个值，1和-1（用来表示属于还是不属于这个类）。有了这种表示法，我们就可以定义一个样本点到某个超平面的间隔： δi=yi(wTxi+b) 这个公式乍一看没什么神秘的，也说不出什么道理，只是个定义而已，但我们做做变换，就能看出一些有意思的东西。 首先注意到如果某个样本属于该类别的话，那么wTxi+b>0（记得么？这是因为我们所选的g(x)= wTx+b就通过大于0还是小于0来判断分类），而yi也大于0；若不属于该类别的话，那么wTxi+b<0，而yi也小于0，这意味着yi(wTxi+b)总是大于0的，而且它的值就等于|wTxi+b|！（也就是|g(xi)|） 当yi=1时，wTxi+b应该是个大正数，反之是个大负数。因此函数间隔代表了我们认为特征是正例还是反例的确信度。 也就是说，针对某一个样本的函数间隔就是|wTxi+b|，定义全局样本上的函数间隔 min{|wTxi+b|}   i=1,2,…,m. 说白了就是在训练样本上分类正例和负例确信度最小那个函数间隔。 1.3.2 几何间隔 继续考虑w和b，如果同时加大w和b，比如在wTxi+b前面乘个系数比如2，那么所有点的函数间隔都会增大二倍，这个对求解问题来说不应该有影响，因为我们要求解的是wTxi+b=0，同时扩大w和b对结果是无影响的。这样，我们为了限制w和b，可能需要加入归一化条件，毕竟求解的目标是确定唯一一个w和b，而不是多组线性相关的向量。现在把w和b进行一下归一化，即用w/||w||和b/||w||分别代替原来的w和b，那么间隔就可以写成       这个公式是不是看上去有点眼熟？没错，这不就是解析几何中点xi到直线g(x)=0的距离公式嘛！ 再换种写法   当||w||=1时，不就是函数间隔吗？前面提到的函数间隔归一化结果就是几何间隔。他们为什么会一样呢？因为函数间隔是我们定义的，在定义的时候就有几何间隔的色彩。同样，同时扩大w和b，w扩大几倍，||w||就扩大几倍，结果无影响。同样定义全局的几何间隔       当用归一化的w和b代替原值之后的间隔有一个专门的名称，叫做几何间隔，几何间隔所表示的正是点到超平面的欧氏距离，我们下面就简称几何间隔为“距离”。以上是单个点到某个超平面的距离（就是间隔，后面不再区别这两个词）定义，同样可以定义一个点的集合（就是一组样本）到某个超平面的距离为此集合中离超平面最近的点的距离。下面这张图更加直观的展示出了几何间隔的现实含义：   这个距离怎么算出来的呢？其实就是点到直线的距离。 H是分类面，而H1和H2是平行于H，且过离H最近的两类样本的直线，H1与H，H2与H之间的距离就是几何间隔。 1.3.3 点到直线的距离计算 可能这个地方会有读者觉得这怎么跟点到直线的距离扯上关系呢(因为这里是举例二维，所以是点到直线，更高维类比)。下面用两个方式来说吧。 (1)首先从初中数学来说，||w||是什么符号？||w||叫做向量w的范数，范数是对向量长度的一种度量。我们常说的向量长度其实指的是它的2-范数，范数最一般的表示形式为p-范数，可以写成如下表达式 向量w=(w1, w2, w3,…… wn) 它的p-范数为       看看把p换成2的时候，不就是传统的向量长度么？当我们不指明p的时候，就像||w||这样使用时，就意味着我们不关心p的值，用几范数都可以。 正如点(x0,y0)到直线Ax+By+C=0的距离：       (2)还是画图更直观点吧   二、最优间隔分类器求解（optimal margin classifier） 2.1 最小间隔定义 上节说到我们有了一个分类函数，也有了判断解优劣的标准，即有了优化的目标，这个目标就是最大化几何间隔，但是看过一些关于SVM的论文的人一定记得什么优化的目标是要最小化||w||这样的说法，这是怎么回事呢？回头再看看我们对间隔和几何间隔的定义：     间隔：r=y(wTx+b)=|g(x)|     几何间隔：  可以看出δ=||w||*r。注意到几何间隔与||w||是成反比的，因此最大化几何间隔与最小化||w||完全是一回事。而我们常用的方法并不是固定||w||的大小而寻求最大几何间隔，而是固定间隔（例如固定为1，为什么是1而不是其他数呢？后面会说），寻找最小的||w||。 我们确定一个分类器，对任意的实数，当       有了分类器，那么我们的目标就是找到离超平面最近的数据点，然后让其距离超平面最远，并求出参数w,b。这就可以写作：        显然       即其最小值为1，为了最大化间隔只需要最大化       而凡是求一个函数的最小值（或最大值）的问题都可以称为寻优问题（也叫作一个规划问题），又由于找最大值的问题总可以通过加一个负号变为找最小值的问题，因此我们下面讨论的时候都针对找最小值的过程来进行。一个寻优问题最重要的部分是目标函数，顾名思义，就是指寻优的目标。例如我们想寻找最小的||w||这件事，就可以用下面的式子表示：               (约束条件) 不难看出当||w||2达到最小时，||w||也达到最小，反之亦然（前提当然是||w||描述的是向量的长度，因而是非负的）。之所以采用这种形式，是因为后面的求解过程会对目标函数作一系列变换，（正如聪明的读者所料，添加的系数二分之一和平方，皆是为求导数所需）。 为什么要将最小距离固定为1呢？ 如果直接来解这个求最小值问题，很容易看出当||w||=0的时候就得到了目标函数的最小值。但是你也会发现，无论你给什么样的数据，都是这个解！   反映在图中，就是H1与H2两条直线间的距离无限大，这个时候，所有的样本点（无论正样本还是负样本）都跑到了H1和H2中间，而我们原本的意图是，H1右侧的被分为正类，H2 左侧的被分为负类，位于两类中间的样本则拒绝分类（拒绝分类的另一种理解是分给哪一类都有道理，因而分给哪一类也都没有道理）。这下可好，所有样本点都进入了无法分类的灰色地带。 造成这种结果的原因是在描述问题的时候只考虑了目标，而没有加入约束条件，约束条件就是在求解过程中必须满足的条件，体现在我们的问题中就是样本点必须在H1或H2的某一侧（或者至少在H1和H2上），而不能跑到两者中间。我们前文提到过把间隔固定为1，这是指把所有样本点中间隔最小的那一点的间隔定为1（这也是集合的间隔的定义，有点绕嘴），也就意味着集合中的其他点间隔都不会小于1，按照间隔的定义，满足这些条件就相当于让下面的式子总是成立：         yi[(wT·xi)+b]≥1 (i=1,2,…,l) （l是总的样本数） 但我们常常习惯让式子的值和0比较，因而经常用变换过的形式：         yi[(wT·xi)+b]-1≥0 (i=1,2,…,l) （l是总的样本数） 因此我们的两类分类问题也被我们转化成了它的数学形式，一个带约束的最小值的问题：            (约束条件) 之所以最小间隔选1是因为归一化后对w和b的影响是一样的，不是0是因为上面提到的那会造成H1与H2两条直线间的距离无限大。 2.2 凸优化分析 在动手求一个问题的解之前我们必须先考虑：这个问题是不是有解？如果有解，是否能找到？ 对于一般意义上的规划问题，两个问题的答案都是不一定，但凸二次规划让人喜欢的地方就在于，它有解（教科书里面为了严谨，常常加限定成分，说它有全局最优解，由于我们想找的本来就是全局最优的解，所以不加也罢），而且可以找到！（当然，依据你使用的算法不同，找到这个解的速度，行话叫收敛速度，会有所不同） 从最一般的定义上说，一个求最小值的问题就是一个优化问题（也叫寻优问题，更文绉绉的叫法是规划——Programming），它同样由两部分组成，目标函数和约束条件，可以用下面的式子表示：       约束条件用函数c来表示，就是constrain的意思啦。你可以看出一共有p+q个约束条件，其中p个是不等式约束，q个等式约束。 关于这个式子可以这样来理解：式中的x是自变量，但不限定它的维数必须为1（视乎你解决的问题空间维数）。要求f(x)在哪一点上取得最小值（反倒不太关心这个最小值到底是多少，关键是哪一点），但不是在整个空间里找，而是在约束条件所划定的一个有限的空间里找，这个有限的空间就是优化理论里所说的可行域。注意可行域中的每一个点都要求满足所有p+q个条件，而不是满足其中一条或几条就可以（切记，要满足每个约束），同时可行域边界上的点有一个额外好的特性，它们可以使不等式约束取得等号！而边界内的点不行。 关于可行域还有个概念不得不提，那就是凸集，凸集是指有这么一个点的集合，其中任取两个点连一条直线，这条线上的点仍然在这个集合内部，因此说“凸”是很形象的（一个反例是，二维平面上，一个月牙形的区域就不是凸集，你随便就可以找到两个点违反了刚才的规定） 回头再来看我们线性分类器问题的描述：       在这个问题中，自变量就是w，而目标函数是w的二次函数，所有的约束条件都是w的线性函数（哎，千万不要把xi当成变量，它代表样本，是已知的），这种规划问题有个很有名气的称呼——二次规划（Quadratic Programming，QP），而且可以更进一步的说，由于它的可行域是一个凸集，因此它是一个凸二次规划。 我们知道上式本身是个凸二次规划的问题，能够使用现成的优化计算包求解，但我们可以有更高效的办法。 2.3 拉格朗日对偶（Lagrange duality） 先抛开上面的二次规划问题，先来看看存在等式约束的极值问题求法，比如下面的最优化问题：         目标函数是f(w)，下面是等式约束。通常解法是引入拉格朗日算子，这里使用β来表示算子，得到拉格朗日公式为       L是等式约束的个数。 然后分别对w和β求偏导，使得偏导数等于0，然后解出w和βi。至于为什么引入拉格朗日算子可以求出极值，原因是f(w)的dw变化方向受其他不等式的约束，dw的变化方向与f(w)的梯度垂直时才能获得极值，而且在极值处，f(w)的梯度与其他等式梯度的线性组合平行，因此他们之间存在线性关系。（参考《最优化与KKT条件》） 然后我们探讨有不等式约束的极值问题求法，问题如下：       我们定义一般化的拉格朗日公式         这里的αi和βi都是拉格朗日算子。如果按这个公式求解，会出现问题，因为我们求解的是最小值，而这里的gi(w)已经不是0了，我们可以将αi调整成很大的正值，来使最后的函数结果是负无穷。     这部分在这不做过多赘述，我们只要知道，让上式满足KKT条件就能帮助到我们。KKT的总体思想是将极值会在可行域边界上取得，也就是不等式为0或等式约束里取得，而最优下降方向一般是这些等式的线性组合，其中每个元素要么是不等式为0的约束，要么是等式约束。对于在可行域边界内的点，对最优解不起作用，因此前面的系数为0。 2.4 对偶问题     三、SVM数学推导 3.1 SVM求解与拉格朗日化

3.2 SVM原始优化目标求解 重新回到SVM的优化问题：       我们将约束条件改写为：       从KKT条件得知只有函数间隔是1（离超平面最近的点）的线性约束式前面的系数αi>0，也就是说这些约束式(gi(w)=0)，对于其他的不在线上的点(gi(w)<0)，极值不会在他们所在的范围内取得，因此前面的系数αi=0。注意每一个约束式实际就是一个训练样本。     实线是最大间隔超平面，假设×号的是正例，圆圈的是负例。在虚线上的点就是函数间隔是1的点，那么他们前面的系数αi>0，其他点都是αi=0。这三个点称作支持向量。构造拉格朗日函数如下：           注意到这里只有αi没有βi是因为原问题中没有等式约束，只有不等式约束。     下面我们按照前面分析的对偶问题的求解步骤来一步步进行         首先求解 的最小值，对于固定αi， 的最小值只与w和b有关，对w和b分别求偏导数。             并得到       将上式带回到拉格朗日函数中得到，此时得到的是该函数的最小值（目标函数是凸函数）代入后，化简过程如下：       最后得到       由于最后一项是0，因此简化为           这里我们将向量内积 表示为  。此时的拉格朗日函数只包含了变量αi。然而我们求出了αi才能得到w和b。 接着是极大化的过程        前面提到过对偶问题和原问题满足的几个条件，首先由于目标函数和线性约束都是凸函数，而且这里不存在等式约束h。存在w使得对于所有的i，gi(w)<0。因此，一定存在w*,α*使得w*是原问题的解，α*是对偶问题的解。在这里，求αi就是求α*了。 如果求出了αi，根据       就可求出w(也的w*,原问题的解) ，然后       即可求出b。即离超平面最近的正的函数间隔要等于离超平面最近的负的函数间隔。 由于前面求解中得到       我们通篇考虑问题的出发点是 ，根据求解得到的αi，代入前式得到       也就是说，以前新来的要分类的样本首先根据w和b做一次线性运算，然后看求的结果是大于0还是小于0,来判断正例还是负例。现在有了αi，我们不需要求出w，只需将新来的样本和训练数据中的所有样本做内积和即可。那有人会说，与前面所有的样本都做运算是不是太耗时了？其实不然，我们从KKT条件中得到，只有支持向量的αi>0，其他情况αi=0。因此，我们只需求新来的样本和支持向量的内积，然后运算即可。这种写法为下面要提到的核函数（kernel）做了很好的铺垫。   关于上面的对偶问题如何求解，这就需要靠SMO算法了。 四、核函数的使用 4.1 为什么要用核函数 生存？还是毁灭？——哈姆雷特 可分？还是不可分？——支持向量机 之前一直在讨论的线性分类器,器如其名（汗，这是什么说法啊），只能对线性可分的样本做处理。如果提供的样本线性不可分，结果很简单，线性分类器的求解程序会无限循环，永远也解不出来。这必然使得它的适用范围大大缩小，而它的很多优点我们实在不原意放弃，怎么办呢？是否有某种方法，让线性不可分的数据变得线性可分呢？ 有！其思想说来也简单，来用一个二维平面中的分类问题作例子，你一看就会明白。事先声明，下面这个例子是网络早就有的，我一时找不到原作者的正确信息，在此借用，并加进了我自己的解说而已。 例子是下面这张图：   我们把横轴上端点a和b之间红色部分里的所有点定为正类，两边的黑色部分里的点定为负类。试问能找到一个线性函数把两类正确分开么？不能，因为二维空间里的线性函数就是指直线，显然找不到符合条件的直线。 但我们可以找到一条曲线，例如下面这一条：   显然通过点在这条曲线的上方还是下方就可以判断点所属的类别（你在横轴上随便找一点，算算这一点的函数值，会发现负类的点函数值一定比0大，而正类的一定比0小）。这条曲线就是我们熟知的二次曲线，它的函数表达式可以写为：       问题只是它不是一个线性函数，但是，下面要注意看了，新建一个向量y和a：       这样g(x)就可以转化为f(y)=<a,y>，你可以把y和a分别回带一下，看看等不等于原来的g(x)。用内积的形式写你可能看不太清楚，实际上f(y)的形式就是：     g(x)=f(y)=ay 在任意维度的空间中，这种形式的函数都是一个线性函数（只不过其中的a和y都是多维向量罢了），因为自变量y的次数不大于1。 看出妙在哪了么？原来在二维空间中一个线性不可分的问题，映射到四维空间后，变成了线性可分的！因此这也形成了我们最初想解决线性不可分问题的基本思路——向高维空间转化，使其变得线性可分。 而转化最关键的部分就在于找到x到y的映射方法。遗憾的是，如何找到这个映射，没有系统性的方法（也就是说，纯靠猜和凑）。具体到我们的文本分类问题，文本被表示为上千维的向量，即使维数已经如此之高，也常常是线性不可分的，还要向更高的空间转化。其中的难度可想而知。 小Tips:为什么说f(y)=ay是四维空间里的函数? 大家可能一时没看明白。回想一下我们二维空间里的函数定义   g(x)=ax+b 变量x是一维的，为什么说它是二维空间里的函数呢？因为还有一个变量我们没写出来，它的完整形式其实是   y=g(x)=ax+b 即   y=ax+b 看看，有几个变量？两个。那是几维空间的函数？ 再看看 f(y)=ay 里面的y是三维的变量，那f(y)是几维空间里的函数？ 用一个具体文本分类的例子来看看这种向高维空间映射从而分类的方法如何运作，想象一下，我们文本分类问题的原始空间是1000维的（即每个要被分类的文档被表示为一个1000维的向量），在这个维度上问题是线性不可分的。现在我们有一个2000维空间里的线性函数     f(x’)=<w’,x’>+b 注意向量的右上角有个 ’哦。它能够将原问题变得可分。式中的 w’和x’都是2000维的向量，只不过w’是定值，而x’是变量（好吧,严格说来这个函数是2001维的,哈哈），现在我们的输入呢，是一个1000维的向量x，分类的过程是先把x变换为2000维的向量x’，然后求这个变换后的向量x’与向量w’的内积，再把这个内积的值和b相加，就得到了结果，看结果大于阈值还是小于阈值就得到了分类结果。 你发现了什么？我们其实只关心那个高维空间里内积的值，那个值算出来了，分类结果就算出来了。而从理论上说， x’是经由x变换来的，因此广义上可以把它叫做x的函数（有一个x，就确定了一个x’，对吧，确定不出第二个），而w’是常量，它是一个低维空间里的常量w经过变换得到的，所以给了一个w 和x的值，就有一个确定的f(x’)值与其对应。这让我们幻想，是否能有这样一种函数K(w,x),他接受低维空间的输入值，却能算出高维空间的内积值<w’,x’>？ 如果有这样的函数，那么当给了一个低维空间的输入x以后，     g(x)=K(w,x)+b     f(x’)=<w’,x’>+b 这两个函数的计算结果就完全一样，我们也就用不着费力找那个映射关系，直接拿低维的输入往g(x)里面代就可以了（再次提醒，这回的g(x)就不是线性函数啦，因为你不能保证K(w,x)这个表达式里的x次数不高于1哦）。 万幸的是，这样的K(w,x)确实存在（发现凡是我们人类能解决的问题，大都是巧得不能再巧，特殊得不能再特殊的问题，总是恰好有些能投机取巧的地方才能解决，由此感到人类的渺小），它被称作核函数（核，kernel），而且还不止一个，事实上，只要是满足了Mercer条件的函数，都可以作为核函数。核函数的基本作用就是接受两个低维空间里的向量，能够计算出经过某个变换后在高维空间里的向量内积值。 回想我们上节说的求一个线性分类器，它的形式应该是：       现在这个就是高维空间里的线性函数（为了区别低维和高维空间里的函数和向量，我改了函数的名字，并且给w和x都加上了 ’），我们就可以用一个低维空间里的函数（再一次的，这个低维空间里的函数就不再是线性的啦）来代替，       f(x’) 和g(x)里的α，y，b全都是一样一样的！这就是说，尽管给的问题是线性不可分的，但是我们就硬当它是线性问题来求解，只不过求解过程中，凡是要求内积的时候就用你选定的核函数来算。这样求出来的α再和你选定的核函数一组合，就得到分类器啦！ 明白了以上这些，会自然的问接下来两个问题： 1． 既然有很多的核函数，针对具体问题该怎么选择？ 2． 如果使用核函数向高维空间映射后，问题仍然是线性不可分的，那怎么办？ 第一个问题现在就可以回答你：对核函数的选择，需要根据指导原则！各种实验的观察结果（不光是文本分类）的确表明，某些问题用某些核函数效果很好，用另一些就很差，但是一般来讲，径向基核函数是不会出太大偏差的一种，首选。   对第二个问题的解决则引出了松弛变量。 4.2 核函数有效性判定 问题：给定一个函数K，我们能否使用K来替代计算 ，也就说，是否能够找出一个 ，使得对于所有的x和z，都有 ？ 比如给出了 ，是否能够认为K是一个有效的核函数。 下面来解决这个问题，给定m个训练样本 ，每一个 对应一个特征向量。那么，我们可以将任意两个 和 带入K中，计算得到 。I可以从1到m，j可以从1到m，这样可以计算出m*m的核函数矩阵（Kernel Matrix）。为了方便，我们将核函数矩阵和 都使用K来表示。 如果假设K是有效地核函数，那么根据核函数定义   可见，矩阵K应该是个对称阵。让我们得出一个更强的结论，首先使用符号 来表示映射函数 的第k维属性值。那么对于任意向量z，得       最后一步和前面计算 时类似。从这个公式我们可以看出，如果K是个有效的核函数（即 和 等价），那么，在训练集上得到的核函数矩阵K应该是半正定的（ ） 这样我们得到一个核函数的必要条件： K是有效的核函数 ==> 核函数矩阵K是对称半正定的。 可幸的是，这个条件也是充分的，由Mercer定理来表达。 Mercer定理： 如果函数K是 上的映射（也就是从两个n维向量映射到实数域）。那么如果K是一个有效核函数（也称为Mercer核函数），那么当且仅当对于训练样例 ，其相应的核函数矩阵是对称半正定的。 Mercer定理表明为了证明K是有效的核函数，那么我们不用去寻找 ，而只需要在训练集上求出各个 ，然后判断矩阵K是否是半正定（使用左上角主子式大于等于零等方法）即可。 许多其他的教科书在Mercer定理证明过程中使用了 范数和再生希尔伯特空间等概念，但在特征是n维的情况下，这里给出的证明是等价的。 核函数不仅仅用在SVM上，但凡在一个模型后算法中出现了 ，我们都可以常使用 去替换，这可能能够很好地改善我们的算法。
五、规则化和不可分情况处理（Regularization and the non-separable case）——松弛变量C 如果使用核函数向高维空间映射后，问题仍然是线性不可分的，那怎么办？ 5.1 松弛变量 现在我们已经把一个本来线性不可分的分类问题，通过映射到高维空间而变成了线性可分的。就像下图这样：   圆形和方形的点各有成千上万个（毕竟，这就是我们训练集中数据的数量嘛，当然很大了）。现在想象我们有另一个训练集，只比原先这个训练集多了一篇文章，映射到高维空间以后（当然，也使用了相同的核函数），也就多了一个样本点，但是这个样本的位置是这样的：   就是图中黄色那个点，它是方形的，因而它是负类的一个样本，这单独的一个样本，使得原本线性可分的问题变成了线性不可分的。这样类似的问题（仅有少数点线性不可分）叫做“近似线性可分”的问题。 以我们人类的常识来判断，说有一万个点都符合某种规律（因而线性可分），有一个点不符合，那这一个点是否就代表了分类规则中我们没有考虑到的方面呢（因而规则应该为它而做出修改）？ 其实我们会觉得，更有可能的是，这个样本点压根就是错误，是噪声，是提供训练集的同学人工分类时一打瞌睡错放进去的。所以我们会简单的忽略这个样本点，仍然使用原来的分类器，其效果丝毫不受影响。 但这种对噪声的容错性是人的思维带来的，我们的程序可没有。由于我们原本的优化问题的表达式中，确实要考虑所有的样本点（不能忽略某一个，因为程序它怎么知道该忽略哪一个呢？），在此基础上寻找正负类之间的最大几何间隔，而几何间隔本身代表的是距离，是非负的，像上面这种有噪声的情况会使得整个问题无解。这种解法其实也叫做“硬间隔”分类法，因为他硬性的要求所有样本点都满足和分类平面间的距离必须大于某个值。 因此由上面的例子中也可以看出，硬间隔的分类法其结果容易受少数点的控制，这是很危险的（尽管有句话说真理总是掌握在少数人手中，但那不过是那一小撮人聊以自慰的词句罢了，咱还是得民主）。 但解决方法也很明显，就是仿照人的思路，允许一些点到分类平面的距离不满足原先的要求。由于不同的训练集各点的间距尺度不太一样，因此用间隔（而不是几何间隔）来衡量有利于我们表达形式的简洁。我们原先对样本点的要求是：       意思是说离分类面最近的样本点函数间隔也要比1大。如果要引入容错性，就给1这个硬性的阈值加一个松弛变量，即允许       因为松弛变量是非负的，因此最终的结果是要求间隔可以比1小。但是当某些点出现这种间隔比1小的情况时（这些点也叫离群点），意味着我们放弃了对这些点的精确分类，而这对我们的分类器来说是种损失。但是放弃这些点也带来了好处，那就是使分类面不必向这些点的方向移动，因而可以得到更大的几何间隔（在低维空间看来，分类边界也更平滑）。显然我们必须权衡这种损失和好处。好处很明显，我们得到的分类间隔越大，好处就越多。回顾我们原始的硬间隔分类对应的优化问题：       这个式子有这么几点要注意： 一是并非所有的样本点都有一个松弛变量与其对应。实际上只有“离群点”才有，或者也可以这么看，所有没离群的点松弛变量都等于0（对负类来说，离群点就是在前面图中，跑到H2右侧的那些负样本点，对正类来说，就是跑到H1左侧的那些正样本点）。 二是松弛变量的值实际上标示出了对应的点到底离群有多远，值越大，点就越远。 三是惩罚因子C决定了你有多重视离群点带来的损失，显然当所有离群点的松弛变量的和一定时，你定的C越大，对目标函数的损失也越大，此时就暗示着你非常不愿意放弃这些离群点，最极端的情况是你把C定为无限大，这样只要稍有一个点离群，目标函数的值马上变成无限大，马上让问题变成无解，这就退化成了硬间隔问题。 四是惩罚因子C不是一个变量，整个优化问题在解的时候，C是一个你必须事先指定的值，指定这个值以后，解一下，得到一个分类器，然后用测试数据看看结果怎么样，如果不够好，换一个C的值，再解一次优化问题，得到另一个分类器，再看看效果，如此就是一个参数寻优的过程，但这和优化问题本身决不是一回事，优化问题在解的过程中，C一直是定值，要记住。 五是尽管加了松弛变量这么一说，但这个优化问题仍然是一个优化问题（汗，这不废话么），解它的过程比起原始的硬间隔问题来说，没有任何更加特殊的地方。 从大的方面说优化问题解的过程，就是先试着确定一下w，也就是确定了前面图中的三条直线，这时看看间隔有多大，又有多少点离群，把目标函数的值算一算，再换一组三条直线（你可以看到，分类的直线位置如果移动了，有些原来离群的点会变得不再离群，而有的本来不离群的点会变成离群点），再把目标函数的值算一算，如此往复（迭代），直到最终找到目标函数最小时的w。 模型修改后，拉格朗日公式也要修改如下：       这里的 和 都是拉格朗日乘子，回想我们在拉格朗日对偶中提到的求法，先写出拉格朗日公式（如上），然后将其看作是变量w和b的函数，分别对其求偏导，得到w和b的表达式。然后代入公式中，求带入后公式的极大值。整个推导过程类似以前的模型，这里只写出最后结果如下：       此时，我们发现没有了参数 ，与之前模型唯一不同在于 又多了 的限制条件。需要提醒的是，b的求值公式也发生了改变，改变结果在SMO算法里面介绍。先看看KKT条件的变化：                   第一个式子表明在两条间隔线外的样本点前面的系数为0，离群样本点前面的系数为C，而支持向量（也就是在超平面两边的最大间隔线上）的样本点前面系数在(0,C)上。通过KKT条件可知，某些在最大间隔线上的样本点也不是支持向量，相反也可能是离群点。 松弛变量也就是个解决线性不可分问题的方法罢了，但是回想一下，核函数的引入不也是为了解决线性不可分的问题么？为什么要为了一个问题使用两种方法呢？ 其实两者还有微妙的不同。一般的过程应该是这样，还以文本分类为例。在原始的低维空间中，样本相当的不可分，无论你怎么找分类平面，总会有大量的离群点，此时用核函数向高维空间映射一下，虽然结果仍然是不可分的，但比原始空间里的要更加接近线性可分的状态（就是达到了近似线性可分的状态），此时再用松弛变量处理那些少数“冥顽不化”的离群点，就简单有效得多啦。 简单说来，支持向量机就是使用了核函数的软间隔线性分类法。 5.2 惩罚因子 接下来要说的东西其实不是松弛变量本身，但由于是为了使用松弛变量才引入的，因此放在这里也算合适，那就是惩罚因子C。回头看一眼引入了松弛变量以后的优化问题：       注意其中C的位置，也可以回想一下C所起的作用（表征你有多么重视离群点，C越大越重视，越不想丢掉它们）。这个式子是以前做SVM的人写的，大家也就这么用，但没有任何规定说必须对所有的松弛变量都使用同一个惩罚因子，我们完全可以给每一个离群点都使用不同的C，这时就意味着你对每个样本的重视程度都不一样，有些样本丢了也就丢了，错了也就错了，这些就给一个比较小的C；而有些样本很重要，决不能分类错误（比如中央下达的文件啥的，笑），就给一个很大的C。 当然实际使用的时候并没有这么极端，但一种很常用的变形可以用来解决分类问题中样本的“偏斜”问题。 先来说说样本的偏斜问题，也叫数据集偏斜（unbalanced），它指的是参与分类的两个类别（也可以指多个类别）样本数量差异很大。比如说正类有10000个样本，而负类只给了100个，这会引起的问题显而易见，可以看看下面的图：   方形的点是负类。H，H1，H2是根据给的样本算出来的分类面，由于负类的样本很少很少，所以有一些本来是负类的样本点没有提供，比如图中两个灰色的方形点，如果这两个点有提供的话，那算出来的分类面应该是H’，H2’和H1，他们显然和之前的结果有出入，实际上负类给的样本点越多，就越容易出现在灰色点附近的点，我们算出的结果也就越接近于真实的分类面。但现在由于偏斜的现象存在，使得数量多的正类可以把分类面向负类的方向“推”，因而影响了结果的准确性。 对付数据集偏斜问题的方法之一就是在惩罚因子上作文章，想必大家也猜到了，那就是给样本数量少的负类更大的惩罚因子，表示我们重视这部分样本（本来数量就少，再抛弃一些，那人家负类还活不活了），因此我们的目标函数中因松弛变量而损失的部分就变成了：       其中i=1…p都是正样本，j=p+1…p+q都是负样本。libSVM这个算法包在解决偏斜问题的时候用的就是这种方法。 那C+和C-怎么确定呢？它们的大小是试出来的（参数调优），但是他们的比例可以有些方法来确定。咱们先假定说C+是5这么大，那确定C-的一个很直观的方法就是使用两类样本数的比来算，对应到刚才举的例子，C-就可以定为500这么大（因为10000：100=100：1嘛）。 但是这样并不够好，回看刚才的图，你会发现正类之所以可以“欺负”负类，其实并不是因为负类样本少，真实的原因是负类的样本分布的不够广（没扩充到负类本应该有的区域）。说一个具体点的例子，现在想给政治类和体育类的文章做分类，政治类文章很多，而体育类只提供了几篇关于篮球的文章，这时分类会明显偏向于政治类，如果要给体育类文章增加样本，但增加的样本仍然全都是关于篮球的（也就是说，没有足球，排球，赛车，游泳等等），那结果会怎样呢？虽然体育类文章在数量上可以达到与政治类一样多，但过于集中了，结果仍会偏向于政治类！所以给C+和C-确定比例更好的方法应该是衡量他们分布的程度。比如可以算算他们在空间中占据了多大的体积，例如给负类找一个超球——就是高维空间里的球啦——它可以包含所有负类的样本，再给正类找一个，比比两个球的半径，就可以大致确定分布的情况。显然半径大的分布就比较广，就给小一点的惩罚因子。 但是这样还不够好，因为有的类别样本确实很集中，这不是提供的样本数量多少的问题，这是类别本身的特征（就是某些话题涉及的面很窄，例如计算机类的文章就明显不如文化类的文章那么“天马行空”），这个时候即便超球的半径差异很大，也不应该赋予两个类别不同的惩罚因子。 看到这里读者一定疯了，因为说来说去，这岂不成了一个解决不了的问题？然而事实如此，完全的方法是没有的，根据需要，选择实现简单又合用的就好（例如libSVM就直接使用样本数量的比）。 六、SMO优化算法 SMO算法由Microsoft Research的John C. Platt在1998年提出，并成为最快的二次规划优化算法，特别针对线性SVM和数据稀疏时性能更优。关于SMO最好的资料就是他本人写的《Sequential Minimal Optimization A Fast Algorithm for Training Support Vector Machines》了。 首先回到我们前面一直悬而未解的问题，对偶函数最后的优化问题：       具体见这篇大牛文章：https://www.cnblogs.com/jerrylead/archive/2011/03/18/1988419.html 七、参考文献 https://www.cnblogs.com/jerrylead/archive/2011/03/13/1982639.html
http://www.blogjava.net/zhenandaci/category/31868.html  
展开全文
• 支持向量机是处理回归问题的可泛化性能最好的，解决过拟合，机器学习中算法精度也是最高的 相关数学知识 ​ 梯度下降 ​ 梯度下降法(Gradient Descent， GD)常用于求解无约束（不跟其他的位置比最近，而是只自己比...
• 支持向量机，高斯核函数背景介绍核心思想公式推导及主要函数核函数核心思想公式推导及函数名词介绍希尔伯特空间（Hilbert space）内积归一化和标准化内积空间（pre-Hilbert space/欧几里得空间）范数范数和距离...
• python 支持向量机（SVM）算法之分类实操 算法简介 SVM 之前我们用了很多线性算法来做预测模型，像是逻辑算法（LogisticRegression),lasso,岭回归。但现实生活中，很多事情不是线性可分的（即画一条直线就能分类的）...
• 关于对支持向量机核函数的理解 针对上图中： 选择三个点l(1)、l(2)、l(3)，那么针对一个点X(i)到l(1)、l(2)、l(3)三个点的距离，按照正常的思维逻辑来理解：如果l(1)、l(2)是正样品，那么x(i)离这两个点越近，代表...
• 支持向量机即SVM(Support Vector Machine)，主要用于解决模式识别领域中的数据分类问题，属于有监督学习算法的一种。是一类按监督学习方式对数据进行二元分类的广义线性分类器。 如图所示, 红色和蓝色的点是可以被...
• 支持向量机是一种强大的拟合非线性方程的工具，首先介绍一下它的引入。 由前面学习，我们可以知道，对于逻辑回归的一组样本，我们有代价函数：J(θ)=−ylog11+eθTx−(1−y)log(1−11+eθTx)J(\theta)=-ylo
• 支持向量机（Support Vector Machine）是人工神经网络出现之前最常用的算法 **支持向量机要解决的问题：**什么样的决策边界才是最好的呢？ 优化的目标：找到一条线，使得离该线最近的点，比如二分类的两种点，每个...
• 上一篇文章我们介绍了使用逻辑回归来处理分类问题，本文我们讲一个更强大的分类模型。本文依旧侧重代码实践，你...一、什么是支持向量机SMV在众多实例中寻找一个最优的决策边界，这个边界上的实例叫做支持向量，它们...
• 支持向量机(Support Vector Machine)是Cortes和Vapnik于1995年首先提出的，它在解决小样本、非线性及高维模式识别中表现出许多特有的优势，并能够推广应用到函数拟合等其他机器学习问题中。 一、数学部分 1.1二维...
• 支持向量机(SVM)算法概述 支持向量机（support vector machines，SVM）是一种二分类模型，它的目的是寻找一个超平面来对样本进行分割，分割的原则是间隔最大化，最终转化为一个凸二次规划问题来求解。由简至繁的模型...
• 支持向量机SVM基础 SVM(Support Vector Machine)指的是支持向量机，是常见的一种判别方法。在机器学习领域，是一个有监督的学习模型，通常用来进行模式识别、分类以及回归分析。 支持向量机（SVM）算法比较适合图像...
• 代码很齐全，包括用 最小二乘支持向量机进行参数优化，曲线拟合
• 非线性支持向量机1.1 核技巧1.2 核函数1.2.1 核函数选择1.2.2 RBF 函数参考资料 相关文章： 机器学习 | 目录 机器学习 | 网络搜索及可视化 监督学习 | SVM 之线性支持向量机原理 1. 非线性支持向量机 对解...
• 1.敘述三种分类学习方法:LDA，朴素贝叶斯，支持向量机的原理和算法，三种分类方法各适合什么样的数据集？ 先说结论：LDA适合于样本固定，参数未知但不固定，是个随机变量，服从一定的分布的数据集。 朴素贝叶斯的...
• 支持向量机SVM——间隔最大化1.什么是超平面2.为什么要间隔最大化3.如何实现间隔最大化 主要参考西瓜书… 1.什么是超平面 相信了解过逻辑回归的都知道，我们对于n=2（特征为2个，这里只是方便可视化）是通拟合一条...
• ## SVM支持向量机原理及核函数

万次阅读 多人点赞 2018-04-07 20:21:18
SVM支持向量机原理详解及核函数 核函数的选择 分割超平面： 支持向量： 间距： SVM算法的原理就是找到一个分割超平面，它能把数据正确的分类，并且间距最大！
• 1. 优化目标(Optimization Objective) 目前来说，我们已经学过了单变量与多变量的线性回归，逻辑回归以及神经...与逻辑回归和神经网络相比，支持向量机，或者简称SVM，在学习复杂的非线性方程时提供了一种更为清...
• 逻辑回归 vs 决策树 vs 支持向量机原文 part1 原文 part2分类是我们在工业界经常遇到的场景，本文探讨了3种常用的分类器，逻辑回归LR，决策树DT和支持向量机SVM。这三个算法都被广泛应用于分类（当然LR，DT和SVR也...
• 2015-2 摘要 最近，全连接神经网络和卷积神经网络在语音识别、图像分类、自然语言处理和生物信息学等广泛地任务中实现了最先进的性能。...虽然在现有技术中已有多种神经网络和和支持向量机的组合，...

...