计算机系统应用教程网站

网站首页 > 技术文章 正文

[机器学习] sklearn支持向量机

btikc 2024-11-19 02:03:47 技术文章 2 ℃ 0 评论

sklearn支持向量机

支持向量机SVM(Support Vector Machine)是一种用来进行模式识别、分类、回归的机器学习模型。

SVM原理描述

模型表示

以一个客户好坏分类为案例,客户信息如下所示:

添加图片注释,不超过 140 字(可选)

客户信息数轴表示如下所示:

添加图片注释,不超过 140 字(可选)

以数学表达式对上述信息进行描述,可以用下式进行表示:

添加图片注释,不超过 140 字(可选)

然而该方法对于大型数据集容易发生拟合,且过于复杂。

因此可以忽略一些点,进行一刀切,如下所示:

添加图片注释,不超过 140 字(可选)

但是该方法容易导致错分率高。因此SVM就是找一种方式正确的描述分类方程。

超平面

添加图片注释,不超过 140 字(可选)

因此该超平面的公式可以用下式进行表示:

其中v是样本向量,在二维空间v=(x,y),在三维空间v=(x,y,z)。w是参数向量,在二维空间w=(A,B),在三维空间w=(A,B,C)。

添加图片注释,不超过 140 字(可选)

因此上述距离公式可以表示为:

超平面确定

SVM目标是找到一个超平面,使得其在两个类中间分开。并使得该超平面到两边的距离最大,如下图所示:

添加图片注释,不超过 140 字(可选)

但是如果对于线性不可分的情况,如下图所示:

添加图片注释,不超过 140 字(可选)

此时上述方式无法确定超平面。在SVM在则是通过升维的方式解决。例如:

添加图片注释,不超过 140 字(可选)

因此SVM在一维空间上解决线性不可分割的问题是把函数映射到二维空间。同样在n维空间的线性不可分割问题映射到n+1维空间。而这种映射分类函数,在svm用核函数(kernel)进行构造。

因此支持向量机具体算法步骤为:

  1. 把所有的样本和其标记交给算法进行训练
  2. 如果线性可分则直接找出超平面
  3. 如果线性不可分,进行映射找出超平面
  4. 得到超平面表达式,进行分类回归

sklearn实现

在sklearn支持向量机主要用SVC类支持。SVC所支持的和函数有linear(线性和函数)、rbf(径向基核函数)、sigmoid(神经元激活函数)等,通常推荐使用rbf函数。以客户评价为例代码如下:

from sklearn import svm
import numpy as np
#年龄
X = np.array([[34, 33, 32, 31, 30, 30, 25, 23, 22, 18]])
X = X.T
#质量
y = [1, 0, 1, 0, 1, 1, 0, 1, 0, 1]
 
clf = svm.SVC(kernel='rbf').fit(X, y)
 
p = [[30]]
print(clf.predict(p)) #1

函数其他参数改动可参考官网文档:svm



参考资料


[1] svm: http://scikit-learn.org/stable/modules/svm.html#svm

本文暂时没有评论,来添加一个吧(●'◡'●)

欢迎 发表评论:

最近发表
标签列表