0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

一文带你快速读懂支持向量机 SVM 算法

h1654155999.2342 来源:博客园 作者: JerryLead 2021-08-26 15:27 次阅读

简介

支持向量机基本上是最好的有监督学习算法了。最开始接触SVM是去年暑假的时候,老师要求交《统计学习理论》的报告,那时去网上下了一份入门教程,里面讲的很通俗,当时只是大致了解了一些相关概念。

这次斯坦福提供的学习材料,让我重新学习了一些SVM知识。我看很多正统的讲法都是从VC 维理论和结构风险最小原理出发,然后引出SVM什么的,还有些资料上来就讲分类超平面什么的。

这份材料从前几节讲的logistic回归出发,引出了SVM,既揭示了模型间的联系,也让人觉得过渡更自然。

重新审视logistic回归

Logistic回归目的是从特征学习出一个0/1分类模型,而这个模型是将特性的线性组合作为自变量,由于自变量的取值范围是负无穷到正无穷。

因此,使用logistic函数(或称作sigmoid函数)将自变量映射到(0,1)上,映射后的值被认为是属于y=1的概率。

形式化表示就是

假设函数

aa5ecf14-f846-11eb-9bcf-12bb97331649.png

其中x是n维特征向量,函数g就是logistic函数。

aa77a2dc-f846-11eb-9bcf-12bb97331649.png的图像是

aa93046e-f846-11eb-9bcf-12bb97331649.png

可以看到,将无穷映射到了(0,1)。

而假设函数就是特征属于y=1的概率。

aabd24d8-f846-11eb-9bcf-12bb97331649.png

当我们要判别一个新来的特征属于哪个类时,只需求aaeb088a-f846-11eb-9bcf-12bb97331649.png,若大于0.5就是y=1的类,反之属于y=0类。

再审视一下aaeb088a-f846-11eb-9bcf-12bb97331649.png,发现aaeb088a-f846-11eb-9bcf-12bb97331649.png只和ab32d732-f846-11eb-9bcf-12bb97331649.png有关,ab32d732-f846-11eb-9bcf-12bb97331649.png>0,那么ab60cbce-f846-11eb-9bcf-12bb97331649.png,g(z)只不过是用来映射,真实的类别决定权还在ab32d732-f846-11eb-9bcf-12bb97331649.png。还有当ab869638-f846-11eb-9bcf-12bb97331649.png时,aaeb088a-f846-11eb-9bcf-12bb97331649.png=1,反之aaeb088a-f846-11eb-9bcf-12bb97331649.png=0。

如果我们只从ab32d732-f846-11eb-9bcf-12bb97331649.png出发,希望模型达到的目标无非就是让训练数据中y=1的特征ab869638-f846-11eb-9bcf-12bb97331649.png,而是y=0的特征abd0d748-f846-11eb-9bcf-12bb97331649.png

Logistic回归就是要学习得到abef8eea-f846-11eb-9bcf-12bb97331649.png,使得正例的特征远大于0,负例的特征远小于0,强调在全部训练实例上达到这个目标。

图形化表示如下:

ac0c8c5c-f846-11eb-9bcf-12bb97331649.png

中间那条线是ac2780c0-f846-11eb-9bcf-12bb97331649.png,logistic回顾强调所有点尽可能地远离中间那条线。学习出的结果也就中间那条线。

考虑上面3个点A、B和C。从图中我们可以确定A是×类别的,然而C我们是不太确定的,B还算能够确定。这样我们可以得出结论,我们更应该关心靠近中间分割线的点,让他们尽可能地远离中间线,而不是在所有点上达到最优。

因为那样的话,要使得一部分点靠近中间线来换取另外一部分点更加远离中间线。我想这就是支持向量机的思路和logistic回归的不同点,一个考虑局部(不关心已经确定远离的点),一个考虑全局(已经远离的点可能通过调整中间线使其能够更加远离)。这是我的个人直观理解。

形式化表示

我们这次使用的结果标签是y=-1,y=1,替换在logistic回归中使用的y=0和y=1。同时将abef8eea-f846-11eb-9bcf-12bb97331649.png替换成w和b。

以前的ac5a1a08-f846-11eb-9bcf-12bb97331649.png,其中认为ac8034f4-f846-11eb-9bcf-12bb97331649.png。现在我们替换aca11cfa-f846-11eb-9bcf-12bb97331649.png为b,后面替换acbfbaf2-f846-11eb-9bcf-12bb97331649.pngacdc3b1e-f846-11eb-9bcf-12bb97331649.png(即ad0adbea-f846-11eb-9bcf-12bb97331649.png)。这样,我们让ad2249ce-f846-11eb-9bcf-12bb97331649.png,进一步ad4341e2-f846-11eb-9bcf-12bb97331649.png

也就是说除了y由y=0变为y=-1,只是标记不同外,与logistic回归的形式化表示没区别。再明确下假设函数

ad715730-f846-11eb-9bcf-12bb97331649.png

上一节提到过我们只需考虑ab32d732-f846-11eb-9bcf-12bb97331649.png的正负问题,而不用关心g(z),因此我们这里将g(z)做一个简化,将其简单映射到y=-1和y=1上。映射关系如下:

ad98c93c-f846-11eb-9bcf-12bb97331649.png

函数间隔(functional margin)和几何间隔(geometric margin)

给定一个训练样本adb55e08-f846-11eb-9bcf-12bb97331649.png,x是特征,y是结果标签。i表示第i个样本。我们定义函数间隔如下:

addd8388-f846-11eb-9bcf-12bb97331649.png

可想而知,当ae151190-f846-11eb-9bcf-12bb97331649.png时,在我们的g(z)定义中,ae30ac84-f846-11eb-9bcf-12bb97331649.pngae4fc01a-f846-11eb-9bcf-12bb97331649.png的值实际上就是ae6752b6-f846-11eb-9bcf-12bb97331649.png。反之亦然。

为了使函数间隔最大(更大的信心确定该例是正例还是反例),当ae151190-f846-11eb-9bcf-12bb97331649.png时,ae8e9f6a-f846-11eb-9bcf-12bb97331649.png应该是个大正数,反之是个大负数。因此函数间隔代表了我们认为特征是正例还是反例的确信度。

继续考虑w和b,如果同时加大w和b,比如在aeac850c-f846-11eb-9bcf-12bb97331649.png前面乘个系数比如2,那么所有点的函数间隔都会增大二倍,这个对求解问题来说不应该有影响,因为我们要求解的是aec9ada8-f846-11eb-9bcf-12bb97331649.png,同时扩大w和b对结果是无影响的。

这样,我们为了限制w和b,可能需要加入归一化条件,毕竟求解的目标是确定唯一一个w和b,而不是多组线性相关的向量。这个归一化一会再考虑。

刚刚我们定义的函数间隔是针对某一个样本的,现在我们定义全局样本上的函数间隔

aee7afba-f846-11eb-9bcf-12bb97331649.png

说白了就是在训练样本上分类正例和负例确信度最小那个函数间隔。

接下来定义几何间隔

假设我们有了B点所在的aec9ada8-f846-11eb-9bcf-12bb97331649.png分割面。任何其他一点,比如A到该面的距离以af54e79c-f846-11eb-9bcf-12bb97331649.png表示,假设B就是A在分割面上的投影。

我们知道向量BA的方向是af7d4476-f846-11eb-9bcf-12bb97331649.png(分割面的梯度),单位向量是afb3cdac-f846-11eb-9bcf-12bb97331649.png。A点是adb55e08-f846-11eb-9bcf-12bb97331649.png,所以B点是x=afdf28bc-f846-11eb-9bcf-12bb97331649.png(利用初中的几何知识),带入aec9ada8-f846-11eb-9bcf-12bb97331649.png得,

进一步得到

b02d5640-f846-11eb-9bcf-12bb97331649.png

af54e79c-f846-11eb-9bcf-12bb97331649.png实际上就是点到平面距离。

再换种更加优雅的写法:

b057aa76-f846-11eb-9bcf-12bb97331649.png

b075fd32-f846-11eb-9bcf-12bb97331649.png时,不就是函数间隔吗?是的,前面提到的函数间隔归一化结果就是几何间隔。

他们为什么会一样呢?因为函数间隔是我们定义的,在定义的时候就有几何间隔的色彩。同样,同时扩大w和b,w扩大几倍,b09437e8-f846-11eb-9bcf-12bb97331649.png就扩大几倍,结果无影响。同样定义全局的几何间隔b0b3917e-f846-11eb-9bcf-12bb97331649.png

最优间隔分类器(optimal margin classifier)

回想前面我们提到我们的目标是寻找一个超平面,使得离超平面比较近的点能有更大的间距。也就是我们不考虑所有的点都必须远离超平面,我们关心求得的超平面能够让所有点中离它最近的点具有最大间距。

形象的说,我们将上面的图看作是一张纸,我们要找一条折线,按照这条折线折叠后,离折线最近的点的间距比其他折线都要大。形式化表示为:

b0ce205c-f846-11eb-9bcf-12bb97331649.png

这里用b09437e8-f846-11eb-9bcf-12bb97331649.png=1规约w,使得b0f630a6-f846-11eb-9bcf-12bb97331649.png是几何间隔。

到此,我们已经将模型定义出来了。如果求得了w和b,那么来一个特征x,我们就能够分类了,称为最优间隔分类器。接下的问题就是如何求解w和b的问题了。

由于b112b91a-f846-11eb-9bcf-12bb97331649.png不是凸函数,我们想先处理转化一下,考虑几何间隔和函数间隔的关系,b12f9620-f846-11eb-9bcf-12bb97331649.png,我们改写一下上面的式子:

b149fb8c-f846-11eb-9bcf-12bb97331649.png

这时候其实我们求的最大值仍然是几何间隔,只不过此时的w不受b112b91a-f846-11eb-9bcf-12bb97331649.png的约束了。然而这个时候目标函数仍然不是凸函数,没法直接代入优化软件里计算。我们还要改写。

前面说到同时扩大w和b对结果没有影响,但我们最后要求的仍然是w和b的确定值,不是他们的一组倍数值,因此,我们需要对b1b4ebd6-f846-11eb-9bcf-12bb97331649.png做一些限制,以保证我们解是唯一的。

这里为了简便我们取b1d495d0-f846-11eb-9bcf-12bb97331649.png。这样的意义是将全局的函数间隔定义为1,也即是将离超平面最近的点的距离定义为b1ed6cc2-f846-11eb-9bcf-12bb97331649.png。由于求b1ed6cc2-f846-11eb-9bcf-12bb97331649.png的最大值相当于求b21a0b6a-f846-11eb-9bcf-12bb97331649.png的最小值,因此改写后结果为:

b23844cc-f846-11eb-9bcf-12bb97331649.png

这下好了,只有线性约束了,而且是个典型的二次规划问题(目标函数是自变量的二次函数)。代入优化软件可解。

到这里发现,这个讲义虽然没有像其他讲义一样先画好图,画好分类超平面,在图上标示出间隔那么直观,但每一步推导有理有据,依靠思路的流畅性来推导出目标函数和约束。

—版权声明—

仅用于学术分享,版权属于原作者。

若有侵权,请联系 删除或修改!

转自:JerryLead

http://www.cnblogs.com/jerrylead/archive/2011/03/13/1982639.html

编辑:jq

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 算法
    +关注

    关注

    23

    文章

    4455

    浏览量

    90751
  • 向量机
    +关注

    关注

    0

    文章

    166

    浏览量

    20716
  • SVM
    SVM
    +关注

    关注

    0

    文章

    154

    浏览量

    32181

原文标题:优雅的读懂支持向量机 SVM 算法

文章出处:【微信号:gh_f39db674fbfd,微信公众号:尖刀视】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    扩展包x-cube-ai能实现SVM支持向量吗?

    扩展包x-cube-ai能实现SVM支持向量
    发表于 03-22 07:26

    SVM的使用方法

    上一篇本着回归传统的观点,在这个深度学习繁荣发展的时期,带着大家认识了一位新朋友,英文名SVM,中文名为支持向量机,是一种基于传统方案的机器学习方案,同样的,支持根据输入的数据进行训练
    的头像 发表于 01-25 09:23 1076次阅读
    <b class='flag-5'>SVM</b>的使用方法

    支持向量机的基本原理 支持向量机可以解决什么问题

    支持向量机(Support Vector Machine,简称SVM)是一种非常流行和强大的机器学习算法,常用于分类和回归问题。它的基本原理源自于统计学和线性代数的理论基础,通过找到能
    的头像 发表于 01-17 11:17 545次阅读

    EMC难不难做?带你读懂EMC 详谈EMC

    读懂EMC:详谈EMC
    的头像 发表于 07-31 11:23 1702次阅读
    EMC难不难做?<b class='flag-5'>带你</b><b class='flag-5'>读懂</b>EMC 详谈EMC

    cifar10数据集介绍 knn和svm的图像分类系统案例

      摘要:本文使用CIFAR-10数据集设计实现了基于k近邻(knn)和支持向量机(svm)的图像分类系统。首先介绍了CIFAR-10数据集及其特征,然后分析实现了两种分类算法的原理与
    发表于 07-18 15:23 4次下载

    支持向量机(多类问题之1类对另1类)

    假设测试样本需被分为三类,首先需构建三个支持向量机模型
    的头像 发表于 07-05 16:08 322次阅读
    <b class='flag-5'>支持</b><b class='flag-5'>向量</b>机(多类问题之1类对另1类)

    支持向量机(多类问题之1类对K-1类方式)

    支持向量机可求解二分类问题。当需要求解多分类问题时,支持向量机可将二分类问题的求解方式转化为多分类问题的求解方式
    的头像 发表于 06-30 16:07 297次阅读

    支持向量算法

    下面看一道例题:有18组数据,有不同的类别属性,建立SVM模型。
    的头像 发表于 06-18 17:32 491次阅读
    <b class='flag-5'>支持</b><b class='flag-5'>向量</b>机<b class='flag-5'>算法</b>

    支持向量机(兵(车)王问题MATLAB程序)

    首先将LIBSVM工具包下载至SVM EXAMPLE的目录下。
    的头像 发表于 06-16 16:06 612次阅读
    <b class='flag-5'>支持</b><b class='flag-5'>向量</b>机(兵(车)王问题MATLAB程序)

    支持向量机(兵王问题描述)

    本文主要内容为采用支持向量机(SVM)解决国际象棋兵王问题。
    的头像 发表于 06-09 17:52 727次阅读
    <b class='flag-5'>支持</b><b class='flag-5'>向量</b>机(兵王问题描述)

    支持向量机(原问题和对偶问题)

    本文主要介绍原问题(PRIME PROBLEM)和对偶问题(DUAL PROBLEM),支持向量机优化问题可通过原问题向对偶问题的转化求解。
    的头像 发表于 05-25 09:31 777次阅读

    支持向量机(核函数的定义)

    根据机器学习相关介绍(10)——支持向量机(低维到高维的映射),支持向量机可通过引入φ(x)函数,将低维线性不可分问题转换为高维线性可分问题。
    的头像 发表于 05-20 10:41 551次阅读
    <b class='flag-5'>支持</b><b class='flag-5'>向量</b>机(核函数的定义)

    机器学习相关介绍:支持向量机(低维到高维的映射)

    根据机器学习相关介绍(9)——支持向量机(线性不可分情况),通过引入松弛变量δi将支持向量机推广至解决非线性可分训练样本分类的方式不能解决所有非线性可分训练样本的分类问题。因此,
    的头像 发表于 05-16 11:20 1423次阅读
    机器学习相关介绍:<b class='flag-5'>支持</b><b class='flag-5'>向量</b>机(低维到高维的映射)

    PCB 如何设计防静电?带你读懂

    超过6~35Kv,当用手触摸电子设备、PCB或PCB上的元器件时,会因为瞬间的静电放电,而使元器件或设备受到干扰,甚至损坏设备或PCB上的元器件。 下图大致列举了下不同行为产生的静电电压大小: 静电
    发表于 05-12 12:02

    介绍支持向量机的基础概念

    支持向量机(Support Vector Machine)是一种较知名的机器学习算法,该算法由俄罗斯数学家Vladimir Vapnik创立。
    的头像 发表于 04-28 09:09 674次阅读
    介绍<b class='flag-5'>支持</b><b class='flag-5'>向量</b>机的基础概念