0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

支持向量机(原问题和对偶问题)

RG15206629988 来源:行业学习与研究 2023-05-25 09:31 次阅读

本文主要介绍原问题(PRIME PROBLEM)和对偶问题(DUAL PROBLEM),支持向量机优化问题可通过原问题向对偶问题的转化求解。

一、原问题的定义

原问题的定义为:

最小化:f(ω);

限制条件:gi(ω)≤0,i=1~K;hi(ω)=0,i=1~M。

其中,ω为多维向量,限制条件中具有K个不等式(gi(ω)≤0),M个等式(hi(ω)=0)。

二、对偶问题的定义

首先定义函数:L(ω,α,β)=f(ω)+∑αigi(ω)+∑βihi(ω);

该函数向量形式的定义:L(ω,α,β)=f(ω)+αTg(ω)+βTh(ω);

该函数向量形式的定义中,α=[α1,α2,…,αK]T,β=[β1,β2,…,βM]T,g(ω)=[g1(ω),g2(ω),…,gK(ω)]T,h(ω)=[h1(ω),h2(ω),…,hM(ω)]T。

基于函数L(ω,α,β)的定义,原问题的对偶问题定义如下:

最大化:θ(α,β)=infL(ω,α,β);

限制条件:αi≥0,i=1~K。

其中,infL(ω,α,β)为遍历所有ω后,取值最小的L(ω,α,β)。

三、定理一

根据以上定义,可得出定理一:

如果ω*是原问题的解,(α*,β*)是对偶问题的解,则有: f(ω*)≥θ(α*,β*)

该定理的证明如下: θ(α*,β*)=infL(ω,α*,β*)(将α*、β*代入对偶函数的定义)

≤L(ω*,α*,β*)(此步推导由于infL(ω,α*,β*)的取值最小)

=f(ω*)+α*Tg(ω*)+β*Th(ω*)(此步推导根据L(ω,α,β)的定义)

≤f(ω*)(此步推导由于原问题的限制条件gi(ω)≤0,hi(ω)=0,对偶问题的限制条件αi≥0)

四、强对偶定理

将f(ω*)-θ(α*,β*)定义为对偶差距(DUALITY GAP),根据上述定理,对偶差距是大于等于零的函数。

如果g(ω)=Aω+b,h(ω)=Cω+d,f(ω)为凸函数,则有f(ω*)=θ(α*,β*),此时对偶差距等于零。该定理为强对偶定理(STRONG DUALITY THEOREM)。

强对偶定理可更通俗地表述为:原问题的目标函数(f(ω))是凸函数,原问题的限制条件是线性函数,则原问题的解与对偶函数的解相等。

五、KKT条件

若f(ω*)=θ(α*,β*),则有: f(ω*)+α*Tg(ω*)+β*Th(ω*)=f(ω*); 即对于所有的i=1~K,要么αi=0,要么gi(ω*)=0(因为hi(ω)=0)。

该结论被称为KKT条件,KKT分别代表先后独立发现该结论的研究人员Karush、Kuhn、Tucker,该结论在Kuhn、Tucker发现后逐步被推广。






审核编辑:刘清

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 向量机
    +关注

    关注

    0

    文章

    166

    浏览量

    20717
  • 机器学习
    +关注

    关注

    66

    文章

    8134

    浏览量

    130577
  • GAP
    GAP
    +关注

    关注

    0

    文章

    15

    浏览量

    8243

原文标题:机器学习相关介绍(12)——支持向量机(原问题和对偶问题)

文章出处:【微信号:行业学习与研究,微信公众号:行业学习与研究】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    #硬声创作季 人工智能入门课程:12. [2.7.1]--支持向量(原问题和对偶问题)

    向量人工智能机器学习
    Mr_haohao
    发布于 :2022年09月21日 11:11:05

    12. 2 7 支持向量(原问题和对偶问题) #硬声创作季

    机器学习
    充八万
    发布于 :2023年07月07日 01:27:18

    基于支持向量的分类问题

    小菜鸟一枚 ,有哪位大神能提供部分基于支持向量积的分类鉴别问题的MATLAB编码,思路过程,不胜感激
    发表于 04-03 18:54

    支持向量——机器学习中的杀手级武器!

    ||w||,公式(6)可以转化成:公式(7)即为支持向量的基本型。对偶问题的解决方法——拉格朗日乘子式看到这类带约束的最小值问题,很自然我们想到了拉格朗日乘子法。由此最终求解可以得
    发表于 08-24 09:40

    支持向量是什么

    初步了解支持向量(SVM)-1
    发表于 09-03 09:59

    支持向量的SVM

    支持向量SVM
    发表于 05-20 10:21

    如何用支持向量分类器识别手写字体

    sklearn实例-用支持向量分类器(SVC)识别手写字体
    发表于 06-11 17:02

    怎么理解支持向量SVM

    支持向量SVM理解篇
    发表于 06-14 09:05

    介绍支持向量与决策树集成等模型的应用

    本文主要介绍支持向量、k近邻、朴素贝叶斯分类 、决策树、决策树集成等模型的应用。讲解了支持向量
    发表于 09-01 06:57

    特征加权支持向量

    该文针对现有的加权支持向量机(WSVM)和模糊支持向量机(FSVM)只考虑样本重要性而没有考虑特征重要性对分类结果的影响的缺陷,提出了基于特征加权的
    发表于 11-21 11:15 15次下载

    模糊支持向量机的改进方法

    了基于同类中心和异类中心双参照点的噪声判别方法;分析了模糊支持向量机求解对偶问题中参数与支持向量的对应关系,进而给出新的隶属度函数设置步骤。
    发表于 11-29 16:19 0次下载
    模糊<b class='flag-5'>支持</b><b class='flag-5'>向量</b>机的改进方法

    什么是支持向量机 什么是支持向量

    支持向量机,英文为Support Vector Machine,简称SV机(论文中一般简称SVM)。它是一 种监督式学习的方法,它广泛的应用于统计分类以及回归分析中。
    发表于 01-28 16:01 2.1w次阅读
    什么是<b class='flag-5'>支持</b><b class='flag-5'>向量</b>机 什么是<b class='flag-5'>支持</b><b class='flag-5'>向量</b>

    支持向量机(核函数的定义)

    根据机器学习相关介绍(10)——支持向量机(低维到高维的映射),支持向量机可通过引入φ(x)函数,将低维线性不可分问题转换为高维线性可分问题。
    的头像 发表于 05-20 10:41 556次阅读
    <b class='flag-5'>支持</b><b class='flag-5'>向量</b>机(核函数的定义)

    支持向量机(多类问题之1类对K-1类方式)

    支持向量机可求解二分类问题。当需要求解多分类问题时,支持向量机可将二分类问题的求解方式转化为多分类问题的求解方式
    的头像 发表于 06-30 16:07 301次阅读

    支持向量机(多类问题之1类对另1类)

    假设测试样本需被分为三类,首先需构建三个支持向量机模型
    的头像 发表于 07-05 16:08 325次阅读
    <b class='flag-5'>支持</b><b class='flag-5'>向量</b>机(多类问题之1类对另1类)