博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
吴恩达机器学习笔记 —— 13 支持向量机
阅读量:6115 次
发布时间:2019-06-21

本文共 663 字,大约阅读时间需要 2 分钟。

本章讲述了SVM,相比于《统计学习方法》,从逻辑回归的角度更容易理解了。

更多内容参考

从逻辑回归来看,看损失值与Z的值的关系:

o_wuenda13_1.png

代入原来的是指,可以化简公式:

o_wuenda13_2.png
总结来说:如果y=1,我们希望z的值大于等于1,如果y=0,我们希望z的值小于-1,这样损失函数的值都会为0.

线性可分的决策边界:

o_wuenda13_3.png

但是这种情况对于异常点是非常敏感的,比如有一个红点,那么决策边界就会发生很大的变化。

o_wuenda13_4.png

此时希望C不要太大,即λ非常大,鲁棒性更强。

o_wuenda13_5.png
o_wuenda13_6.png

对于向量空间中的两个向量,向量的內积等于p*向量U的长度。

o_wuenda13_7.png
这样θTx就转换成了对向量θ的投影了
o_wuenda13_8.png
在逻辑回归中基于决策边界进行分类,但是特征需要手动来创造,很难去造全比较好的特征
o_wuenda13_9.png

首先假设几个样本的参照点,l1,l2,l3,然后计算每个x与这三个点的相似度,这里是用的高斯混合

o_wuenda13_10.png
这个similarity就是kernel函数。
o_wuenda13_11.png

similarity最大是1,最小是0。当两个向量一模一样的时候等于1。

o_wuenda13_12.png

通过选取的点与计算出f值,然后带入到公式,就能得出决策边界:

o_wuenda13_13.png

如何选择l呢,最简单的就是把所有的样本点都当做l。然后计算x与所有样本点的高斯核:

o_wuenda13_14.png

o_wuenda13_15.png

o_wuenda13_16.png

有很多的软件可以算SVM了,只需要选择参数C和kernel函数就行了
o_wuenda13_17.png

逻辑回归和SVM的区别:

  • 1 如果特征的维度比样本的维度还高,使用逻辑回归或者不带核函数的SVM。因为没有那么多数据来拟合更高级的函数
  • 2 如果n很小,m适中,那么可以使用高斯核的SVM
  • 3 如果n很小,m很大,那么使用逻辑回归或者不带核函数的SVM都可以,不然使用高斯核计算会很慢

转载地址:http://cavka.baihongyu.com/

你可能感兴趣的文章
Scroll Depth – 衡量页面滚动的 Google 分析插件
查看>>
Windows 8.1 应用再出发 - 视图状态的更新
查看>>
自己制作交叉编译工具链
查看>>
Qt Style Sheet实践(四):行文本编辑框QLineEdit及自动补全
查看>>
[物理学与PDEs]第3章习题1 只有一个非零分量的磁场
查看>>
深入浅出NodeJS——数据通信,NET模块运行机制
查看>>
onInterceptTouchEvent和onTouchEvent调用时序
查看>>
android防止内存溢出浅析
查看>>
4.3.3版本之引擎bug
查看>>
SQL Server表分区详解
查看>>
使用FMDB最新v2.3版本教程
查看>>
SSIS从理论到实战,再到应用(3)----SSIS包的变量,约束,常用容器
查看>>
STM32启动过程--启动文件--分析
查看>>
垂死挣扎还是涅槃重生 -- Delphi XE5 公布会归来感想
查看>>
淘宝的几个架构图
查看>>
Android扩展 - 拍照篇(Camera)
查看>>
JAVA数组的定义及用法
查看>>
充分利用HTML标签元素 – 简单的xtyle前端框架
查看>>
设计模式(十一):FACADE外观模式 -- 结构型模式
查看>>
iOS xcodebuile 自动编译打包ipa
查看>>