优秀网站的要素有,公司名字寓意好的字,wps网站超链接怎么做,wordpress和帝国cms哪个好文章目录1、知道SVM相关的各种概念2、知道目标函数、损失函数、正则项的意义2.1、目标函数2.2、损失函数2.3、正则化#xff08;添加噪音避免过拟合#xff09;3、了解SVM算法原理4、知道SVM的目标函数5、知道SVM的损失函数以及公式6、知道SVM支持向量机的计算过程6.1、推导过…
文章目录1、知道SVM相关的各种概念2、知道目标函数、损失函数、正则项的意义2.1、目标函数2.2、损失函数2.3、正则化添加噪音避免过拟合3、了解SVM算法原理4、知道SVM的目标函数5、知道SVM的损失函数以及公式6、知道SVM支持向量机的计算过程6.1、推导过程6.2、推导实例7、了解核函数相关知识8、了解SVM算法的调参技巧1、知道SVM相关的各种概念
线性可分一条直线可以分割开两种类别 间隔分割线两边直线之间的间隔 支持向量分割线两边直线上的点 非线性支持向量机在高维空间形成分割超平面映射到低维空间形成分割界限。 分割超平面两个集合上的距离最近的两个点的垂直平分面。
2、知道目标函数、损失函数、正则项的意义
弄清楚目标函数、损失函数、正则项这几个概念
2.1、目标函数
目标函数指所关心的目标与相关的因素的函数关系。举个例子假如我们想要预测公司楼下手抓饼店明天能卖多少张手抓饼已知过去10天每天卖多少以及每天的天气情况是否有节假日和手抓饼店老板和老板娘的感情状况这几项数据都统计好了。对应到目标函数的解释就是 关心的目标是明天能卖多少手抓饼未知量。 相关因素是每天数量天气情况节假日老板老板娘感情状况已知量。 目标函数按照一定的思路把这些已知条件利用起来去求解未知量的函数关系式。 目标函数f(x)就是用设计变量来表示的所追求的目标形式所以目标函数就是设计变量的函数是一个标量。简单的说就是函数表达式是指所关心的目标(某一变量)与相关的因素(某些变量)的函数关系。
2.2、损失函数
也叫代价函数是同一个东西。是用来评估模型的预测值f(x)与真实值Y的差距它是一个非负实值函数。稍等一下为什么是非负的呢举个例子比如上面说的手抓饼模型预测第一天是30真实值是29差距30-29是1预测第二天是35真实值是36差距35-36是-1如果把它们直接加起来就是1-1 0难到没有差距非常明显是错误的差距是0人家还以为都预测对了呢其实都预测错了所以不能有负值可以用绝对值平方或者一些其它的数学运算。 常用的损失函数有 LR逻辑回归log对数损失函数 参考 最小二乘法平方损失函数 参考 Adaboost指数损失函数 后面会专门介绍这个算法 好的现在我们再来看一下目标函数通常的定义形式 Obj(Θ)L(Θ)Ω(Θ)
中文翻译一下是 目标函数 损失函数 正则项
目标函数和损失函数我们都理解了那么正则项是干什么的呢
2.3、正则化添加噪音避免过拟合
回到我们前面举的那个例子如果第五天有个人中彩票了然后兴奋的来买了1百张手抓饼比几天的量都多很明显这个情况会影响我们的模型训练这个情况就是过拟合。而加入正则项的目的就是使模型避免过拟合。 常用的有L1L2正则化很熟悉对不对前面讲过的线性代数中的L1L2范数有些类似。其实本质是一样的在机器学习里叫正则化线性代数叫范数统计学里叫惩罚项。 机器学习里L1使用的是绝对值距离也叫曼哈顿距离L2使用的是平方距离也叫做欧式Euclidean距离 线性代数L1 范数计算的是向量所有元素绝对值的和L2 范数计算的是通常意义上的向量长度
目标函数损失函数和正则项的作用优化损失函数使模型避免欠拟合使损失函数最小化优化正则项使模型避免过拟合。
3、了解SVM算法原理
即先求每个点到每条直线的最小值这样每条直线对应一个最小距离值再从这组距离值中找出最大值这个最大值对应的直线也就是我们需要的分割超平面。 w为对应系数矩阵A,BΦx代表的是变量矩阵(x,y) y(xi)0代表点在平面上。0代表点在平面的上方。 y(xi)0代表的是在分隔超平面的一侧yi1;
4、知道SVM的目标函数
知道目标函数分割超平面的表达式以及对应的含义某点到某分隔超平面的距离需要找到最优的分隔超平面即先找到每个点到每条直线的最小距离之后得到每条直线对应的最小距离组成一个数组再找出这组数中的最大值对应的分隔超平面即为所求的最优分隔超平面所以求目标函数的过程才是一个先求最小值而后求最大值的步骤知道最小和最大代表的含义
5、知道SVM的损失函数以及公式
SVM分对了损失值为0分错了损失值为距离支持向量所在的直线的距离。
6、知道SVM支持向量机的计算过程
先求出点到直线距离的一般表示形式。由于是求所有点到直线的距离所以需要除以一个w来做归一化处理。由于一系列的约束条件转化为了用拉格朗日乘子法优化的问题求极值的问题利用拉格朗日的一些性质来转化最终得到一个最简的式子。之后将对应的点代入这个式子就能求出一般表达式中对应的一个参数进而得到整个式子。
6.1、推导过程
通过缩放w,b即||w||总是可以使得yiy(xi)1得到满足。即此处多了一个限制条件根据这个限制条件来进一步转化目标函数。 由约束条件yiy(xi)1得到原目标函数可以转化为新目标函数 线性可分SVM的目标函数 将目标函数转化为拉格朗日乘子法来求。 一般问题的优化的解法即求极值的问题拉格朗日乘子法 拉格朗日乘子法是一种经典的求解条件极值的解析方法可将所有约束的优化模型问题转化为无约束极值问题的求解。 求极大极小问题先求极小值即先对w,b求导数。 得到上面两个条件后代入拉格朗日函数得到下面的式子 由前面得到得条件接着求解 原函数求的是极小极大值而拉格朗日对偶函数求的是极大极小值参考上图所以需要先求该式子的最小值这里通过添加负号做出对应的转换。 求的最小值对应的α值 根据α值得到下面的值
6.2、推导实例 注意计算这个最小值的过程求一个一元二次方程的最小值的过程 注意这个结论
7、了解核函数相关知识
核函数思想将不可分的输入数据映射到核函数空间中来进行分割。 知道核函数为什么被使用减小运算的复杂度。 知道这几个核函数多项核函数、高斯核函数RBF、Sigmoid核函数。 知道为什么需要核函数将原始输入空间映射到新的特征空间从而使得原本线性不可分的样本在核空间中可分。
8、了解SVM算法的调参技巧
知道调参中常用的参数以及对应的参数的含义。 详情参考https://blog.csdn.net/qq_16633405/article/details/70243030