网站开发网上宠物店管理系统,wordpress教程php二次开发,建立网站大概投入,如何做网站报价转自#xff1a;JerryLeadhttp://www.cnblogs.com/jerrylead/archive/2011/03/13/1982639.html简介支持向量机基本上是最好的有监督学习算法了。最开始接触SVM是去年暑假的时候#xff0c;老师要求交《统计学习理论》的报告#xff0c;那时去网上下了一份入门教程#xff0… 转自JerryLeadhttp://www.cnblogs.com/jerrylead/archive/2011/03/13/1982639.html简介支持向量机基本上是最好的有监督学习算法了。最开始接触SVM是去年暑假的时候老师要求交《统计学习理论》的报告那时去网上下了一份入门教程里面讲的很通俗当时只是大致了解了一些相关概念。这次斯坦福提供的学习材料让我重新学习了一些SVM知识。我看很多正统的讲法都是从VC 维理论和结构风险最小原理出发然后引出SVM什么的还有些资料上来就讲分类超平面什么的。这份材料从前几节讲的logistic回归出发引出了SVM既揭示了模型间的联系也让人觉得过渡更自然。重新审视logistic回归Logistic回归目的是从特征学习出一个0/1分类模型而这个模型是将特性的线性组合作为自变量由于自变量的取值范围是负无穷到正无穷。因此使用logistic函数或称作sigmoid函数将自变量映射到(0,1)上映射后的值被认为是属于y1的概率。形式化表示就是假设函数其中x是n维特征向量函数g就是logistic函数。的图像是可以看到将无穷映射到了(0,1)。而假设函数就是特征属于y1的概率。当我们要判别一个新来的特征属于哪个类时只需求若大于0.5就是y1的类反之属于y0类。再审视一下发现只和有关0那么g(z)只不过是用来映射真实的类别决定权还在。还有当时1反之0。如果我们只从出发希望模型达到的目标无非就是让训练数据中y1的特征而是y0的特征。Logistic回归就是要学习得到使得正例的特征远大于0负例的特征远小于0强调在全部训练实例上达到这个目标。图形化表示如下中间那条线是logistic回顾强调所有点尽可能地远离中间那条线。学习出的结果也就中间那条线。考虑上面3个点A、B和C。从图中我们可以确定A是×类别的然而C我们是不太确定的B还算能够确定。这样我们可以得出结论我们更应该关心靠近中间分割线的点让他们尽可能地远离中间线而不是在所有点上达到最优。因为那样的话要使得一部分点靠近中间线来换取另外一部分点更加远离中间线。我想这就是支持向量机的思路和logistic回归的不同点一个考虑局部不关心已经确定远离的点一个考虑全局已经远离的点可能通过调整中间线使其能够更加远离。这是我的个人直观理解。形式化表示我们这次使用的结果标签是y-1,y1替换在logistic回归中使用的y0和y1。同时将替换成w和b。以前的其中认为。现在我们替换为b后面替换为即。这样我们让进一步。也就是说除了y由y0变为y-1只是标记不同外与logistic回归的形式化表示没区别。再明确下假设函数上一节提到过我们只需考虑的正负问题而不用关心g(z)因此我们这里将g(z)做一个简化将其简单映射到y-1和y1上。映射关系如下函数间隔functional margin和几何间隔geometric margin给定一个训练样本x是特征y是结果标签。i表示第i个样本。我们定义函数间隔如下可想而知当时在我们的g(z)定义中的值实际上就是。反之亦然。为了使函数间隔最大更大的信心确定该例是正例还是反例当时应该是个大正数反之是个大负数。因此函数间隔代表了我们认为特征是正例还是反例的确信度。继续考虑w和b如果同时加大w和b比如在前面乘个系数比如2那么所有点的函数间隔都会增大二倍这个对求解问题来说不应该有影响因为我们要求解的是同时扩大w和b对结果是无影响的。这样我们为了限制w和b可能需要加入归一化条件毕竟求解的目标是确定唯一一个w和b而不是多组线性相关的向量。这个归一化一会再考虑。刚刚我们定义的函数间隔是针对某一个样本的现在我们定义全局样本上的函数间隔说白了就是在训练样本上分类正例和负例确信度最小那个函数间隔。接下来定义几何间隔先看图假设我们有了B点所在的分割面。任何其他一点比如A到该面的距离以表示假设B就是A在分割面上的投影。我们知道向量BA的方向是分割面的梯度单位向量是。A点是所以B点是x利用初中的几何知识带入得进一步得到实际上就是点到平面距离。再换种更加优雅的写法当时不就是函数间隔吗是的前面提到的函数间隔归一化结果就是几何间隔。他们为什么会一样呢因为函数间隔是我们定义的在定义的时候就有几何间隔的色彩。同样同时扩大w和bw扩大几倍就扩大几倍结果无影响。同样定义全局的几何间隔最优间隔分类器optimal margin classifier回想前面我们提到我们的目标是寻找一个超平面使得离超平面比较近的点能有更大的间距。也就是我们不考虑所有的点都必须远离超平面我们关心求得的超平面能够让所有点中离它最近的点具有最大间距。形象的说我们将上面的图看作是一张纸我们要找一条折线按照这条折线折叠后离折线最近的点的间距比其他折线都要大。形式化表示为这里用1规约w使得是几何间隔。到此我们已经将模型定义出来了。如果求得了w和b那么来一个特征x我们就能够分类了称为最优间隔分类器。接下的问题就是如何求解w和b的问题了。由于不是凸函数我们想先处理转化一下考虑几何间隔和函数间隔的关系我们改写一下上面的式子这时候其实我们求的最大值仍然是几何间隔只不过此时的w不受的约束了。然而这个时候目标函数仍然不是凸函数没法直接代入优化软件里计算。我们还要改写。前面说到同时扩大w和b对结果没有影响但我们最后要求的仍然是w和b的确定值不是他们的一组倍数值因此我们需要对做一些限制以保证我们解是唯一的。这里为了简便我们取。这样的意义是将全局的函数间隔定义为1也即是将离超平面最近的点的距离定义为。由于求的最大值相当于求的最小值因此改写后结果为这下好了只有线性约束了而且是个典型的二次规划问题目标函数是自变量的二次函数。代入优化软件可解。到这里发现这个讲义虽然没有像其他讲义一样先画好图画好分类超平面在图上标示出间隔那么直观但每一步推导有理有据依靠思路的流畅性来推导出目标函数和约束。