当前位置: 首页 > news >正文

上海的广告公司网站建设制作闹钟网站

上海的广告公司网站建设,制作闹钟网站,seo在网站建设中的作用,注册一个公司需要什么条件前言#xff1a; 本文总结的常见机器学习算法#xff08;主要是一些常规分类器#xff09;大概流程和主要思想。 朴素贝叶斯#xff1a; 有以下几个地方需要注意#xff1a; 1. 如果给出的特征向量长度可能不同#xff0c;这是需要归一化为通长度的向量#xff08;这里以…前言   本文总结的常见机器学习算法主要是一些常规分类器大概流程和主要思想。     朴素贝叶斯   有以下几个地方需要注意   1. 如果给出的特征向量长度可能不同这是需要归一化为通长度的向量这里以文本分类为例比如说是句子单词的话则长度为整个词汇量的长度对应位置是该单词出现的次数。   2. 计算公式如下      其中一项条件概率可以通过朴素贝叶斯条件独立展开。要注意一点就是 的计算方法而由朴素贝叶斯的前提假设可知 因此一般有两种一种是在类别为ci的那些样本集中找到wj出现次数的总和然后除以该样本的总和第二种方法是类别为ci的那些样本集中找到wj出现次数的总和然后除以该样本中所有特征出现次数的总和。   3. 如果 中 的某一项为0则其联合概率的乘积也可能为0即2中公式的分子为0为了避免这种现象出现一般情况下会将这一项初始化为1当然为了保证概率相等分 母应对应初始化为2这里因为是2类所以加2如果是k类就需要加k术语上叫做laplace光滑, 分母加k的原因是使之满足全概率公式。   朴素贝叶斯的优点   对小规模的数据表现很好适合多分类任务适合增量式训练。   缺点   对输入数据的表达形式很敏感。       决策树   决策树中很重要的一点就是选择一个属性进行分枝因此要注意一下信息增益的计算公式并深入理解它。   信息熵的计算公式如下:      其中的n代表有n个分类类别比如假设是2类问题那么n2。分别计算这2类样本在总样本中出现的概率p1和p2这样就可以计算出未选中属性分枝前的信息熵。   现在选中一个属性xi用来进行分枝此时分枝规则是如果xivx的话将样本分到树的一个分 支如果不相等则进入另一个分支。很显然分支中的样本很有可能包括2个类别分别计算这2个分支的熵H1和H2,计算出分枝后的总信息熵 H’p1*H1p2*H2.则此时的信息增益ΔHH-H’。以信息增益为原则把所有的属性都测试一边选择一个使增益最大的属性作为本次分枝属 性。   决策树的优点   计算量简单可解释性强比较适合处理有缺失属性值的样本能够处理不相关的特征   缺点   容易过拟合后续出现了随机森林减小了过拟合现象       Logistic回归   Logistic是用来分类的是一种线性分类器需要注意的地方有   1. logistic函数表达式为      其导数形式为      2. logsitc回归方法主要是用最大似然估计来学习的所以单个样本的后验概率为      到整个样本的后验概率      其中      通过对数进一步化简为      3. 其实它的loss function为-l(θ)因此我们需使loss function最小可采用梯度下降法得到。梯度下降法公式为:         Logistic回归优点   1、实现简单   2、分类时计算量非常小速度很快存储资源低   缺点   1、容易欠拟合一般准确度不太高   2、只能处理两分类问题在此基础上衍生出来的softmax可以用于多分类且必须线性可分       线性回归   线性回归才是真正用于回归的而不像logistic回归是用于分类其基本思想是用梯度下降法对最小二乘法形式的误差函数进行优化当然也可以用normal equation直接求得参数的解结果为      而在LWLR局部加权线性回归中参数的计算表达式为:      因为此时优化的是      由此可见LWLR与LR不同LWLR是一个非参数模型因为每次进行回归计算都要遍历训练样本至少一次。   线性回归优点   实现简单计算简单   缺点   不能拟合非线性数据       KNN算法   KNN即最近邻算法其主要过程为   1. 计算训练样本和测试样本中每个样本点的距离常见的距离度量有欧式距离马氏距离等   2. 对上面所有的距离值进行排序   3. 选前k个最小距离的样本   4. 根据这k个样本的标签进行投票得到最后的分类类别   如何选择一个最佳的K值这取决于数据。一般情况下在分类时较大的K值能够减小噪声的影响。但会使类别之间的界限变得模糊。一个较好的K值可通过各种启发式技术来获取比如交叉验证。另外噪声和非相关性特征向量的存在会使K近邻算法的准确性减小。   近邻算法具有较强的一致性结果。随着数据趋于无限算法保证错误率不会超过贝叶斯算法错误率的两倍。对于一些好的K值K近邻保证错误率不会超过贝叶斯理论误差率。   注马氏距离一定要先给出样本集的统计性质比如均值向量协方差矩阵等。关于马氏距离的介绍如下      KNN算法的优点   1. 思想简单理论成熟既可以用来做分类也可以用来做回归   2. 可用于非线性分类   3. 训练时间复杂度为O(n)   4. 准确度高对数据没有假设对outlier不敏感   缺点   1. 计算量大   2. 样本不平衡问题即有些类别的样本数量很多而其它样本的数量很少   3. 需要大量的内存       SVM   要学会如何使用libsvm以及一些参数的调节经验另外需要理清楚svm算法的一些思路   1. svm中的最优分类面是对所有样本的几何裕量最大为什么要选择最大间隔分类器请从数学角度上说明网易深度学习岗位面试过程中有被问到。答案就是几何间隔与样本的误分次数间存在关系 其中的分母就是样本到分类间隔距离分子中的R是所有样本中的最长向量值即      经过一系列推导可得为优化下面原始目标      2. 下面来看看拉格朗日理论      可以将1中的优化目标转换为拉格朗日的形式通过各种对偶优化KKD条件最后目标函数为      我们只需要最小化上述目标函数其中的α为原始优化问题中的不等式约束拉格朗日系数。   3. 对2中最后的式子分别w和b求导可得        由上面第1式子可以知道如果我们优化出了α则直接可以求出w了即模型的参数搞定。而上面第2个式子可以作为后续优化的一个约束条件。   4. 对2中最后一个目标函数用对偶优化理论可以转换为优化下面的目标函数      而这个函数可以用常用的优化方法求得α进而求得w和b。   5. 按照道理svm简单理论应该到此结束。不过还是要补充一点即在预测时有      那个尖括号我们可以用核函数代替这也是svm经常和核函数扯在一起的原因。   6. 最后是关于松弛变量的引入因此原始的目标优化公式为      此时对应的对偶优化公式为      与前面的相比只是α多了个上界。   SVM算法优点   可用于线性/非线性分类也可以用于回归   低泛化误差   容易解释   计算复杂度较低   缺点   对参数和核函数的选择比较敏感   原始的SVM只比较擅长处理二分类问题       Boosting   主要以Adaboost为例首先来看看Adaboost的流程图如下      从图中可以看到在训练过程中我们需要训练出多个弱分类器图中为3个每个弱分类器是由不同权 重的样本图中为5个训练样本训练得到其中第一个弱分类器对应输入样本的权值是一样的而每个弱分类器对最终分类结果的作用也不同是通过加权平均 输出的权值见上图中三角形里面的数值。那么这些弱分类器和其对应的权值是怎样训练出来的呢   下面通过一个例子来简单说明。   书中machine learning in action假设的是5个训练样本每个训练样本的维度为2在训练第一个分类器时5个样本的权重各为0.2. 注意这里样本的权值和最终训练的弱分类器组对应的权值α是不同的样本的权重只在训练过程中用到而α在训练过程和测试过程都有用到。   现在假设弱分类器是带一个节点的简单决策树该决策树会选择2个属性假设只有2个属性的一个然后计算出这个属性中的最佳值用来分类。   Adaboost的简单版本训练过程如下   1. 训练第一个分类器样本的权值D为相同的均值。通过一个弱分类器得到这5个样本请对应书中的例子来看依旧是machine learning in action的分类预测标签。与给出的样本真实标签对比就可能出现误差(即错误)。如果某个样本预测错误则它对应的错误值为该样本的权重如果分类 正确则错误值为0. 最后累加5个样本的错误率之和记为ε。   2. 通过ε来计算该弱分类器的权重α公式如下      3. 通过α来计算训练下一个弱分类器样本的权重D如果对应样本分类正确则减小该样本的权重公式为      如果样本分类错误则增加该样本的权重公式为      4. 循环步骤1,2,3来继续训练多个分类器只是其D值不同而已。   测试过程如下   输入一个样本到训练好的每个弱分类中则每个弱分类都对应一个输出标签然后该标签乘以对应的α最后求和得到值的符号即为预测标签值。   Boosting算法的优点   低泛化误差   容易实现分类准确率较高没有太多参数可以调   缺点   对outlier比较敏感       聚类   根据聚类思想划分   1. 基于划分的聚类:   K-means, k-medoids(每一个类别中找一个样本点来代表),CLARANS.   k-means是使下面的表达式值最小       k-means算法的优点   1k-means算法是解决聚类问题的一种经典算法算法简单、快速。   2对处理大数据集该算法是相对可伸缩的和高效率的因为它的复杂度大约是O(nkt)其中n是所有对象的数目k是簇的数目,t是迭代的次数。通常kn。这个算法通常局部收敛。   3算法尝试找出使平方误差函数值最小的k个划分。当簇是密集的、球状或团状的且簇与簇之间区别明显时聚类效果较好。    缺点   1k-平均方法只有在簇的平均值被定义的情况下才能使用且对有些分类属性的数据不适合。   2要求用户必须事先给出要生成的簇的数目k。   3对初值敏感对于不同的初始值可能会导致不同的聚类结果。   4不适合于发现非凸面形状的簇或者大小差别很大的簇。   5对于噪声和孤立点数据敏感少量的该类数据能够对平均值产生极大影响。   2. 基于层次的聚类   自底向上的凝聚方法比如AGNES。   自上向下的分裂方法比如DIANA。   3. 基于密度的聚类   DBSACN,OPTICS,BIRCH(CF-Tree),CURE.   4. 基于网格的方法   STING, WaveCluster.   5. 基于模型的聚类   EM,SOM,COBWEB.   以上这些算法的简介可参考聚类百度百科。       推荐系统   推荐系统的实现主要分为两个方面基于内容的实现和协同滤波的实现。   基于内容的实现   不同人对不同电影的评分这个例子可以看做是一个普通的回归问题因此每部电影都需要提前提取出一 个特征向量(即x值)然后针对每个用户建模即每个用户打的分值作为y值利用这些已有的分值y和电影特征值x就可以训练回归模型了(最常见的就是线性 回归)。这样就可以预测那些用户没有评分的电影的分数。值得注意的是需对每个用户都建立他自己的回归模型   从另一个角度来看也可以是先给定每个用户对某种电影的喜好程度即权值然后学出每部电影的特征最后采用回归来预测那些没有被评分的电影。   当然还可以是同时优化得到每个用户对不同类型电影的热爱程度以及每部电影的特征。具体可以参考Ng在coursera上的ml教程https://www.coursera.org/course/ml   基于协同滤波的实现   协同滤波CF可以看做是一个分类问题也可以看做是矩阵分解问题。协同滤波主要是基于每个人自 己的喜好都类似这一特征它不依赖于个人的基本信息。比如刚刚那个电影评分的例子中预测那些没有被评分的电影的分数只依赖于已经打分的那些分数并不需 要去学习那些电影的特征。   SVD将矩阵分解为三个矩阵的乘积公式如下所示      中间的矩阵sigma为对角矩阵对角元素的值为Data矩阵的奇异值(注意奇异值和特征值是不同的)且已经从大到小排列好了。即使去掉特征值小的那些特征依然可以很好的重构出原始矩阵。如下图所示      其中更深的颜色代表去掉小特征值重构时的三个矩阵。   果m代表商品的个数n代表用户的个数则U矩阵的每一行代表商品的属性现在通过降维U矩阵取 深色部分后每一个商品的属性可以用更低的维度表示假设为k维。这样当新来一个用户的商品推荐向量X则可以根据公式X*U1*inv(S1)得 到一个k维的向量然后在V’中寻找最相似的那一个用户相似度测量可用余弦公式等根据这个用户的评分来推荐主要是推荐新用户未打分的那些商品。 具体例子可以参考网页SVD在推荐系统中的应用。   另外关于SVD分解后每个矩阵的实际含义可以参考google吴军的《数学之美》一书不过个人感觉吴军解释UV两个矩阵时好像弄反了不知道大家怎样认为。或者参考machine learning in action其中的svd章节。       pLSA:   pLSA由LSA发展过来而早期LSA的实现主要是通过SVD分解。pLSA的模型图如下      公式中的意义如下      具体可以参考2010龙星计划机器学习中对应的主题模型那一讲       LDA   主题模型概率图如下      和pLSA不同的是LDA中假设了很多先验分布且一般参数的先验分布都假设为Dirichlet分布其原因是共轭分布时先验概率和后验概率的形式相同。       GDBT   GBDT(Gradient Boosting Decision Tree) 又 叫 MARTMultiple Additive Regression Tree)好像在阿里内部用得比较多所以阿里算法岗位面试时可能会问 到它是一种迭代的决策树算法该算法由多棵决策树组成所有树的输出结果累加起来就是最终答案。它在被提出之初就和SVM一起被认为是泛化能力 generalization)较强的算法。近些年更因为被用于搜索排序的机器学习模型而引起大家关注。   GBDT是回归树不是分类树。其核心就在于每一棵树是从之前所有树的残差中来学习的。为了防止过拟合和Adaboosting一样也加入了boosting这一项。   关于GDBT的介绍可以可以参考GBDTMART 迭代决策树入门教程 | 简介。       Regularization:   作用是网易电话面试时有问到   1. 数值上更容易求解   2. 特征数目太大时更稳定   3. 控制模型的复杂度光滑性。复杂性越小且越光滑的目标函数泛化能力越强。而加入规则项能使目标函数复杂度减小且更光滑。   4. 减小参数空间参数空间越小复杂度越低。   5. 系数越小模型越简单而模型越简单则泛化能力越强Ng宏观上给出的解释。   6. 可以看成是权值的高斯先验。       异常检测   可以估计样本的密度函数对于新样本直接计算其密度如果密度值小于某一阈值则表示该样本异常。 而密度函数一般采用多维的高斯分布。如果样本有n维则每一维的特征都可以看作是符合高斯分布的即使这些特征可视化出来不太符合高斯分布也可以对该特 征进行数学转换让其看起来像高斯分布比如说xlog(xc), xx^(1/c)等。异常检测的算法流程如下      其中的ε也是通过交叉验证得到的也就是说在进行异常检测时前面的p(x)的学习是用的无监 督后面的参数ε学习是用的有监督。那么为什么不全部使用普通有监督的方法来学习呢即把它看做是一个普通的二分类问题主要是因为在异常检测中异常 的样本数量非常少而正常样本数量非常多因此不足以学习到好的异常行为模型的参数因为后面新来的异常样本可能完全是与训练样本中的模式不同。   另外上面是将特征的每一维看成是相互独立的高斯分布其实这样的近似 并不是最好的但是它的计算量较小因此也常被使用。更好的方法应该是将特征拟合成多维高斯分布这时有特征之间的相关性但随之计算量会变复杂且样本 的协方差矩阵还可能出现不可逆的情况主要在样本数比特征数小或者样本特征维数之间有线性关系时。   上面的内容可以参考Ng的https://www.coursera.org/course/ml       EM算法   有时候因为样本的产生和隐含变量有关隐含变量是不能观察的而求模型的参数时一般采用最大似然估计由于含有了隐含变量所以对似然函数参数求导是求不出来的这时可以采用EM算法来求模型的参数的对应模型参数个数可能有多个EM算法一般分为2步   E步选取一组参数求出在该参数下隐含变量的条件概率值   M步结合E步求出的隐含变量条件概率求出似然函数下界函数本质上是某个期望函数的最大值。   重复上面2步直至收敛。   公式如下所示      M步公式中下界函数的推导过程      EM算法一个常见的例子就是GMM模型每个样本都有可能由k个高斯产生只不过由每个高斯产生的概率不同而已因此每个样本都有对应的高斯分布k个中的某一个此时的隐含变量就是每个样本对应的某个高斯分布。   GMM的E步公式如下计算每个样本对应每个高斯的概率      更具体的计算公式为      M步公式如下计算每个高斯的比重均值方差这3个参数      关于EM算法可以参考Ng的cs229课程资料 或者网易公开课斯坦福大学公开课 机器学习课程。       Apriori:   Apriori是关联分析中比较早的一种方法主要用来挖掘那些频繁项集合。其思想是   1. 如果一个项目集合不是频繁集合那么任何包含它的项目集合也一定不是频繁集合   2. 如果一个项目集合是频繁集合那么它的任何非空子集也是频繁集合   Aprioir需要扫描项目表多遍从一个项目开始扫描舍去掉那些不是频繁的项目得到的集合称为L然后对L中的每个元素进行自组合生成比上次扫描多一个项目的集合该集合称为C接着又扫描去掉那些非频繁的项目重复…   看下面这个例子   元素项目表格      如果每个步骤不去掉非频繁项目集则其扫描过程的树形结构如下      在其中某个过程中可能出现非频繁的项目集将其去掉用阴影表示为      上面的内容主要参考的是machine learning in action这本书。       FP Growth:   FP Growth是一种比Apriori更高效的频繁项挖掘方法它只需要扫描项目表2次。其中第1次扫描获得当个项目的频率去掉不符合支持度要求的项并对剩下的项排序。第2遍扫描是建立一颗FP-Tree(frequent-patten tree)。   接下来的工作就是在FP-Tree上进行挖掘。   比如说有下表      它所对应的FP_Tree如下      然后从频率最小的单项P开始找出P的条件模式基用构造FP_Tree同样的方法来构造P的条件模式基的FP_Tree在这棵树上找出包含P的频繁项集。   依次从m,b,a,c,f的条件模式基上挖掘频繁项集有些项需要递归的去挖掘比较麻烦比如m节点具体的过程可以参考博客Frequent Pattern 挖掘之二(FP Growth算法)里面讲得很详细。       参考资料    Harrington, P. (2012). Machine Learning in Action, Manning Publications Co. 最近邻算法维基百科 马氏距离维基百科    聚类百度百科 https://www.coursera.org/course/ml SVD在推荐系统中的应用 吴军 and 谷歌 (2012). 数学之美, 人民邮电出版社. 2010龙星计划机器学习对应的视频教程2010龙星计划机器学习视频教程 GBDTMART 迭代决策树入门教程 | 简介 Ng的cs229课程资料 斯坦福大学公开课 机器学习课程 Frequent Pattern 挖掘之二(FP Growth算法)   最后本文看了文章的朋友都会知道此文不是我的原创那么我就把出处留给你们方便交流   出处一http://mp.weixin.qq.com/s?__bizMzAxNTM4OTQxNQmid207179237idx1snf0582c970f8962b8fef730cc39df7173scene23srcid1017SoPlad4uaAGBMtqWvFl0#rd 出处二http://www.cnblogs.com/tornadomeet      转载于:https://www.cnblogs.com/molakejin/p/5149386.html
http://www.zqtcl.cn/news/409597/

相关文章:

  • 网站备案icp秦皇岛黄金海岸
  • dedecms 金融类网站模板wordpress dux5.3
  • 学校网站源码wordpress向网站上传文件怎么做
  • 电子商务网站建设说课稿济南网站建设方案报价
  • 谈谈设计和建设网站体会wordpress header在哪
  • 360免费建站怎么进不去域名托管
  • 做网站视频存储网站建设有云端吗
  • 建网站如何上传南通 网站优化
  • 青海学会网站建设公司果汁网站模板
  • 10_10_网站建站怎么做网站链接支付
  • 九台网站甘肃网站优化
  • phpcms 网站源码建设银行科技中心网站首页
  • 营销型网站建设php源码无锡设计网站公司
  • 在线制作简历的网站绍兴seo全网营销
  • 个人做网站接装修活哪个网站好长沙企业网站建设分公司
  • 青岛网站制作辰星辰中国万网icp网站备案专题
  • 做淘宝相关网站上海网站建设做物流一
  • 服装配件网站建设 中企动力静态网站 后台
  • 做网站较好的框架网站建设的定位是什么
  • 如何保护自己的网站桂林医院网站建设
  • 产品品牌策划方案佛山网站优化美姿姿seo
  • 北京城建一建设发展有限公司网站大连在哪个省的什么位置
  • 北京知名网站建设公司排名学校诗歌网站建设
  • 个人做网站接装修活哪个网站好上海造价信息网官网
  • 网页上做网会员网站备案怎么写oa报表网站开发
  • 郑州服装网站建设网站的层级
  • 东莞建设网站制作怎么建立信息网站平台
  • 网站建设的公司服务手机上做ppt的软件
  • 体育网站模版爱站网
  • 建设部网站最新消息浏览器网站大全免费