当前位置: 首页 > news >正文

做网站做推广阿里巴巴做短视频网站

做网站做推广,阿里巴巴做短视频网站,wordpress大菜单,网站免费做软件有哪些Bagging策略1.总样本数量是n个#xff0c;从样本中重采样(有放回的)选出n个样本 #xff0c;会有约33.2%的样本不会被抽到2.在所有属性上对这n个样本建立分类器(比如决策树#xff0c;svm#xff0c;lr)3.重复步骤1和2m次#xff0c;建立了m个分类器4.将数据放在这m个分类…Bagging策略1.总样本数量是n个从样本中重采样(有放回的)选出n个样本 会有约33.2%的样本不会被抽到2.在所有属性上对这n个样本建立分类器(比如决策树svmlr)3.重复步骤1和2m次建立了m个分类器4.将数据放在这m个分类器上根据这m个分类器的投票结果决定数据属于哪一类随机森林--在Bagging基础上做了改进1.从样本中重采样(有放回的)选出n个样本与bagging相同2.从属性中选出k个属性选择最佳分割属性作为节点建立CART决策树假设有F个特征k一般取log2F3.重复步骤1和2m次建立了m个决策树分类器4.这m个决策树构成了随机森林根据投票结果决定数据属于哪一类随机森林和bagging主要是降低方差。在随机森林中也可以使用svm、lr等其他的分类器。随机森林中oob error的计算对于每棵树来说样本集采样都是放回采样所以必然有一些样本没有被采样到没有被采样到的样本称为袋外数据(out of bag)。(1-1/M)^M求极限得1/e,也就是有大约 1/e的数据没有被采样到。可以利用oob来验证随机森林的性能。如上图*表示该样本没有被gt采样到比如(xn,yn)假设它只没有被g2,g3,gT采样到对于这个样本可以让g2,g3,gT分类取投票结果如果与其真实分类不同则错误样本数加一。同样的对于所有的样本将他们用没有使用它们的树集合来分类统计他们的错误数然后除以总的样本数也就是oob error了。公式如下图所示随机森林进行特征重要性度量的详细说明--可以借此进行特征选择特征选择方法中有一种方法是利用随机森林进行特征的重要性度量选择重要性较高的特征。下面对如何计算重要性进行说明。1 特征重要性​度量计算某个特征X的重要性时具体步骤如下1)对每一颗决策树选择相应的袋外数据(out of bagOOB)​计算袋外数据误差记为errOOB1.所谓袋外数据是指每次建立决策树时通过重复抽样得到一个数据用于训练​决策树这时还有大约1/3的数据没有被利用没有参与决策树的建立。这部分数据可以用于对决策树的性能进行评估计算模型的预测错误率称为袋外数据误差。​这已经经过证明是无偏估计的,所以在随机森林算法中不需要再进行交叉验证或者单独的测试集来获取测试集误差的无偏估计。​2)随机对袋外数据OOB所有样本的特征X加入噪声干扰(可以随机改变样本在特征X处的值)再次计算袋外数据误差记为errOOB2。3)​假设森林中有N棵树则特征X的重要性∑(errOOB2-errOOB1)/N。这个数值之所以能够说明特征的重要性是因为如果加入随机噪声后袋外数据准确率大幅度下降(即errOOB2上升)说明这个特征对于样本的预测结果有很大影响进而说明重要程度比较高。​2 特征选择在特征重要性的基础上特征选择的步骤如下1)计算每个特征的重要性并按降序排序2)确定要剔除的比例依据特征重要性剔除相应比例的特征得到一个新的特征集3)用新的特征集重复上述过程直到剩下m个特征(m为提前设定的值)。4)根据上述过程中得到的各个特征集和特征集对应的袋外误差率选择袋外误差率最低的特征集。AdaBoosting (Adaptive Boosting)提高前一轮被弱分类器错误分类样本的权重降低那些正确分类的样本的权值加权多数表决加大分类误差小的分类器的权值减小分类误差大的分类器的权值AdaBoost算法是模型为加法模型、损失函数为指数函数、学习算法为前向分布算法的二类学习算法。AdaBoost算法可以看做是采用指数损失函数的提升方法每个基函数的学习算法为前向分步算法。AdaBoost的训练误差是以指数速率下降的不需要事先知道下界具有自适应性它能自适应弱分类器的训练误差。boosting的思想主要是降低偏差。GBDT(Gradient Bossting Decision Tree)提升树是以分类树或回归树最为基本分类器的提升方法。简单的损失函数优化比较简单可以使用残差作为拟合的目标对于一般的损失函数来说利用损失函数的负梯度在当前模型的值作为残差的近似值对于决策树其实可以把它表示为下式即是把特征空间划分为多个区域每个区域返回某个值作为决策树的预测值gbdt算法的步骤随机森林与gbdt的异同随机森林的优点实现简单训练速度快泛化能力强可以并行实现因为训练时树与树之间是相互独立的相比单一决策树能学习到特征之间的相互影响且不容易过拟合能处理高维数据(即特征很多)并且不用做特征选择因为特征子集是随机选取的对于不平衡的数据集可以平衡误差相比SVM不是很怕特征缺失因为待选特征也是随机选取训练完成后可以给出哪些特征比较重要。随机森林的缺点在噪声过大的分类和回归问题还是容易过拟合相比于单一决策树它的随机性让我们难以对模型进行解释。GBDT和随机森林的相同点1、都是集成算法都是由多棵树组成2、最终的结果都是由多棵树一起决定GBDT和随机森林的不同点1、组成随机森林的树可以是分类树也可以是回归树而GBDT只由回归树组成2、组成随机森林的树可以并行生成而GBDT只能是串行生成3、对于最终的输出结果而言随机森林采用多数投票等而GBDT则是将所有结果累加起来或者加权累加起来4、随机森林对异常值不敏感GBDT对异常值非常敏感5、随机森林对训练集一视同仁GBDT是基于权值的弱分类器的集成6、随机森林是通过减少模型方差提高性能GBDT是通过减少模型偏差提高性能gbdt正则化的几个参数ShrinkageShrinkage就是将每棵树的输出结果乘一个因子(0fm(x)fm−1(x)ν⋅ΣJmj1γjmI(x∈Rjm)fm(x)fm−1(x)ν⋅Σj1JmγjmI(x∈Rjm)ESL书中这样讲The parameter νν can be regarded as controlling the leanring rate of the boosting procedureνν和迭代轮数M(树个数)是一个tradeoff推荐的是νν值设置小一点(如0.1)而M设置大一些。这样一般能有比较好的准确率代价是训练时间变长(与M成比例)。SubsamplingSubsampling其实源于bootstrap averaging(bagging)思想GBDT里的做法是在每一轮建树时样本是从训练集合中无放回随机抽样的ηη部分典型的ηη值是0.5。这样做既能对模型起正则作用也能减少计算时间。事实上XGBoost和Sklearn的实现均借鉴了随机森林除了有样本层次上的采样也有特征采样。也就是说建树的时候只从随机选取的一些特征列寻找最优分裂。Tree ensemble算法的特征重要度计算集成学习因具有预测精度高的优势而受到广泛关注尤其是使用决策树作为基学习器的集成学习算法。树的集成算法的著名代码有随机森林和GBDT。随机森林具有很好的抵抗过拟合的特性并且参数(决策树的个数)对预测性能的影响较小调参比较容易一般设置一个比较大的数。GBDT具有很优美的理论基础一般而言性能更有优势。基于树的集成算法还有一个很好的特性就是模型训练结束后可以输出模型所使用的特征的相对重要度便于我们选择特征理解哪些因素是对预测有关键影响这在某些领域(如生物信息学、神经系统科学等)特别重要。本文主要介绍基于树的集成算法如何计算各特征的相对重要度。使用boosted tree作为学习算法的优势使用不同类型的数据时不需要做特征标准化/归一化可以很容易平衡运行时效率和精度比如使用boosted tree作为在线预测的模型可以在机器资源紧张的时候截断参与预测的树的数量从而提高预测效率学习模型可以输出特征的相对重要程度可以作为一种特征选择的方法模型可解释性好对数据字段缺失不敏感能够自动做多组特征间的interaction具有很好的非性线性特征重要度的计算Friedman在GBM的论文中提出的方法特征j[Math Processing Error]的全局重要度通过特征j[Math Processing Error]在单颗树中的重要度的平均值来衡量J2j^1M∑m1MJ2j^(Tm)[Math Processing Error]其中M是树的数量。特征j[Math Processing Error]在单颗树中的重要度的如下J2j^(T)∑t1L−1i2t^1(vtj)[Math Processing Error]其中L[Math Processing Error]为树的叶子节点数量L−1[Math Processing Error]即为树的非叶子节点数量(构建的树都是具有左右孩子的二叉树)vt[Math Processing Error]是和节点t[Math Processing Error]相关联的特征i2t^[Math Processing Error]是节点t[Math Processing Error]分裂之后平方损失的减少值。实现代码片段为了更好的理解特征重要度的计算方法下面给出scikit-learn工具包中的实现代码移除了一些不相关的部分。下面的代码来自于GradientBoostingClassifier对象的feature_importances属性的计算方法def feature_importances_(self):total_sum np.zeros((self.n_features, ), dtypenp.float64)for tree in self.estimators_:total_sum tree.feature_importances_importances total_sum / len(self.estimators_)return importances其中self.estimators_是算法构建出的决策树的数组tree.feature_importances_ 是单棵树的特征重要度向量其计算方法如下cpdef compute_feature_importances(self, normalizeTrue):Computes the importance of each feature (aka variable).while node ! end_node:if node.left_child ! _TREE_LEAF:# ... and node.right_child ! _TREE_LEAF:left nodes[node.left_child]right nodes[node.right_child]importance_data[node.feature] (node.weighted_n_node_samples * node.impurity -left.weighted_n_node_samples * left.impurity -right.weighted_n_node_samples * right.impurity)node 1importances / nodes[0].weighted_n_node_samplesreturn importances上面的代码经过了简化保留了核心思想。计算所有的非叶子节点在分裂时加权不纯度的减少减少得越多说明特征越重要。
http://www.zqtcl.cn/news/354166/

相关文章:

  • 河南锦路路桥建设有限公司网站网站建设会考什么
  • 高校网站建设研究意义餐饮vi设计案例
  • 触屏手机网站网站建设功能模块价格
  • 类似携程网的网站wordpress文章摘要调用
  • 好网站建设公司开发方案联盟营销的网络营销方式
  • logo免费生成网站洛阳网络建站公司
  • 建设工程部网站百度指数功能
  • 个人网站 商业时事新闻2022最新10月
  • 不会代码 怎么做网站网站视频管理系统
  • 网站空间 流量网上卡片制作
  • 网站排名seo软件机关网站源码
  • 网站手机端页面怎么做手机之家
  • 成都电子商务网站大庆城市投资建设网站
  • 电子商务网站费用wordpress 怎么手动更新
  • 中国空间站设计在轨飞行多少年南昌网站建设风格
  • 用php写的网站有哪些暖暖 视频 在线 观看 高清
  • 云空间网站怎么做海南旅游网网页制作
  • 常宁网站免费的ai作图软件
  • 网站建设讲师招聘如何做电商产品推广
  • 让百度收录网站网站开发流程进度表
  • 有几个网站能在百度做推广产品开发管理系统
  • 一个网站项目的价格表dz论坛seo
  • 企业做网站要多少钱哪个网站做动图
  • 知名企业网站例子4s店网站模板
  • 网站建设的信息安全防范技术初级买题做哪个网站好
  • 品牌营销网站建设东莞智通人才招聘网
  • 莒县建设局网站好的网站具备什么条件
  • 威海网站建设怎么样网上怎么推销自己的产品
  • 网站做SEO优化网站建设背景图片大小的修改
  • 看企业网站怎么做到百度秒收WordPress怎么可以上传图片