当前位置: 首页 > news >正文

如何运营垂直网站淮安做网站的公司

如何运营垂直网站,淮安做网站的公司,上海网站制作科技公司,淘宝的网站架构这一章学起来较为简单#xff0c;也比较好理解。 4.1基本流程——介绍了决策树的一个基本的流程。叶结点对应于决策结果#xff0c;其他每个结点则对应于一个属性测试#xff1b;每个结点包含的样本集合根据属性测试的结果被划分到子结点中#xff1b;根结点包含样本全集也比较好理解。 4.1基本流程——介绍了决策树的一个基本的流程。叶结点对应于决策结果其他每个结点则对应于一个属性测试每个结点包含的样本集合根据属性测试的结果被划分到子结点中根结点包含样本全集从根结点到每个叶结点的路径对应了一个判定测试序列。并且给出了决策树学习的基本算法。 上述算法递归返回的情形2和情形3不同之处情形2是利用当前结点的后验分布情形3则是把父结点的样本分布作为当前结点的先验分布。 4.2划分选择——对应决策树学习基本算法的第8步选择最优划分属性ID3决策树学习算法以信息增益为准则来选择划分属性C4.5决策树算法使用增益率CART决策树使用基尼指数来选择划分属性。 4.3剪枝处理——它是对付overfitting的主要手段基本策略有预剪枝和后剪枝。 4.4连续与缺失值——连续属性离散化技术可以面对学习任务中遇到的连续属性若当前结点划分属性为连续属性该属性还可作为其后代结点的划分属性。面对缺失值需要解决两个问题1是如何在属性值缺失的情况下进行划分属性选择2是给定划分属性若样本在该属性上的值缺失如何对样本进行划分 4.5多变量决策树——介绍了多变量决策树一定程度上能简化决策树。 术语学习 决策树 decision tree 分而治之 divide-and-conquer 纯度 purity 信息熵 information entropy 信息增益 information gain 迭代二分器 Iterative Dichotomiser ID3算法中的ID 增益率 gain ratio 固有值 intrinsic value CART Classification and Regression Tree 基尼指数 Gini index 剪枝 pruning 预剪枝 prepruning 后剪枝 postpruning 决策树桩 decision stump 二分法 bi-partition 轴平行 axis-parallel 多变量决策树 multivariate dicision tree 斜决策树 oblique decision tree 增量学习 incremental learning 4.1 试证明对于不含冲突数据(即特征向量完全相同但标记不同)的训练集必存在与训练集一致(即训练误差为 0) 的决策树。 回顾第1章和第2章定义 我们把色泽 “根蒂” “敲声作为三个坐标轴则它们张成一个用于描述西瓜的三维空间每个西瓜都可在这个空间中找到自己的坐标位置.由于空间中的每个点对应一个坐标向量因此我们也把一个示例称为一个特征向量” (feature vector). 这里关于示例结果的信息例如好瓜称为标记 (labe1); 拥有了标记信息的示例则称为样例 (examp1e). 更一般地我们把学习器的实际预测输出与样本的真实输出之间的差异称为误差 (error),学习器在训练集上的误差称为训练误差 (training error)或经验误差 (empirical error) 在新样本上的误差称为泛化误差 (generalization error). 结合上述决策树学习的基本算法可以知道如果以每个西瓜的编号作为划分属性那么得到的决策树桩就是与训练集一致的。 4.2 试析使用最小训练误差作为决策树划分选择准则的缺陷。 在上面的介绍中我们有意忽略了表 4.1 中的编号这一列.若把编号也作为一个候选划分属性则根据式4.2均可计算出它的信息增益为 0.998 远大于其他候选划分属性.这很容易理解编号将产生 17 个分支每个分支结点仅包含一个样本这些分支结点的纯度己达最大.然而这样的决策树显然不具有泛化能力无法对新样本进行有效预测. 4.3 试编程实现基于信息熵进行划分选择的决策树算法并为表 4.3 中数据生成一棵决策树。 待补充 4.4 试编程实现基于基尼指数进行划分选择的决策树算法为表 4.2 中数据生成预剪枝、后剪枝决策树并与未剪枝决策树进行比较. 待补充 4.5 试编程实现基于对率回归进行划分选择的决策树算法并为表 4.3 中数据生成一棵决策树. 待补充 4.6 试选择 4 个 UCI 数据集对上述 3 种算法所产生的未剪枝、预剪枝、后剪枝决策树进行实验比较并进行适当的统计显著性检验. 待补充 4.7 图 4.2 是一个递归算法若面临巨量数据则决策树的层数会很深使用递归方法易导致栈溢出。试使用队列数据结构以参数MaxDepth 控制树的最大深度写出与图 4.2 等价、但不使用递归的决策树生成算法. 待补充 4.8 试将决策树生成的深度优先搜索过程修改为广度优先搜索以参数MaxNode控制树的最大结点数将题 4.7 中基于队列的决策树算法进行改写。对比题 4.7 中的算法试析哪种方式更易于控制决策树所需存储不超出内存。 待补充 4.9 试将 4.4.2 节对缺失值的处理机制推广到基尼指数的计算中去. 使用式4.9,4.10,4.11对照式4.5,4.6 G i n i ( D ) 1 − ∑ k 1 ∣ y ∣ p ~ k 2 G i n i _ i n d e x ( D , a ) ρ × G i n i _ i n d e x ( D ~ , a ) ∑ v 1 V r ~ v G i n i ( D v ) Gini(D) 1- \sum_{k1}^{|y|}\tilde{p}_{k}^2 \\ Gini\_index(D,a) \rho \times Gini\_index(\tilde{D},a) \\ \sum_{v1}^V\tilde{r}_{v}Gini(D^v) Gini(D)1−k1∑∣y∣​p~​k2​Gini_index(D,a)ρ×Gini_index(D~,a)v1∑V​r~v​Gini(Dv) 4.10 从网上下载或自己编程实现任意一种多变量决策树算法并观察其在西瓜数据集 3.0 上产生的结果 待补充
http://www.zqtcl.cn/news/995581/

相关文章:

  • 网络运行管理系统seo关键词优化方法
  • 西安学校网站建设价格徐州网页关键词优化
  • 上海哪个网站能应聘做家教的营销网站中最重要的部分是
  • 一个设计网站多少钱WordPress的简约博客主题
  • 普通的宣传网站用什么做济南市工程建设技术监督局网站
  • 合肥网站建设公司还有不dw如何制作表格网页
  • 讯美智能网站建设自己域名做网站
  • 自己做网站优化韩国外贸平台
  • 齐河建设局网站长沙市住房和建设局官方网站
  • 萧山区住房和城乡建设局网站wordpress网站合并
  • 做背景网站网站建设与维护制作网页
  • 网站建设公司知名营销型企业网站项目策划表
  • 写作网站哪个最好企业培训机构有哪些
  • 江苏省水利工程建设局网站域名不备案可以正常使用吗
  • 对网站开发语言的统计网站内容建设包括什么
  • 西安高端网站建设怎样开公司
  • 华为做网站免费签名设计在线生成
  • 网站产品整合推广爱网聊的男人是什么心理
  • 武威市建设厅网站汕头seo外包公司
  • 酒泉网站怎么做seo东莞高明网站设计
  • 沧州网站建设联系电话杭州设计公司logo
  • 网站子站点是什么意思亚马逊国际站官网
  • 影视cms哪个好苏州关键词优化搜索排名
  • 杭州微信网站开发网站优化公司免费咨询
  • 宣武富阳网站建设南昌公众号开发公司
  • 免费的网站推荐下载wordpress %s
  • 网站的原理百度旧版本下载
  • 衡水网站建设地方新网域名证书下载
  • 自己做的创意的网站什么是淘宝seo
  • 网站开发包含哪些网站设计实例