当前位置: 首页 > news >正文

全国建设网站网站开发实训小结

全国建设网站,网站开发实训小结,云龙徐州网站开发,安卓开发前景如何1. MapReduce Architecture MapReduce是一套可编程的框架#xff0c;大部分MapReduce的工作都能够用Pig或者Hive完毕。可是还是要了解MapReduce本身是怎样工作的#xff0c;由于这才是Hadoop的核心#xff0c;而且能够为以后优化和自己写做准备。 Job Client, 就是用户 Job … 1. MapReduce Architecture MapReduce是一套可编程的框架大部分MapReduce的工作都能够用Pig或者Hive完毕。可是还是要了解MapReduce本身是怎样工作的由于这才是Hadoop的核心而且能够为以后优化和自己写做准备。   Job Client, 就是用户 Job Tracker和Task Tracker也是一种Master - Slave构建   工作流程MapReduce Pipeline   Job Client提交了MapReduce的程序比方jar包中的二进制文件。所须要的数据结果输出位置提交给Job Tracker. Job Tracker会首先询问Name Node, 所须要的数据都在哪些block里面然后就近选择一个Task Tracker(离这些所需数据近期的一个task tracker,可能是在同一个Node上或者同一个Rack上或者不同rack上)把这个任务发送给该Task Tracker Task Tracker来真正运行该任务。Task Tracker内部有Task Slots来真正运行这些任务。假设运行失败了。Task Tracker就好汇报给Job Tracker Job Tracker就再分配给别的Task Tracker来运行。Task Tracker在运行过程中要不断的向Job Tracker汇报。最后Task Tracker运行完毕后汇报给Job Tracker。Job Tracker就更新任务状态为成功。   注意当用户提交一个MapReduce任务的时候不只同一时候把任务提交给Job Tracker同一时候还会拷贝一份到HDFS的一个公共位置图中的咖啡位置由于传递代码和命令相对要easy一些。然后Task Tracker就能够非常方便的得到这些代码。   详细步骤就是图中的7步。 2. MapReduce Internals   Split阶段依据Input Format。把输入数据切割成小部分该阶段与Map任务同一时候运行切割后就放到不同的Mapper里面。 Input Format: 决定了数据怎样被切割放入Mapper。比方Log, 数据库二进制码等。 Map阶段把切割后传入的splits转化成一些key-value对。怎样转化取决于用户代码怎么写的。 Shuffle  Sort阶段把Map阶段得到的数据归类然后送给Reducers。 Reduce阶段把送入的Map数据Key, Value依照用户的代码进行整合处理。 Output Format: Reduce阶段处理完后。结果依照此格式放入HDFS的输出文件夹。   Imperative Programming Paradigm: 把计算当做一系列改变程序状态的过程。也就是程序化编程。更加关注对象和状态。   Functional Programming Paradigm: 大致就是函数化编程把一系列计算作为一个数学函数。Hadoop使用的是这样的编程范式。有输入有输出没有对象没有状态。   为了优化起见Hadoop还加入了很多其它的一个接口combine阶段见下图。主要是在输送到Shuffle/sort阶段前。如今本地进行一次小的Reduce计算。这样能够省非常多带宽还记得job的代码放入一个公共区域了吗 上面的整个过程看上去可能不那么直观可是这是Hadoop最难理解的部分了。理解了这个流程Hadoop Pipeline就更easy理解以后的内容了。   3. MapReduce Example   举样例来说明在实际的机器操作中Hadoop怎样完毕上述任务。   在Windows环境下安装了一个hyperV软件。里面有四个Hadoop节点。每一个Hadoop节点都是一个Ubuntu环境。 能够看到上面有一个Name Node,还有三个Data Node。 首先连接上Name Node。而且打开一个Data Node节点。进入Name Node的Ubuntu系统中。打开一个终端。输入jps能够看到jvm里面正在运行的东西。 在Data Node机器中运行相同命令能够看到里面运行着DataNode, Jps, TaskTracker三个内容。   首先进入Data Node的机器里面。到根文件夹以下创建一个文件叫words.txt文件内容就是上图中要分析的一些词。 第二步。把这个Words.txt文件放入HDFS中。 首先 hadoop/bin/hadoop fs -ls  查看眼下HDFS中的文件 然后新建一个文件夹 Hadoop/bin/hadoop fs -mkdir /data 我们能够使用浏览器来看看HDFS中的文件系统 浏览器中输入hnname:50070打开Web UI 能够再Live Nodes里面看到刚刚新建的data文件夹。运行 hadoop/bin/hadoop fs -copyFromLocal words.txt /data 然后words.txt就复制到/data文件夹下了。能够使用Web UI来验证。   第三步运行MapReduce 任务。这个任务是统计单词频率这个任务已经由现成的jar包写好了在hadoop/bin/文件夹下hadoop-examples-1.2.0.jar. 这个文件中面有非常多非常多写好的MapReduce任务。 运行命令 Hadoop/bin/hadoop jar hadoop/hadoop*examples.jar wordcount /data/words.txt /data/results   先指定jar包再指定程序名wordcount, 再指定输入数据/data/words.txt 最后是输出文件夹/data/results 没有文件夹会创建一个。 运行完毕后。能够通过Web UI来看运行结果。 我擦。原来的图片太多了发不了。不得不说删掉几张。。。。 转载于:https://www.cnblogs.com/ldxsuanfa/p/9941414.html
http://www.zqtcl.cn/news/806948/

相关文章:

  • 饰品企业网站建设大连工程信息建设网
  • 昆山网站推广四川网站建设费用
  • 中国建设银行网站易方达消费我有域名怎么做网站
  • 网站图片规格2023年7 8月十大新闻
  • 建立一个小型网站多少钱晋城网站制作
  • 泰安哪家做网站好定制app软件
  • 成品网站设计网站wordpress 登录慢
  • 广州营销型网站建设公司哪家名气大朝阳网络公司
  • 网站怎么做排查修复关键词排名优化网站
  • 上海企业网站动易网站模版的制作
  • 北京网站建设华大网站模拟课堂模式应该怎么做
  • 站长工具 seo综合查询有新的wordpress更新是英文版
  • 做微信头图的网站成都做seo网站公司
  • 工程设计东莞网站建设技术支持wordpress+打断点
  • 一个域名可以绑定几个网站网站建设如何做账
  • PHP网站建设的课后笔记一个产品的营销方案
  • 宝塔linux面板官网泰州seo
  • 咸阳城乡建设局网站动漫网站设计方案
  • 狮岭网站建设怎么建设英文网站
  • 网站建设需要交印花税吗wordpress远程自动下载图片
  • 专门做外国的网站有哪些seo网络优化师就业前景
  • 安阳信息港网站门户网站的特点
  • 宏大建设集团网站婚恋网站建设的目的
  • 企业网站建设有什么好设计网站公司的账务处理
  • 网站备案有什么要求wordpress导航栏上方
  • 河南专业建网站wordpress seo模板
  • 网站开发的教学课程策划公司经营范围有哪些
  • 需要锦州网站建设男生和女生做污的事情免费网站
  • 互联网网站商标免费做h5的网站有哪些
  • 营销型网站五大系统 单仁深圳住房与建设局官网