当前位置: 首页 > news >正文

网站后台管理系统一般用户名是什么百度推广做网站什么价位

网站后台管理系统一般用户名是什么,百度推广做网站什么价位,网站建设收费标准市场,wordpress 导航栏顺序云计算和Hadoop中网络是讨论得相对比较少的领域。本文原文由Dell企业技术专家Brad Hedlund撰写#xff0c;他曾在思科工作多年#xff0c;专长是数据中心、云网络等。文章素材基于作者自己的研究、实验和Cloudera的培训资料。 本文将着重于讨论Hadoop集群的体系结构和方法他曾在思科工作多年专长是数据中心、云网络等。文章素材基于作者自己的研究、实验和Cloudera的培训资料。 本文将着重于讨论Hadoop集群的体系结构和方法及它如何与网络和服务器基础设施的关系。最开始我们先学习一下Hadoop集群运作的基础原理。 Hadoop里的服务器角色 Hadoop主要的任务部署分为3个部分分别是Client机器主节点和从节点。主节点主要负责Hadoop两个关键功能模块HDFS、Map Reduce的监督。当Job Tracker使用Map Reduce进行监控和调度数据的并行处理时名称节点则负责HDFS监视和调度。从节点负责了机器运行的绝大部分担当所有数据储存和指令计算的苦差。每个从节点既扮演者数据节点的角色又冲当与他们主节点通信的守护进程。守护进程隶属于Job Tracker数据节点在归属于名称节点。 Client机器集合了Hadoop上所有的集群设置但既不包括主节点也不包括从节点。取而代之的是客户端机器的作用是把数据加载到集群中递交给Map Reduce数据处理工作的描述并在工作结束后取回或者查看结果。在小的集群中大约40个节点可能会面对单物理设备处理多任务比如同时Job Tracker和名称节点。作为大集群的中间件一般情况下都是用独立的服务器去处理单个任务。 在真正的产品集群中是没有虚拟服务器和管理层的存在的这样就没有了多余的性能损耗。Hadoop在Linux系统上运行的最好直接操作底层硬件设施。这就说明Hadoop实际上是直接在虚拟机上工作。这样在花费、易学性和速度上有着无与伦比的优势。 Hadoop集群 上面是一个典型Hadoop集群的构造。一系列机架通过大量的机架转换与机架式服务器不是刀片服务器连接起来通常会用1GB或者2GB的宽带来支撑连接。10GB的带宽虽然不常见但是却能显著的提高CPU核心和磁盘驱动器的密集性。上一层的机架转换会以相同的带宽同时连接着许多机架形成集群。大量拥有自身磁盘储存器、CPU及DRAM的服务器将成为从节点。同样有些机器将成为主节点这些拥有少量磁盘储存器的机器却有着更快的CPU及更大的DRAM。 下面我们来看一下应用程序是怎样运作的吧 adoop的工作流程 在计算机行业竞争如此激烈的情况下究竟什么是Hadoop的生存之道它又切实的解决了什么问题简而言之商业及政府都存在大量的数据需要被快速的分析和处理。把这些大块的数据切开然后分给大量的计算机让计算机并行的处理这些数据 — 这就是Hadoop能做的。 下面这个简单的例子里我们将有一个庞大的数据文件给客服部门的电子邮件。我想快速的截取下“Refund”在邮件中出现的次数。这是个简单的字数统计练习。Client将把数据加载到集群中File.txt提交数据分析工作的描述word cout集群将会把结果储存到一个新的文件中Results.txt然后Client就会读结果文档。 向HDFS里写入File Hadoop集群在没有注入数据之前是不起作用的所以我们先从加载庞大的File.txt到集群中开始。首要的目标当然是数据快速的并行处理。为了实现这个目标我们需要竟可能多的机器同时工作。最后Client将把数据分成更小的模块然后分到不同的机器上贯穿整个集群。模块分的越小做数据并行处理的机器就越多。同时这些机器机器还可能出故障所以为了避免数据丢失就需要单个数据同时在不同的机器上处理。所以每块数据都会在集群上被重复的加载。Hadoop的默认设置是每块数据重复加载3次。这个可以通过hdfs-site.xml文件中的dfs.replication参数来设置。 Client把File.txt文件分成3块。Cient会和名称节点达成协议通常是TCP 9000协议然后得到将要拷贝数据的3个数据节点列表。然后Client将会把每块数据直接写入数据节点中通常是TCP 50010协议。收到数据的数据节点将会把数据复制到其他数据节点中循环只到所有数据节点都完成拷贝为止。名称节点只负责提供数据的位置和数据在族群中的去处文件系统元数据。 Hadoop的Rack Awareness Hadoop还拥有“Rack Awareness”的理念。作为Hadoop的管理员你可以在集群中自行的定义从节点的机架数量。但是为什么这样做会给你带来麻烦呢两个关键的原因是数据损失预防及网络性能。别忘了为了防止数据丢失每块数据都会拷贝在多个机器上。假如同一块数据的多个拷贝都在同一个机架上而恰巧的是这个机架出现了故障那么这带来的绝对是一团糟。为了阻止这样的事情发生则必须有人知道数据节点的位置并根据实际情况在集群中作出明智的位置分配。这个人就是名称节点。 假使通个机架中两台机器对比不同机架的两台机器会有更多的带宽更低的延时。大部分情况下这是真实存在的。机架转换的上行带宽一般都低于其下行带宽。此外机架内的通信的延时一般都低于跨机架的也不是全部。那么假如Hadoop能实现“Rack Awareness”的理念那么在集群性能上无疑会有着显著的提升是的它真的做到了太棒了对不对 但是扫兴的事情发生了首次使用你必须手动的去定义它。不断的优化保持信息的准确。假如机架转换能够自动的给名称节点提供它的数据节点列表这样又完美了或者反过来数据节点可以自行的告知名称节点他们所连接的机架转换这样也的话也同样完美。 在括补结构中网络中假如能知道名称节点可以通过OpenFlow控制器查询到节点的位置那无疑是更加令人兴奋的。 准备HDFS写入 现在Client已经把File.txt分块并做好了向集群中加载的准备下面先从Block A开始。Client向名称节点发出写File.txt的请求从名称节点处获得通行证然后得到每块数据目标数据节点的列表。名称节点使用自己的Rack Awareness数据来改变数据节点提供列表。核心规则就是对于每块数据3份拷贝总有两份存在同一个机架上另外一份则必须放到另一个机架上。所以给Client的列表都必须遵从这个规则。 在Client将File.txt的“Block A”部分写入集群之前Client还期待知道所有的目标数据节点是否已准备就绪。它将取出列表中给Block A准备的第一个数据节点打开TCP 50010协议并告诉数据节点注意准备好接收1块数据这里还有一份列表包括了数据节点5和数据节点6确保他们同样已准备就绪。然后再由1传达到5接着5传达到6。 数据节点将从同样的TCP通道中响应上一级的命令只到Client收到原始数据节点1发送的的“就绪”。只到此刻Client才真正的准备在集群中加载数据块。 HDFS载入通道 当数据块写入集群后3个当然数据节点个数参照上文的设置数据节点将打开一个同步通道。这就意味着当一个数据节点接收到数据后它同时将在通道中给下一个数据节点送上一份拷贝。 这里同样是一个借助Rack Awareness数据提升集群性能的例子。注意到没有第二个和第三个数据节点运输在同一个机架中这样他们之间的传输就获得了高带宽和低延时。只到这个数据块被成功的写入3个节点中下一个就才会开始。 HDFS通道载入成功 当3个节点都成功的接收到数据块后他们将给名称节点发送个“Block Received”报告。并向通道返回“Success”消息然后关闭TCP回话。Client收到成功接收的消息后会报告给名称节点数据已成功接收。名称节点将会更新它元数据中的节点位置信息。Client将会开启下一个数据块的处理通道只到所有的数据块都写入数据节点。 Hadoop会使用大量的网络带宽和存储。我们将代表性的处理一些TB级别的文件。使用Hadoop的默认配置每个文件都会被复制三份。也就是1TB的文件将耗费3TB的网络传输及3TB的磁盘空间。 Client写入跨度集群 每个块的复制管道完成后的文件被成功写入到集群。如预期的文件被散布在整个集群的机器每台机器有一个相对较小的部分数据。个文件的块数越多更多的机器的数据有可能传播。更多的CPU核心和磁盘驱动器意味着数据能得到更多的并行处理能力和更快的结果。这是建造大型的、宽的集群的背后的动机为了数据处理更多、更快。当机器数增加和集群增宽时我们的网络需要进行适当的扩展。 扩展集群的另一种方法是深入。就是在你的机器扩展更多个磁盘驱动器和更多的CPU核心而不是增加机器的数量。在扩展深度上你把自己的注意力集中在用较少的机器来满足更多的网络I/O需求上。在这个模型中你的Hadoop集群如何过渡到万兆以太网节点成为一个重要的考虑因素。 名称节点 名称节点包含所有集群的文件系统元数据和监督健康状况的数据节点以及协调对数据的访问。这个名字节点是HDFS的中央控制器。它本身不拥有任何集群数据。这个名称节点只知道块构成一个文件并在这些块位于集群中。 数据节点每3秒通过TCP信号交换向名称节点发送检测信号使用相同的端口号定义名称节点守护进程通常TCP 9000。每10个检测信号作为一个块报告那里的数据节点告知它的所有块的名称节点。块报告允许名称节点构建它的元数据和确保第三块副本存在不同的机架上存在于不同的节点上。 名称节点是Hadoop分布式文件系统HDFS的一个关键组件。没有它客户端将无法从HDFS写入或读取文件它就不可能去调度和执行Map Reduce工作。正因为如此用双电源、热插拔风扇、冗余网卡连接等等来装备名称节点和配置高度冗余的企业级服务器使一个不错的想法。 重新复制缺失副本 如果名称节点停止从一个数据节点接收检测信号假定它已经死亡任何数据必须也消失了。基于块从死亡节点接受到报告这个名称节点知道哪个副本连同节点块死亡并可决定重新复制这些块到其他数据节点。它还将参考机架感知数据以保持在一个机架内的两个副本。 考虑一下这个场景整个机架的服务器网络脱落也许是因为一个机架交换机故障或电源故障。这个名称节点将开始指示集群中的其余节点重新复制该机架中丢失的所有数据块。如果在那个机架中的每个服务器有12TB的数据这可能是数百个TB的数据需要开始穿越网络。 二级名称节点 Hadoop服务器角色被称为二级名称节点。一个常见的误解是这个角色为名称节点提供了一个高可用性的备份这并非如此。 二级名称节点偶尔连接到名字节点并获取一个副本的名字节点内存中的元数据和文件用于存储元数据。二级名称节点在一个新的文件集中结合这些信息并将其递送回名称节点同时自身保留一份复本。 如果名称节点死亡二级名称节点保留的文件可用于恢复名称节点。 从HDFS客户端读取 当客户想要从HDFS读取一个文件它再一次咨询名称节点并要求提供文件块的位置。 客户从每个块列表选择一个数据节点和用TCP的50010端口读取一个块。直到前块完成它才会进入下一个块。 从HDFS中读取数据节点 有些情况下一个数据节点守护进程本身需要从HDFS中读取数据块。一种这样的情况是数据节点被要求处理本地没有的数据因此它必须从网络上的另一个数据节点检索数据在它开始处理之前。 另一个重要的例子是这个名称节点的Rack Awareness认知提供了最佳的网络行为。当数据节点询问数据块里名称节点的位置时名称节点将检查是否在同一机架中的另一种数据节点有数据。如果是这样这个名称节点从检索数据里提供了机架上的位置。该流程不需要遍历两个以上的交换机和拥挤的链接找到另一个机架中的数据。在机架上检索的数据更快数据处理就可以开始的更早,工作完成得更快。 Map Task 现在file.txt在我的机器集群中蔓延我有机会提供极其快速和高效的并行处理的数据。包含Hadoop的并行处理框架被称为Map Reduce模型中命名之后的两个步骤是Map和Reduce。 第一步是Map过程。这就是我们同时要求我们的机器他们本地的数据块上来运行一个计算。在这种情况下我们要求我们的机器对“Refund”这个词在File.txt的数据块中出现的次数进行计数。 开始此过程客户端机器提交Map Reduce作业的Job Tracker询问“多少次不会在File.txt 中出现Refund”(意译Java代码)。Job Tracker查询名称节点了解哪些数据节点有File.txt块。Job Tracker提供了这些节点上运行的Task Tracker与Java代码需要在他们的本地数据上执行的Map计算。这个Task Tracker启动一个Map任务和监视任务进展。这Task Tracker提供了检测信号并向Job Tracker返回任务状态。 每个Map任务完成后每个节点在其临时本地存储中存储其本地计算的结果。这被称作“中间数据”。 下一步将通过网络传输发送此中间数据到Reduce任务最终计算节点上运行。 Map Task非本地 虽然Job Tracker总是试图选择与当地数据做Map task的节点但它可能并不总是能够这样做。其中一个原因可能是因为所有的节点与本地数据已经有太多的其他任务运行并且不能接受了。 在这种情况下, Job Tracker将查阅名称节点的Rack Awareness知识可推荐同一机架中的其他节点的名称节点。作业跟踪器将把这个任务交给同一机架中的一个节点节点去寻找的数据时它需要的名称节点将指示其机架中的另一个节点来获取数据。 Reduce Task从Map Tasks计算接收到的数据 第二阶段的Map Reduce框架称为Reduce。机器上的Map任务已经完成了和生成它们的中间数据。现在我们需要收集所有的这些中间数据组合并提纯以便进一步处理这样我们会有一个最终结果。 Job Tracker在集群中的任何一个节点上开始一个Reduce任务并指示Reduce任务从所有已完成的Map任务中获取中间数据。Map任务可能几乎同时应对Reducer导致让你一下子有大量的节点发送TCP数据到一个节点。这种流量状况通常被称为“Incast”或者“fan-in”。对于网络处理大量的incast条件其重要的网络交换机拥有精心设计的内部流量管理能力以及足够的缓冲区不太大也不能太小。 Reducer任务现在已经从Map任务里收集了所有的中间数据可以开始最后的计算阶段。在本例中我们只需添加出现“Refund”这个词的总数并将结果写入到一个名为Results的txt文件里。 这个名为Results的txt文件被写入到HDFS以下我们已经涵盖的进程中把文件分成块流水线复制这些块等。当完成时客户机可以从HDFS和被认为是完整的工作里读取Results.txt。 我们简单的字数统计工作并不会导致大量的中间数据在网络上传输。然而其他工作可能会产生大量的中间数据比如对TB级数据进行排序。 如果你是一个勤奋的网络管理员你将了解更多关于Map Reduce和你的集群将运行的作业类型以及作业类型如何影响你的网络流量。如果你是一个Hadoop网络明星你甚至能够提出更好的代码来解决Map Reduce任务以优化网络的性能从而加快工作完工时间。 不平衡的Hadoop集群 Hadoop可以为你的组织提供一个真正的成功它让你身边的数据开发出了很多之前未发现的业务价值。当业务人员了解这一点你可以确信很快就会有更多的钱为你的Hadoop集群购买更多机架服务器和网络。 当你在现有的Hadoop集群里添加新的机架服务器和网络这种情况时你的集群是不平衡的。在这种情况下机架12是我现有的包含File.txt的机架和运行我的Map Reduce任务的数据。当我添加了两个新的架到集群我的File.txt数据并不会自动开始蔓延到新的机架。 新的服务器是闲置的直到我开始加载新数据到集群中。此外,如果机架12上服务器都非常繁忙Job Tracker可能没有其他选择但会指定File.txt上的Map任务到新的没有本地数据的服务器上。新的服务器需要通过网络去获取数据。作为结果你可能看到更多的网络流量和较长工作完成时间。 Hadoop集群均衡器 为了弥补集群的平衡性Hadoop还包含了均衡器。 Balancer目光聚焦于节点间有效储存的差异力所能及的将平衡维持在一定的临界值上。假如发现剩余大量储存空间的节点Balancer将找出储存空间剩余量少的节点并把数据剪切到有大量剩余空间的节点上。只有的终端上输入指令Balancer才会运行当接收到终端取消命令或者终端被关闭时Balancer将会关闭。 Balancer可以调用的网络带宽很小默认只有1MB/s。带宽可以通过hdfs-site.xml文件中的dfs.balance.bandwidthPerSec参数来设置。 Balancer是集群的好管家。没当有新机组添加时候就会用到它甚至一经开启就会运行整个星期。给均衡器低带宽可以让它保持着长时间的运行。 个人认为假如均衡器能成为Hadoop的核心而不是只是一项功能那样一定会比较有意思 原文链接http://bradhedlund.com/2011/09/10/understanding-hadoop-clusters-and-the-network/
http://www.zqtcl.cn/news/395414/

相关文章:

  • 如何做别人网站镜像自建wordpress主题
  • 临沂网站制作平台网站开发的软硬件环境
  • 假冒中国建设银行的网站网站开发 避免 字段变化 代码
  • 如何取消网站备案搜索seo怎么优化
  • 网站备案系统验证码出错网站的电子画册怎么做
  • 厦门企业网站建设方案企业网站硬件设计
  • 做网站推广的方法有哪些高级服装定制网站
  • 网站的百度地图怎么做的广告设计与制作发展趋势
  • 东莞网站建设兼职平面磨床东莞网站建设
  • 北京购物网站建设佛山外贸网站建设咨询
  • 网站图片在手机上做多大最清晰wordpress 表情拉长
  • 深圳住房宝安和建设局网站做网站的软件是是什么
  • 义乌网站建设方式抖音珠宝代运营
  • 郑州 手机网站制作广州网站优化地址
  • 国外效果图网站2022百度seo优化工具
  • 品牌网站建设 磐石网络官方网站网络科技公司 网站建设
  • 厦门启明星网站建设学校网站模板 中文
  • 高端手机网站平台深圳网上申请个人营业执照
  • 沈阳怎么做网站西亚网站建设科技
  • 做外贸免费的网站有哪些专业简历制作
  • 园林景观设计网站推荐国内wordpress主题
  • 一流的免费网站建设摄影网站源码
  • 深圳高端网站设计公司怎样开发手机网站建设
  • 做网站需要用c语言吗新闻热点
  • 做网站需要交维护费么网站建设详细合同范本
  • 网站运营需要做什么静态网站作品
  • 如何做旅游休闲网站苍南做网站
  • wordpress jp theme关键词排名优化公司成都
  • Soho外贸常用网站wordpress下不了插件吗
  • 企业网站建设小技巧有哪些WordPress网站小程序