当前位置: 首页 > news >正文

网站创建的基本流程网站建设定制设计

网站创建的基本流程,网站建设定制设计,大通拓客软件官网,上海企业服务云官网Hadoop安装、整合测试 文章目录 Hadoop安装、整合测试1.简介1.优点2.组成 2.安装1.安装jdk#xff08;如已安装可跳过#xff09;2.安装hadoop1.安装2. 修改配置文件core-site.xml3. 修改配置文件hdfs-site.xml4.启动hadoop5.启动yarn6.执行jps查看7.相关端口及配置位置8.访问…Hadoop安装、整合测试 文章目录 Hadoop安装、整合测试1.简介1.优点2.组成 2.安装1.安装jdk如已安装可跳过2.安装hadoop1.安装2. 修改配置文件core-site.xml3. 修改配置文件hdfs-site.xml4.启动hadoop5.启动yarn6.执行jps查看7.相关端口及配置位置8.访问后台 3.Springboot整合HDFS 参考原文:https://blog.csdn.net/weixin_44458771/article/details/141711471 1.简介 Hadoop起源于Apache Nutch项目始于2002年是Apache Lucene的子项目之一 [2]。2004年Google在“操作系统设计与实现”Operating System Design and ImplementationOSDI会议上公开发表了题为MapReduceSimplified Data Processing on Large ClustersMapreduce简化大规模集群上的数据处理的论文之后受到启发的Doug Cutting等人开始尝试实现MapReduce计算框架并将它与NDFSNutch Distributed File System结合用以支持Nutch引擎的主要算法 [2]。由于NDFS和MapReduce在Nutch引擎中有着良好的应用所以它们于2006年2月被分离出来成为一套完整而独立的软件并被命名为Hadoop。到了2008年年初hadoop已成为Apache的顶级项目。 Hadoop是一个能够让用户轻松架构和使用的分布式计算平台。用户可以轻松地在Hadoop上开发和运行处理海量数据的应用程序。广义上也可代指hadoop生态圈 1.优点 1.高可靠性。Hadoop按位存储和处理数据的能力值得人们信赖 。 2.高扩展性。Hadoop是在可用的计算机集簇间分配数据并完成计算任务的这些集簇可以方便地扩展到数以千计的节点中 。 3.高效性。Hadoop能够在节点之间动态地移动数据并保证各个节点的动态平衡因此处理速度非常快 。 4.高容错性。Hadoop能够自动保存数据的多个副本并且能够自动将失败的任务重新分配。 5.低成本。Hadoop通过普通廉价的机器组成服务器集群来分发以及处理数据成本很低。 2.组成 hadoop主要由三大部分组成 MapReduce负责计算HDFS: 分布式文件存储Yarn资源管理调度 hadoop2.x之后引入 2.安装 1.安装jdk如已安装可跳过 1.下载安装包 wget --no-check-certificate https://repo.huaweicloud.com/java/jdk/8u151-b12/jdk-8u151-linux-x64.tar.gz2.解压 tar -zxvf jdk-8u151-linux-x64.tar.gz3.重命名 mv jdk1.8.0_151/ java84.配置环境变量 echo export JAVA_HOME/usr/local/jdk/java8 /etc/profile echo export PATH$PATH:$JAVA_HOME/bin /etc/profile source /etc/profile5.验证是否安装成功 java -version2.安装hadoop 1.安装 1.下载安装包 wget --no-check-certificate https://repo.huaweicloud.com/apache/hadoop/common/hadoop-3.1.3/hadoop-3.1.3.tar.gz2.解压重命名 tar -zxvf hadoop-3.1.3.tar.gz mv hadoop-3.1.3 hadoop3.配置环境变量 echo export HADOOP_HOME/usr/software/hadoop/ /etc/profile echo export PATH$PATH:$HADOOP_HOME/bin /etc/profile echo export PATH$PATH:$HADOOP_HOME/sbin /etc/profile source /etc/profile4.修改配置文件 echo export JAVA_HOME/usr/local/jdk/java8 /usr/software/hadoop/etc/hadoop/yarn-env.sh echo export JAVA_HOME/usr/local/jdk/java8 /usr/software/hadoop/etc/hadoop/hadoop-env.sh5.验证是否安装成功 hadoop versionHadoop 可以在单节点上以伪分布式的方式运行Hadoop 进程以分离的 Java 进程来运行节点既作为 NameNode 也作为 DataNode同时读取的是 HDFS 中的文件。Hadoop 的配置文件位于 /usr/software/hadoop/etc/hadoop/ 中伪分布式需要修改2个配置文件 core-site.xml 和 hdfs-site.xml 。Hadoop的配置文件是 xml 格式每个配置以声明 property 的 name 和 value 的方式来实现。 2. 修改配置文件core-site.xml 编辑 vim /usr/software/hadoop/etc/hadoop/core-site.xml将下列内容添加进configuration标签 propertynamehadoop.tmp.dir/namevaluefile:/usr/software/hadoop/tmp/valuedescriptionlocation to store temporary files/description /property propertynamefs.defaultFS/namevaluehdfs://0.0.0.0:9000/value /property3. 修改配置文件hdfs-site.xml 编辑hdfs-site.xml vim /usr/software/hadoop/etc/hadoop/hdfs-site.xmlpropertynamedfs.replication/namevalue1/value /property propertynamedfs.namenode.name.dir/namevaluefile:/usr/software/hadoop/tmp/dfs/name/value /property propertynamedfs.datanode.data.dir/namevaluefile:/usr/software/hadoop/tmp/dfs/data/value /property propertynamedfs.namenode.http-address/namevalue0.0.0.0:50070/value /propertyHadoop 的运行方式是由配置文件决定的运行 Hadoop 时会读取配置文件因此如果需要从伪分布式模式切换回非分布式模式需要删除 core-site.xml 中的配置项。 4.启动hadoop 初始化namenode hadoop namenode -format启动hdfs start-dfs.sh若出现以下报错 编辑/etc/profile vim /etc/profile在文件末尾加入以下内容 export HDFS_NAMENODE_USERroot export HDFS_DATANODE_USERroot export HDFS_SECONDARYNAMENODE_USERroot export YARN_RESOURCEMANAGER_USERroot export YARN_NODEMANAGER_USERroot激活配置 source /etc/profile5.启动yarn start-yarn.sh6.执行jps查看 如果失败可以查看hadoop/logs下日志 7.相关端口及配置位置 NameNode: 默认端口9870 配置文件hdfs-site.xmlDataNode: 默认端口9864 配置文件hdfs-site.xmlResourceManager: 默认端口8088 配置文件yarn-site.xmlNodeManager: 默认端口8043 配置文件yarn-site.xmlSecondaryNameNode: 默认端口9868 配置文件hdfs-site.xml8.访问后台 http://127.0.0.1:8088这个链接通常与Hadoop的YARN资源管理器相关。 http://127.0.0.1:50070这个链接通常与Hadoop的HDFSHadoop分布式文件系统的Web界面相关。 3.Springboot整合HDFS dependencygroupIdorg.apache.hadoop/groupIdartifactIdhadoop-common/artifactIdversion3.1.3/version/dependencydependencygroupIdorg.apache.hadoop/groupIdartifactIdhadoop-hdfs/artifactIdversion3.1.3/version/dependencydependencygroupIdorg.apache.hadoop/groupIdartifactIdhadoop-client/artifactIdversion3.1.3/version/dependencydependencygroupIdorg.apache.hadoop/groupIdartifactIdhadoop-mapreduce-client-core/artifactIdversion3.1.3/version/dependency测试 Test public void test02() throws Exception {Configuration configuration new Configuration();configuration.set(fs.defaultFS, hdfs://127.0.0.1:9000);FileSystem fileSystem FileSystem.get(new URI(hdfs://127.0.0.1:9000),configuration, root);System.out.println(fileSystem); }如果出现报错 Caused by: java.io.FileNotFoundException: HADOOP_HOME and hadoop.home.dir are unset. 原因本地远程连接Hadoop系统时需要在本地配置相关的Hadoop变量 。 下载同版本的winutilshttps://github.com/cdarlint/winutils 设置windows环境变量 HADOOP_HOME为下载的版本目录 Path新增 复制bin目录下hadoop.dll文件到windows/system32 重启idea测试
http://www.zqtcl.cn/news/850027/

相关文章:

  • 关于校园网站的策划书久久建筑网的账号
  • 网站宣传的方式怎么查看一个网站有没有做推广
  • 台州房产网站建设自助开通网站
  • 佛山正规网站建设报价二级域名需要申请吗
  • 网站用户体验比较论坛类网站可以做移动端吗
  • 佛山网站优化建设网站设计公司种类
  • 永嘉高端网站建设效果空间设计手法有哪些
  • 好模板网站盐城做网站价格
  • 农村自建房设计图 效果图常州百度推广优化
  • 北京便宜网站建设为什么自己做的网站别的电脑打不开
  • 濮阳网站建设哪里便宜html页面模板
  • 个人推广网站wordpress 交友模板
  • 新乡网站建设价格中国反钓鱼网站联盟
  • 在线工具网站网站建设公司ejiew
  • 个人搭建网站教程王牌网站做代理
  • 网站地图什么意思电子商务营销推广
  • 手机排行榜网站教育平台网站开发
  • 佛山市顺德区建设局网站萧山网站建设
  • 合肥百度团购网站建设怀化网站开发
  • 网站建设ppt模板彩票网站开发dadi163
  • 网站建设4435建筑设计一般用什么软件
  • 河南网站建设重庆森林台词
  • 网站一直没收录雄安做网站
  • 全国网站直播平台被摧毁响应是网站怎么做
  • 衡阳建设网站做网站和app多少费用
  • 怎么做付费网站蚌埠网站建设专业公司哪家好
  • 学网站建设需要多长时间成都网站建设定制开发服务
  • 建站宝盒后台深圳建网站公司怎么选择
  • 什么是大型门户网站网站建设的经验之谈
  • 网站建站网站设计网站制作书生