当前位置: 首页 > news >正文

大连百度做网站推广电话网站栏目是什么

大连百度做网站推广电话,网站栏目是什么,seo实战视频,企业网站备案单机可以搭建伪分布式hadoop环境#xff0c;用来测试和开发使用#xff0c;hadoop包括#xff1a; hdfs服务器 yarn服务器#xff0c;yarn的前提是hdfs服务器#xff0c; 在前面两个的基础上#xff0c;课可以搭建hive服务器#xff0c;不过hive不属于hadoop的必须部…单机可以搭建伪分布式hadoop环境用来测试和开发使用hadoop包括 hdfs服务器 yarn服务器yarn的前提是hdfs服务器 在前面两个的基础上课可以搭建hive服务器不过hive不属于hadoop的必须部分。 过程不要想的太复杂其实挺简单这里用最糙最快最直接的方法在我的单节点虚拟机上搭建一个hdfsyarnhive 首先要配置好Java的JAVA_HOME和PATHetc/hadoop/hadoop-env.sh里的JAVA_HOME要改为本机的JAVA_HOME还是有ssh本机的免密码登录。 然后下载hadoop安装包这个包就包括了hdfs服务器和yarn服务器的执行文件和配置脚本。解压后先配置 hdfs 服务器端主要是两个配置文件core-site.xml 和 hdfs-site.xml 这个site我估计就是服务器端配置的意思。我是用root用户配置和执行的 etc/hadoop/core-site.xml 这里9000是hfds服务器监听端口号这里要用自己的IP地址如果用127.0.0.1远程集群连不进来 configurationpropertynamefs.defaultFS/namevaluehdfs://172.32.155.57:9000/value/property/configuration etc/hadoop/hdfs-site.xml dfs.namenode.name.dir 和 dfs.namenode.data.dir是服务器上存储元数据和数据的目录。 configurationpropertynamedfs.replication/namevalue1/value/propertypropertynamedfs.namenode.name.dir/namevalue/mnt/disk01/hadoop/dfs/name/value/propertypropertynamedfs.datanode.data.dir/namevalue/mnt/disk01/hadoop/dfs/data/value/property/configuration对上面配置的目录进行初始化/格式化 $ bin/hdfs namenode -format 执行sbin里的start-dfs.sh就可以启动hdfs文件系统服务器了,可以jps查看一下有哪些java进程 如果在本地服务器上执行 hdfs dfs -ls / 就可以查看hdfs上的文件了还可以用其它命令操作hdfs hdfs dfs -mkdir /user/root hdfs dfs -mkdir input 上面只是配置了hdfs服务器要想跑hive或mapreduce还需要配置和启动调度器yarn etcd/hadoop/mapred-site.xml  configurationpropertynamemapreduce.framework.name/namevalueyarn/value/propertypropertynamemapreduce.application.classpath/namevalue$HADOOP_MAPRED_HOME/share/hadoop/mapreduce/*:$HADOOP_MAPRED_HOME/share/hadoop/mapreduce/lib/*/value/property /configurationetcd/hadoop/yarn-site.xml (这里 yarn.resourcemanager.hostname 要写自己的IPyarn.nodemanager.env-whitelist 设置Container的能继承NodeManager的哪些环境变量) configuration!-- Site specific YARN configuration properties --propertynameyarn.resourcemanager.hostname/namevalue172.32.155.57/value/propertypropertynameyarn.nodemanager.aux-services/namevaluemapreduce_shuffle/value/propertypropertynameyarn.nodemanager.env-whitelist/namevalueJAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_HOME,PATH,LANG,TZ,HADOOP_MAPRED_HOME/value/property/configurationMapReducer执行时会在NodeManager上创建Container在Container上执行TaskJAVA程序该程序需要环境变量如JDK、HADOOP_MAPRED_HOME…该参数就是 设置Container的能继承NodeManager的哪些环境变量。 -- 引自  HADOOP_MAPRED_HOME${full path of your hadoop distribution directory}-CSDN博客 启动yarn start-yarn.sh [rootneoap082 hadoop-3.3.6]# jps 430131 Jps 422691 ResourceManager 416862 NameNode 417388 SecondaryNameNode 422874 NodeManager 417082 DataNode 执行 mapreduce 任务java程序 $ bin/hdfs dfs -mkdir -p /user/root$ bin/hdfs dfs -mkdir input$ bin/hdfs dfs -put etc/hadoop/*.xml input$ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.6.jar grep input output dfs[a-z.]$ bin/hdfs dfs -cat output/* 安装hive hive的元数据一般使用mysql存储也可以使用hive自带的数据库derby如果使用derby那么hive的安装、配置、启动非常简单 先要单独下载hive 不需要修改任何hive的配置文件就是最简情况下只要配置好hdfs和yarn不需要配置hive。 但是第一次使用以前需要初始化 hive hdfs dfs -mkdir -p /user/hive/warehouse bin/schematool -dbType derby -initSchema然后直接执行 bin目录下的hive这样就进入了hive命令行也启动了hive服务器这种只能用来学习测试不过也足够了。 CREATE TABLE basic_data_textfile (     k00 INT,     k01 DATE,     k02 BOOLEAN,     k03 TINYINT,     k04 SMALLINT,     k05 INT    ,     k06 BIGINT ,     k07 BIGINT,     k08 FLOAT  ,     k09 DOUBLE ,     k10 DECIMAL(9,1) ,     k11 DECIMAL(9,1) ,     k12 TIMESTAMP,     k13 DATE ,     k14 TIMESTAMP,     k15 CHAR(2),     k16 STRING,     k17 STRING ,     k18 STRING    )  row format delimited fields terminated by \| ; # 从本地文件加载 load data local inpath /opt/doris_2.0/basic_data.csv into table basic_data; # 从hdfs路径加载 load data inpath /user/root/basic_data.csv into table basic_data_lzo; hive表数据是一个hdfs目录下的文件可以设置这些文件存储时的格式和压缩算法例如下面的basic_data_lzop表一lzo压缩压缩文件格式为lzop set hive.exec.compress.outputtrue; set mapred.output.compression.codeccom.hadoop.compression.lzo.LzopCodec; set io.compression.codecscom.hadoop.compression.lzo.LzopCodec; CREATE TABLE basic_data_lzop (     k00 INT,     k01 DATE,     k02 BOOLEAN,     k03 TINYINT,     k04 SMALLINT,     k05 INT    ,     k06 BIGINT ,     k07 BIGINT,     k08 FLOAT  ,     k09 DOUBLE ,     k10 DECIMAL(9,1) ,     k11 DECIMAL(9,1) ,     k12 TIMESTAMP,     k13 DATE ,     k14 TIMESTAMP,     k15 CHAR(2),     k16 STRING,     k17 STRING ,     k18 STRING    )  row format delimited fields terminated by \| ; insert into basic_data_lzop select * from basic_data; basic_data_orc_snappy 表以orc格式存储数据块以snappy压缩 CREATE TABLE basic_data_orc_snappy (     k00 INT,     k01 DATE,     k02 BOOLEAN,     k03 TINYINT,     k04 SMALLINT,     k05 INT    ,     k06 BIGINT ,     k07 BIGINT,     k08 FLOAT  ,     k09 DOUBLE ,     k10 DECIMAL(9,1) ,     k11 DECIMAL(9,1) ,     k12 TIMESTAMP,     k13 DATE ,     k14 TIMESTAMP,     k15 CHAR(2),     k16 STRING,     k17 STRING ,     k18 STRING    )  row format delimited fields terminated by \|  stored as orc tblproperties (orc.compressSNAPPY); insert into basic_data_orc_snappy select * from basic_data_textfile;
http://www.zqtcl.cn/news/111701/

相关文章:

  • 包头网站建设推广手机网站开发介绍
  • 网站推广设计用那种语言做网站比较好
  • 手机品牌网站如何做好网站内更新
  • 订餐网站模板下载毕业设计动漫网页设计
  • 网站阵地建设管理办法移动端网页界面设计
  • 网站和做游戏重庆市建设工程信息网安全监督特种人员
  • 沈阳网站建设活动方案部分网站打不开的原因
  • 网站维护界面设计做的网站一直刷新
  • 国外网站 国内访问速度土木工程毕业设计网站
  • 宿迁网站建设制作中国广告设计网
  • 上门做美容的有什么网站微信网页版本
  • 专门做餐饮运营的网站网站开发相关知识
  • 石家庄门户网站建设免费简历模板的网站
  • 微网站建设市场如何做好平台推广
  • 网站不备案做优化小程序开发前景怎么样
  • 美丽说网站优化百度关键词优化
  • 同性男做的视频网站赶集网招聘最新招聘附近找工作
  • 做挖机配件销售的网站oa办公系统软件哪家好
  • 聊城设计网站商务网站的特点
  • 厦门做个网站多少钱工程建设范围
  • 百度推广官方网站在哪里制作网页
  • 济南集团网站建设方案沈阳手机网站制作
  • 网站备案号注销的结果做网站的外包能学到什么
  • 在线购物网站开发项目网站建设电话推广话术
  • 网站主体信息太原站扩建
  • 西平县住房和城乡建设局网站空间商网站
  • p2p网站建设cms一键生成图片
  • 甘肃省第八建设集团公司网站能够做物理题的网站
  • 团购网站建设方案建筑工程网校官网
  • 佛山建站网站模板小公司管理方法