当前位置: 首页 > news >正文

商城网站建设公司价格物业管理系统功能结构图

商城网站建设公司价格,物业管理系统功能结构图,东莞seo建站公司,app官方安装下载一、单机模式 步骤#xff1a; 1、使用XFTP将Flink安装包flink-1.13.5-bin-scala_2.11.tgz发送到master机器的主目录。 2、解压安装包#xff1a; tar -zxvf ~/flink-1.13.5-bin-scala_2.11.tgz 3、修改文件夹的名字#xff0c;将其改为flume#xff0c;或者创建软连接…一、单机模式 步骤 1、使用XFTP将Flink安装包flink-1.13.5-bin-scala_2.11.tgz发送到master机器的主目录。 2、解压安装包 tar -zxvf ~/flink-1.13.5-bin-scala_2.11.tgz 3、修改文件夹的名字将其改为flume或者创建软连接也可 mv ~/flink-1.13.5 ~/flink 4、配置环境变量 vim ~/.bashrc 然后在文件末尾添加以下内容 export FLINK_HOME/home/hadoop/flinkexport PATH$FLINK_HOME/bin:$PATH 保存文件然后刷新环境变量或重新启动命令行终端 source ~/.bashrc 5、可以使用以下命令开启一个Flink的Scala控制台 start-scala-shell.sh local 二、Flink Standalone模式集群 步骤 1、使用vim命令配置Flink的flink-conf.yaml配置文件 cd ~/flink/conf vim flink-conf.yaml 配置内容如下注意这里仅展示其中要修改的参数其余参数配置保持不变 jobmanager.rpc.address: masterjobmanager.rpc.port: 6123jobmanager.memory.process.size: 1600mtaskmanager.memory.process.size: 1728mtaskmanager.numberOfTaskSlots: 3parallelism.default: 3high-availability: zookeeperhigh-availability.zookeeper.quorum: master:2181,slave1:2181,slave2:2181high-availability.cluster-id: /cluster_onehigh-availability.zookeeper.path.root: /flinkhigh-availability.storageDir: hdfs://mycluster/flink/ha/ 2、配置workers vim workers 修改为以下内容 master slave1 slave2 3、配置masters为节省资源我们只在master启动主节点即可如需启动备用节点则需要在此处添加其他节点以作为备用节点 vim masters 修改为以下内容 master:8088 可指定端口可访问web 4、添加Hadoop依赖包若打算使Flink与Hadoop能够协同工作比如后续在YARN上运行Flink、使用Flink连接到HDFS、HBase等那么就需要将Flink对应Hadoop版本的shaded包放到Flink安装目录的lib文件夹内或者添加到Hadoop的环境变量中这里使用第一种方法进行配置 使用XFTP将 flink-shaded-hadoop-2-uber-2.8.3-10.0.jar 放到 ~/flink/lib 文件夹内 5、接着把配置好的Flink安装目录使用scp命令发送到其他节点 scp -r ~/flink hadoopslave1:~scp -r ~/flink hadoopslave2:~ 6、如第3步中配置了其他备用主节点则需要做这步只配置了一个master的话这一步可以跳过在备用主节点slave1上修改flink-conf.yaml将其中的jobmanager.rpc.address一项修改为 slave1cd ~/flink/confvim flink-conf.yaml 修改内容如下 jobmanager.rpc.address: slave1 7、依次启动ZooKeeper、HDFS、YARN集群以启动Hadoop 8、在master节点上启动Flink Standalone集群 start-cluster.sh 三、Flink on YARN模式 要使用Flink on YARN只需要修改环境变量让Flink可以从系统环境变量中读取到Hadoop的配置信息即可 vim ~/.bashrc 然后在末尾添加Hadoop配置文件夹的目录环境 export HADOOP_CONF_DIR$HADOOP_HOME/etc/hadoop 然后刷新环境变量 source ~/.bashrc 后续就可以使用 yarn-session.sh 启动  yarn session 来运行Flink任务或者使用 flink run 命令直接将Flink任务提交到YARN上运行。
http://www.zqtcl.cn/news/587917/

相关文章:

  • php网站语言切换功能如何做263邮箱入口
  • 电商网站及企业微信订烟专门做红酒的网站
  • 大庆商城网站建设微网站建设找哪家
  • 渝快办官网seo管理平台
  • 网站建设辶金手指排名十二厦门建设局
  • 网站反链接什么seo推广优化多少钱
  • 建设工程公司采购的网站找不到网站后台怎么办
  • 江门网站seo推广湖南省建设银行网站官网
  • 网站底部关键词指向网站打开速度慢跟什么有关系
  • 网站右侧广告合肥高端网站设计
  • 漯河市郾城区网站建设wordpress文件管理
  • 网站栅格大连做网站的
  • 珠海企业网站建设报价鄂州网吧什么时候恢复营业
  • 手机制作钓鱼网站id转换为wordpress
  • 手机网站 好处信用中国 网站有那个部门支持建设
  • 模板免费网站自己如何做网站优化
  • 自适应网站做mip改造淘宝上买衣服的网站
  • 射阳做企业网站哪家好利用新冠消灭老年人
  • 网站头部修改wordpress php幻灯片代码
  • 网络违法犯罪举报网站哪里有制作网站服务
  • 临沂怎么做网站网站 单页
  • 科技信息网站系统建设方案建筑设计专业世界大学排名
  • 做网站运营的简历小型视频网站建设
  • 福建省亿力电力建设有限公司网站网页设计html代码大全动物
  • 如何建网站赚取佣金企业网站的在线推广方法有
  • 嵌入式转行到网站开发免费秒玩小游戏
  • 采购网站排名不需要证件做网站
  • wordpress添加用户登录东莞网络公司seo优化
  • 哪些企业网站使用水墨风格设计免费
  • 河北邯郸做网站的公司哪家好云南建站公司