当前位置: 首页 > news >正文

制作网站的模板下载软件网络租车系统设计报告

制作网站的模板下载软件,网络租车系统设计报告,网站 创意 方案,我的世界怎么自己做皮肤并上传网站文章目录 一、简介二、安装1、简介2、本地部署(Local模式)2.1 安装2.2 官方WordCount实例 3、Standlong模式3.1 简介2.2 安装集群2.3 官方测试案例 4、Yarn模式3.1 安装3.2 配置历史服务器3.3 配置查看历史日志 5、Mesos模式6、几种模式对比7、常用端口 三、Yarn模式详解1、简介… 文章目录 一、简介二、安装1、简介2、本地部署(Local模式)2.1 安装2.2 官方WordCount实例 3、Standlong模式3.1 简介2.2 安装集群2.3 官方测试案例 4、Yarn模式3.1 安装3.2 配置历史服务器3.3 配置查看历史日志 5、Mesos模式6、几种模式对比7、常用端口 三、Yarn模式详解1、简介2、Client模式3、Cluster模式 一、简介 1官网地址http://spark.apache.org/ 2文档查看地址https://spark.apache.org/docs/3.1.3/ 3下载地址https://spark.apache.org/downloads.html https://archive.apache.org/dist/spark/ 二、安装 1、简介 部署Spark集群大体上分为两种模式单机模式与集群模式 大多数分布式框架都支持单机模式方便开发者调试框架的运行环境。但是在生产环境中并不会使用单机模式。因此后续直接按照集群模式部署Spark集群。 下面详细列举了Spark目前支持的部署模式。 Local模式在本地部署单个Spark服务Standalone模式Spark自带的任务调度模式。国内常用YARN模式Spark使用Hadoop的YARN组件进行资源与任务调度。国内最常用Mesos模式Spark使用Mesos平台进行资源与任务的调度。国内很少用 2、本地部署(Local模式) 2.1 安装 Local模式就是运行在一台计算机上的模式通常就是用于在本机上练手和测试。 wget https://gitcode.net/weixin_44624117/software/-/raw/master/software/Linux/Spark/spark-3.4.1-bin-hadoop3.tgz创建文件夹 mkdir /opt/module解压文件 tar -zxvf spark-3.4.1-bin-hadoop3.tgz -C /opt/module/更改文件名 mv /opt/module/spark-3.4.1-bin-hadoop3/ /opt/module/spark-local官方求PI案例 cd /opt/module/spark-localbin/spark-submit \ --class org.apache.spark.examples.SparkPi \ --master local[2] \ ./examples/jars/spark-examples_2.12-3.4.1.jar \ 10参数解析 --class表示要执行程序的主类--master local[2] ​ 1local: 没有指定线程数则所有计算都运行在一个线程当中没有任何并行计算 ​ 2local[K]:指定使用K个Core来运行计算比如local[2]就是运行2个Core来执行。 ​ 3local[*]默认模式。自动帮你按照CPU最多核来设置线程数。比如CPU有8核Spark帮你自动设置8个线程计算。 spark-examples_2.12-3.1.3.jar要运行的程序10要运行程序的输入参数计算圆周率π的次数计算次数越多准确率越高 该算法是利用蒙特·卡罗算法求PI 2.2 官方WordCount实例 准备数据 mkdir input输入以下内容 hello atguigu hello spark启动Spark-shell bin/spark-shell执行任务 scala sc.textFile(/opt/module/spark-local/input).flatMap(_.split( )).map((_,1)).reduceByKey(__).collect res6: Array[(String, Int)] Array((hello,2), (atguigu,1), (spark,1))查看执行结果 连接窗口发现了一个SparkSubmit进程 spark-shell窗口关闭掉则hadoop102:4040页面关闭。 3、Standlong模式 3.1 简介 Standalone模式是Spark自带的资源调度引擎构建一个由Master Worker构成的Spark集群Spark运行在集群中。 这个要和Hadoop中的Standalone区别开来。这里的Standalone是指只用Spark来搭建一个集群不需要借助Hadoop的Yarn和Mesos等其他框架。 Master和Worker是Spark的守护进程、集群资源管理者即Spark在特定模式(Standalone)下正常运行必须要有的后台常驻进程。 Driver和Executor是临时程序当有具体任务提交到Spark集群才会开启的程序。Standalone模式是Spark自带的资源调度引擎构建一个由Master Worker构成的Spark集群Spark运行在集群中。这个要和Hadoop中的Standalone区别开来。这里的Standalone是指只用Spark来搭建一个集群不需要借助Hadoop的Yarn和Mesos等其他框架。 2.2 安装集群 Hadoop101Hadoop102Hadoop103SparkMasterWorkerWorkerWorker 解压文件 tar -zxvf spark-3.4.1-bin-hadoop3.tgz -C /opt/module/重命名文件夹 mv /opt/module/spark-3.4.1-bin-hadoop3 /opt/module/spark-standalone添加Worker节点 cd /opt/module/spark-standalone/conf/ vim slaveshadoop101 hadoop102 hadoop103添加Master节点 mv spark-env.sh.template spark-env.sh vim spark-env.shSPARK_MASTER_HOSThadoop101 SPARK_MASTER_PORT7077cd /opt/module/spark-standalone sbin/start-all.sh查看页面http://hadoop101:8080 8080master的webUI 4040application的webUI的端口号 2.3 官方测试案例 bin/spark-submit \ --class org.apache.spark.examples.SparkPi \ --master spark://hadoop101:7077 \ ./examples/jars/spark-examples_2.12-3.4.1.jar \ 10执行结果 8080master的webUI 4040application的webUI的端口号 执行参数 ./bin/spark-submit \--class org.apache.spark.examples.SparkPi \--master spark://hadoop102:7077 \--executor-memory 2G \--total-executor-cores 2 \./examples/jars/spark-examples_2.12-3.4.1.jar \ 10参数解析 --executor-memory可用内存为2G。--total-executor-cores使用CPU核数为2个。 参数解释可选值举例–classSpark程序中包含主函数的类–masterSpark程序运行的模式本地模式local[*]、spark://hadoop102:7077、Yarn–executor-memory 1G指定每个executor可用内存为1G符合集群内存配置即可具体情况具体分析。–total-executor-cores 2指定所有executor使用的cpu核数为2个application-jar打包好的应用jar包含依赖。这个URL在集群中全局可见。 比如hdfs:// 共享存储系统如果是file:// path那么所有的节点的path都包含同样的jarapplication-arguments传给main()方法的参数 4、Yarn模式 Spark客户端直接连接Yarn不需要额外构建Spark集群。一台能提交Yarn的服务器即可 3.1 安装 获取文件 wget https://gitcode.net/weixin_44624117/software/-/raw/master/software/Linux/Spark/spark-3.4.1-bin-hadoop3.tgz加压安装包 tar -zxvf spark-3.4.1-bin-hadoop3.tgz -C /opt/module/修改目录名称 mv /opt/module/spark-3.4.1-bin-hadoop3 /opt/module/spark-yarn修改启动文件 mv /opt/module/spark-yarn/conf/spark-env.sh.template /opt/module/spark-yarn/conf/spark-env.sh添加配置文件 vim /opt/module/spark-yarn/conf/spark-env.sh # 增加配置内容(Yarn配置文件地址) YARN_CONF_DIR/opt/module/hadoop-3.1.3/etc/hadoop提交任务 参数--master yarn表示Yarn方式运行–deploy-mode表示客户端方式运行程序 bin/spark-submit \ --class org.apache.spark.examples.SparkPi \ --master yarn \ ./examples/jars/spark-examples_2.12-3.4.1.jar \ 103.2 配置历史服务器 移动配置文件 mv /opt/module/spark-yarn/conf/spark-defaults.conf.template /opt/module/spark-yarn/conf/spark-defaults.conf修改配置文件 cd /opt/module/spark-yarn/conf vim spark-defaults.confspark.eventLog.enabled true spark.eventLog.dir hdfs://hadoop101:8020/directory修改配置文件spark-env.sh vim spark-env.shexport SPARK_HISTORY_OPTS -Dspark.history.ui.port18080 -Dspark.history.fs.logDirectoryhdfs://hadoop101:8020/directory -Dspark.history.retainedApplications30配置文件解析 Dspark.history.ui.port18080 WEBUI访问的端口号为18080-Dspark.history.fs.logDirectory指定历史服务器日志存储路径读-Dspark.history.retainedApplications指定保存Application历史记录的个数如果超过这个值旧的应用程序信息将被删除这个是内存中的应用数而不是页面上显示的应用数。 3.3 配置查看历史日志 为了能从Yarn上关联到Spark历史服务器需要配置spark历史服务器关联路径。 目的点击yarn8088上spark任务的history按钮进入的是spark历史服务器18080而不再是yarn历史服务器19888。 修改配置文件/opt/module/spark-yarn/conf/spark-defaults.conf vim /opt/module/spark-yarn/conf/spark-defaults.confspark.yarn.historyServer.addresshadoop101:18080 spark.history.ui.port18080启动历史服务器 cd /opt/module/spark-yarn sbin/start-history-server.sh 再次提交任务 bin/spark-submit \ --class org.apache.spark.examples.SparkPi \ --master yarn \ ./examples/jars/spark-examples_2.12-3.4.1.jar \ 10页面查看历史任务http://hadoop102:8088/cluster 5、Mesos模式 Spark客户端直接连接Mesos不需要额外构建Spark集群。国内应用比较少更多的是运用Yarn调度。 6、几种模式对比 模式Spark安装机器数需启动的进程所属者Local1无SparkStandalone3Master及WorkerSparkYarn1Yarn及HDFSHadoop 7、常用端口 4040Spark查看当前Spark-shell运行任务情况端口号40407077Spark Master内部通信服务端口号7077 类比于yarn的8032(RM和NM的内部通信)端口8080Spark Standalone模式Master Web端口号8080类比于Hadoop YARN任务运行情况查看端口号8088 (yarn模式) 898918080Spark历史服务器端口号18080 类比于Hadoop历史服务器端口号19888 三、Yarn模式详解 1、简介 Spark有yarn-client和yarn-cluster两种模式主要区别在于Driver程序的运行节点。 yarn-clientDriver程序运行在客户端适用于交互、调试希望立即看到app的输出。 yarn-clusterDriver程序运行在由ResourceManager启动的APPMaster适用于生产环境。 2、Client模式 client模式启动 bin/spark-submit \ --class org.apache.spark.examples.SparkPi \ --master yarn \ --deploy-mode client \ ./examples/jars/spark-examples_2.12-3.4.1.jar \ 103、Cluster模式 cluster模式启动 bin/spark-submit \ --class org.apache.spark.examples.SparkPi \ --master yarn \ --deploy-mode cluster \ ./examples/jars/spark-examples_2.12-3.4.1.jar \ 10
http://www.zqtcl.cn/news/508984/

相关文章:

  • 杭州网站seo外包外链图片
  • 苏州网站建设有限公司枣阳建网站
  • 网站开发平台选择如何制作购物网站
  • 专业建设网站企业外包公司企业网站
  • 网站开发需求确认书国家商标注册官网查询系统
  • 国内个人网站建设wordpress 添加搜索
  • 网站建设创新简述网站开发具体流程
  • wordpress小说网站模板南宁企业网站seo
  • 网站开发与设计课程时间网站推广的搜索引擎推广
  • 网站首页幻灯片不显示网页设计制作项目
  • 遂宁网站建设哪家好深圳做响应式网站设计
  • 慈溪建设企业网站wordpress 增加分类字段
  • 毕业设计做系统网站wordpress修改评论框
  • 上海网站开发孵化设计者联盟官网
  • 旅游网站开发需求报告微信创建小程序
  • 不收费推广网站有哪些h5网站要多久
  • seo网站营销推广全...互联网创业好项目
  • vx小程序制作网站优化标题怎么做
  • 做旅游网站课程设计报告湘潭学校网站建设 x磐石网络
  • 接网站 建设没有网站可以做seo排名吗
  • 抚顺网站seo建设网站需要支付什么插件费用吗
  • 东台做淘宝网站电子商务是学什么
  • 建一个购物网站多少钱wordpress托管在哪里
  • 怎么建设免费网站北京最大的火车站
  • 做视频网站被判刑豫建设标 网站
  • 济南网站建设济南wordpress计次查询
  • 做英文小工具网站赚钱商城网站是免费开吗
  • 做网站需要注意的问题seo推广代运营
  • 采购网站大全wordpress decorum
  • wordpress建站教程道一网页效果图素材