当前位置: 首页 > news >正文

电子商务网站建设实训总结网站引导制作

电子商务网站建设实训总结,网站引导制作,广告推广文案,html5开发手机网站Hadoop 之 Spark 配置与使用 一.Spark 配置1.Spark 下载2.单机测试环境配置3.集群配置 二.Java 访问 Spark1.Pom 依赖2.测试代码1.计算 π 三.Spark 配置 Hadoop1.配置 Hadoop2.测试代码1.统计字符数 一.Spark 配置 环境说明环境版本AnolisAnolis OS release 8.6Jdkjava versi… Hadoop 之 Spark 配置与使用 一.Spark 配置1.Spark 下载2.单机测试环境配置3.集群配置 二.Java 访问 Spark1.Pom 依赖2.测试代码1.计算 π 三.Spark 配置 Hadoop1.配置 Hadoop2.测试代码1.统计字符数 一.Spark 配置 环境说明环境版本AnolisAnolis OS release 8.6Jdkjava version “11.0.19” 2023-04-18 LTSSpark3.4.1 1.Spark 下载 Spark 下载 2.单机测试环境配置 ## 1.创建目录 mkdir -p /usr/local/spark ## 2.解压 sprak 到指定目录 tar -zxvf spark-3.4.1-bin-hadoop3.tgz -C /usr/local/spark/ ## 3.进入安装目录可将解压后文件夹重命名为 spark 即可 cd /usr/local/spark/spark-3.4.1-bin-hadoop3/ ## 4.修改环境变量并更新 echo export SPARK_HOME/usr/local/spark/spark-3.4.1-bin-hadoop3 /etc/profile echo PATH${SPARK_HOME}/bin:${PATH} /etc/profile source /etc/profile ## 5.复制 spark 配置 cd $SPARK_HOME/conf cp spark-env.sh.template spark-env.sh ## 6.测试 cd $SPARK_HOME/bin ./run-example SparkPi## 1.启动 ./spark-shellUI访问控制打印地址为虚拟机域名Windows 未添加 Host 解析直接通过IP地址访问## 1.停止 scala :quit## 1.交互分析 cd $SPARK_HOME/bin cat /home/test.txt ./spark-shell ## 2.取文件 var filesc.textFile(file:///home/test.txt) ## 3.打印行数和第一行信息 file.count() file.first() ## 4.过滤 var hellofile.filter(lineline.contains(Hello)) hello.count()3.集群配置 域名地址类别nn192.168.1.6masternd1192.168.1.7slavend2192.168.1.8slave 同单机配置在 nd1 、nd2 部署 spark并设置环境变量也可利用 scp 命令将住节点下配置好的文件拷贝到从节点 ## 1.修改 nn 配置此处旧版本为 slave cd $SPARK_HOME/conf cp workers.template workers vim workers ## 2.添加主从节点域名 echo nn workers echo nd1 workers echo nd2 workers ## 3.保存并将配置文件分发到 nd1、nd2 scp workers rootnd1:$SPARK_HOME/conf/ scp workers rootnd2:$SPARK_HOME/conf/ ## 4.增加 spark 配置 echo export JAVA_HOME/usr/local/java/jdk-11.0.19/ spark-env.sh echo export SPARK_MASTER_HOSTnn spark-env.sh echo export SPARK_MASTER_PORT7077 spark-env.sh ## 5.将配置分发到 nd1、nd2 scp spark-env.sh rootnd1:$SPARK_HOME/conf/ scp spark-env.sh rootnd2:$SPARK_HOME/conf/workers 文件配置内容如下 ## 1.修改 host 将本机域名与IP地址绑定 vim /etc/hosts ## 2.启动 cd $SPARK_HOME/sbin/ ./start-all.sh ## 3.停止 ./stop-all.shHost 配置 启动日志 查看集群 UIhttp://192.168.1.6:8080/二.Java 访问 Spark 当前测试环境为 VM Ware 虚拟机本地为 WIN 10 IDEA 调试问题记录Spark 回调本机超时Win 防火墙未关闭端口不通Lamdba 语法 cannot assign instance of java.lang.invoke.SerializedLambda本地 Jdk 版本和 Spark 集群环境 Jdk 版本要一致String Serialized 序列化问题Java 依赖包和 Spark Jar 包版本要一致Jdk 版本过高某些类解析提示 unnamed可以在 IDEA 启动命令配置上–add-exports java.base/sun.nio.chALL-UNNAMED域名 由于虚拟机原因本机存在虚拟网卡虚拟机内访问本地会通过域名默认本地主机名访问要注意服务回调端口绑定的地址是虚拟网卡地址还是真实网卡地址并将该地址配置配置到虚拟机的 Hosts | Linux 配置域名解析 vim /etc/hosts 1.Pom 依赖 ?xml version1.0 encodingUTF-8? project xmlnshttp://maven.apache.org/POM/4.0.0xmlns:xsihttp://www.w3.org/2001/XMLSchema-instancexsi:schemaLocationhttp://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsdmodelVersion4.0.0/modelVersiongroupIdorg.example/groupIdartifactIdspark-demo/artifactIdversion1.0-SNAPSHOT/versionpackagingjar/packagingpropertiesmaven.compiler.source11/maven.compiler.sourcemaven.compiler.target11/maven.compiler.targetproject.build.sourceEncodingUTF-8/project.build.sourceEncoding/propertiesdependenciesdependencygroupIdorg.apache.spark/groupIdartifactIdspark-core_2.12/artifactIdversion3.4.1/version/dependencydependencygroupIdorg.apache.spark/groupIdartifactIdspark-sql_2.12/artifactIdversion3.4.1/version/dependency/dependenciesbuildfinalNamemySpark/finalName/build /project2.测试代码 1.计算 π package org.example;import org.apache.spark.SparkConf; import org.apache.spark.api.java.JavaRDD; import org.apache.spark.api.java.JavaSparkContext; import org.apache.spark.sql.Dataset; import org.apache.spark.sql.Row; import org.apache.spark.sql.RowFactory; import org.apache.spark.sql.SQLContext; import org.apache.spark.sql.types.DataTypes; import org.apache.spark.sql.types.StructField; import org.apache.spark.sql.types.StructType;import java.util.ArrayList; import java.util.Arrays; import java.util.List;import static org.apache.spark.sql.functions.col;/*** author Administrator*/ public class SparkApp {public static void main(String[] args) throws Exception {SparkConf conf new SparkConf().setAppName(MySpark)//远程连接时需要将本地包分发到 worker 否则可能报错: cannot assign instance of java.lang.invoke.SerializedLambda.setJars(new String[]{E:\\IdeaProjects\\spark-demo\\target\\mySpark.jar}).setMaster(spark://192.168.1.6:7077);JavaSparkContext jsc new JavaSparkContext(conf);getPi(jsc);}/*** 计算 pi* 即(0,1)随机数落在 1/4 圆占单位正方形的概率 (1/4 * (Pi*1^2))/(1^2) Pi/4 count/numSamples*/public static void getPi(JavaSparkContext jsc){int numSamples 1000000;ListInteger l new ArrayList(numSamples);for (int i 0; i numSamples; i) {l.add(i);}//统计命中数long count jsc.parallelize(l).filter(i - {double x Math.random();double y Math.random();return x*x y*y 1;}).count();System.out.println(Pi is roughly 4.0 * count / numSamples);} }三.Spark 配置 Hadoop 1.配置 Hadoop ## 1.停止 spark 服务 修改主节点 spark 配置基于前面教程搭建的 Hadoop 集群 echo export HADOOP_CONF_DIR/usr/local/hadoop/hadoop-3.3.6/etc/hadoop $SPARK_HOME/conf/spark-env.sh ## 2.启动 Hadoop 服务 $HADOOP_HOME/sbin/start-all.sh ## 3.启动 Spark 服务 $SPARK_HOME/sbin/start-all.sh ## 4.查看 Hadoop 文件 hadoop fs -cat /log/test.txt2.测试代码 1.统计字符数 package org.example;import org.apache.spark.SparkConf; import org.apache.spark.api.java.JavaRDD; import org.apache.spark.api.java.JavaSparkContext;/*** author Administrator*/ public class SparkApp {public static void main(String[] args) throws Exception {SparkConf conf new SparkConf().setAppName(MySpark)//远程连接时需要将本地包分发到 worker 否则可能报错: cannot assign instance of java.lang.invoke.SerializedLambda.setJars(new String[]{E:\\IdeaProjects\\spark-demo\\target\\mySpark.jar}).setMaster(spark://192.168.1.6:7077);JavaSparkContext jsc new JavaSparkContext(conf);dataFrame(jsc);}/*** DataFrame API examples*/public static void dataFrame(JavaSparkContext jsc){// Creates a DataFrame having a single column named lineJavaRDDString lines jsc.textFile(hdfs://192.168.1.6:9000/log/test.txt);JavaRDDInteger lineLengths lines.map(s - s.length());int totalLength lineLengths.reduce((a, b) - a b);System.out.println(totalLength);}}
http://www.zqtcl.cn/news/498751/

相关文章:

  • 导航网站如何被百度收录广告设计在线设计
  • 雪域什么网站是做电影的苏州优化方式
  • 设计网站多少钱手机百度助手
  • 驾校网上约车网站开发不会做网站如何做seo
  • 企业做推广可以发哪些网站宜兴埠网站建设
  • 网站后台文章添加成功 不显示公司设计网站建设合同
  • 后端开发需要掌握哪些知识潍坊优化公司
  • 专业手机网站制作哪家好wordpress wp-polls
  • 网站建设前分析网页制作素材按钮
  • 做视频网站怎么对接云盘松江新城网站建设
  • 温州阿里巴巴网站建设企业宣传片怎么拍
  • 淮阳住房城乡建设局网站阿里巴巴做国际网站要多少钱
  • 电子商务个人网站可以备案吗短网址还原
  • 网站内容由什么组成部分组成部分电子商务网站建设主管的策划书
  • 云服务器安装win系统做网站seo三人行论坛
  • 电气网站设计机械设计软件solidworks
  • 内网网站建设所需硬件设备厦门关键词排名提升
  • 网站动态海报效果怎么做的最专业网站建
  • 学校如何建设网站北京市住房及城乡建设部网站
  • 响应式网站制作流程全国城建培训中心官网查询证书
  • 北京工程建设信息网站中国市场网
  • xml做网站源码免费网站是
  • 中国工商建设标准化协会网站织梦app网站模板
  • 怎么做好网络销售文大侠seo博客
  • wish网站应该怎么做网站建设前规划
  • 网站建设目的是什么建筑机械人才培训网官网
  • 建筑建设行业网站大型购物网站开发
  • 手机网站开发用什么设计之家网
  • 网站开发平台有哪些什么是网络开发
  • 学校网站前置审批网站做哪些比较有意思