网站建设销售合同,wordpress模板导航,黄山市网站建设,青岛网站建设公司正第1章 HDFS-核心参数
1.1 NameNode内存生产配置
1#xff09;NameNode 内存计算
每个文件块大概占用 150 byte#xff0c;一台服务器 128G 内存为例#xff0c;能存储多少文件块呢#xff1f; 128 * 1024 * 1024 * 1024 / 150byte ≈ 9.1 亿G MB KB Byte
2#xff09…第1章 HDFS-核心参数
1.1 NameNode内存生产配置
1NameNode 内存计算
每个文件块大概占用 150 byte一台服务器 128G 内存为例能存储多少文件块呢 128 * 1024 * 1024 * 1024 / 150byte ≈ 9.1 亿G MB KB Byte
2Hadoop2.x系列配置 NameNode 内存 NameNode 内存默认 2000m如果内存服务器内存 4GNameNode 内存可以配置 3g。在 hadoop-env.sh 文件中配置如下 HADOOP_NAMENODE_OPTS-Xmx3072m3Hadoop3.x系列配置 NameNode 内存
1hadoop-env.sh 中描述 Hadoop 的内存是动态分配的
# The maximum amount of heap to use (Java -Xmx). If no unit
# is provided, it will be converted to MB. Daemons will
# prefer any Xmx setting in their respective _OPT variable.
# There is no default; the JVM will autoscale based upon machine
# memory size.
# export HADOOP_HEAPSIZE_MAX# The minimum amount of heap to use (Java -Xms). If no unit
# is provided, it will be converted to MB. Daemons will
# prefer any Xms setting in their respective _OPT variable.
# There is no default; the JVM will autoscale based upon machine
# memory size.
# export HADOOP_HEAPSIZE_MIN
HADOOP_NAMENODE_OPTS-Xmx102400m2查看 NameNode 占用内存
[rootnode1 ~]# jps
1990 NameNode
2135 DataNode
2553 ResourceManager
1771 QuorumPeerMain
3069 Jps
2703 NodeManager
[rootnode1 ~]# jmap -heap 1990
Attaching to process ID 1990, please wait...
Debugger attached successfully.
Server compiler detected.
JVM version is 25.241-b07using thread-local object allocation.
Parallel GC with 2 thread(s)Heap Configuration:MinHeapFreeRatio 0MaxHeapFreeRatio 100MaxHeapSize 2046820352 (1952.0MB) ☆NewSize 42467328 (40.5MB)MaxNewSize 682098688 (650.5MB)OldSize 85458944 (81.5MB)NewRatio 2SurvivorRatio 8MetaspaceSize 21807104 (20.796875MB)CompressedClassSpaceSize 1073741824 (1024.0MB)MaxMetaspaceSize 17592186044415 MBG1HeapRegionSize 0 (0.0MB)Heap Usage:
PS Young Generation
Eden Space:capacity 127926272 (122.0MB)used 114224304 (108.93278503417969MB)free 13701968 (13.067214965820312MB)89.28916806080302% used
From Space:capacity 5242880 (5.0MB)used 0 (0.0MB)free 5242880 (5.0MB)0.0% used
To Space:capacity 18874368 (18.0MB)used 0 (0.0MB)free 18874368 (18.0MB)0.0% used
PS Old Generationcapacity 122683392 (117.0MB)used 42217192 (40.261451721191406MB)free 80466200 (76.7385482788086MB)34.411497197599495% used15419 interned Strings occupying 1436248 bytes.3查看 DataNode 占用内存
[rootnode1 ~]# jmap -heap 2135
Attaching to process ID 2135, please wait...
Debugger attached successfully.
Server compiler detected.
JVM version is 25.241-b07using thread-local object allocation.
Parallel GC with 2 thread(s)Heap Configuration:MinHeapFreeRatio 0MaxHeapFreeRatio 100MaxHeapSize 2046820352 (1952.0MB) ☆NewSize 42467328 (40.5MB)MaxNewSize 682098688 (650.5MB)OldSize 85458944 (81.5MB)NewRatio 2SurvivorRatio 8MetaspaceSize 21807104 (20.796875MB)CompressedClassSpaceSize 1073741824 (1024.0MB)MaxMetaspaceSize 17592186044415 MBG1HeapRegionSize 0 (0.0MB)Heap Usage:
PS Young Generation
Eden Space:capacity 127926272 (122.0MB)used 18529608 (17.67121124267578MB)free 109396664 (104.32878875732422MB)14.484599379242443% used
From Space:capacity 5242880 (5.0MB)used 0 (0.0MB)free 5242880 (5.0MB)0.0% used
To Space:capacity 12058624 (11.5MB)used 0 (0.0MB)free 12058624 (11.5MB)0.0% used
PS Old Generationcapacity 78118912 (74.5MB)used 15015288 (14.319694519042969MB)free 63103624 (60.18030548095703MB)19.221066468514053% used15063 interned Strings occupying 1353568 bytes.查看发现主节点上的 NameNode 和 DataNode 占用内存都是自动分配的且相等。不是很合理。
可以参考 CDH 官方说明配置
Hardware Requirements | 6.x | Cloudera Documentation 具体修改hadoop-env.sh
export HDFS_NAMENODE_OPTS-Dhadoop.security.loggerINFO,RFAS -Xmx1024m
export HDFS_DATANODE_OPTS-Dhadoop.security.loggerERROR,RFAS -Xmx1024m1.2 NameNode 心跳并发配置 1hdfs-site.xml
The number of Namenode RPC server threads that listen to requests from clients. If dfs.namenode.servicerpc-address is not configured then Namenode RPC server threads listen to requests from all nodes.
NameNode有一个工作线程池用来处理不同DataNode的并发心跳以及客户端并发的元数据操作。
对于大集群或者有大量客户端的集群来说通常需要增大该参数。默认值是10。
propertynamedfs.namenode.handler.count/namevalue21/value
/property企业经验 d f s . n a m e n o d e . h a n d l e r . c o u n t 20 ∗ 〖 l o g 〗 e ( C l u s t e r S i z e ) dfs.namenode.handler.count 20 *〖log〗_e^(Cluster Size) dfs.namenode.handler.count20∗〖log〗e(ClusterSize) 比如集群规模 DataNode 台数为3台时此参数设置为21.可通过简单的python代码计算该值代码如下
[rootnode1 ~]# python
Python 2.7.5 (default, Aug 7 2019, 00:51:29)
[GCC 4.8.5 20150623 (Red Hat 4.8.5-39)] on linux2
Type help, copyright, credits or license for more information.import mathprint int(20*math.log(3))
211.3 开启回收站配置
开启回收站功能可以将删除的文件在不超时的情况下回复原数据起到防止误删除、备份等作用
1回收站机制 2开启回收站功能参数说明
1默认值fs.trash.interval 00表示禁用回收站其他值表示设置文件的存活时间。
2默认值fs.trash.checkpoint.interval 0检查回收站的间隔时间。如果该值为0则该值设置和fs.trash.interval的参数值相等。
3要求fs.trash.checkpoint.interval fs.trash.interval。
3启用回收站
修改 core-site.xml配置垃圾回收时间为1分钟
propertynamefs.trash.interval/namevalue1/value
/property4查看回收站
回收站目录在HDFS集群中的路径/user/root《随用户而变》/.Trash
5注意通过web的9870端口删除的文件不会走回收站
6通过程序删除的文件不会经过回收站需要调用 moveToTrash才进入回收站
Trash trash New Trash(conf);
trash.moveToTrash(path);7在命令行利用hadoop fs -rm命令删除的文件才会走回收站。
[rootnode1 hadoop]# hadoop fs -rm /tmp/lj_tmp/202312/10/input/new_node1_2023-12-10_14_56_54.log
2024-01-28 18:43:21,365 INFO fs.TrashPolicyDefault: Moved: hdfs://node1:8020/tmp/lj_tmp/202312/10/input/new_node1_2023-12-10_14_56_54.log to trash at: hdfs://node1:8020/user/root/.Trash/Current/tmp/lj_tmp/202312/10/input/new_node1_2023-12-10_14_56_54.log8恢复回收站数据
hadoop fs -mv hdfs://node1:8020/user/root/.Trash/Current/tmp/lj_tmp/202312/10/input/new_node1_2023-12-10_14_56_54.log hdfs://node1:8020/tmp/lj_tmp/202312/10/input第2章 HDFS-集群压测
在企业中非常关心每天从Java后台拉取过来的数据需要多久能上传到集群消费者关心多久能从HDFS上拉取需要的数据
为了搞清楚HDFS的读写性能生产环境上非常需要对集群进行压测。 HDFS的读写性能主要受网络和磁盘影响比较大。为了方便测试将hadoop102、hadoop103、hadoop104虚拟机网络都设置为100mbps。 100Mbps单位是bit10M/s单位是byte ; 1byte8bit100Mbps/812.5M/s。
测试网速来到node2的/opt/module目录创建一个
[rootnode1 hadoop]# python -m SimpleHTTPServer2.1 测试 HDFS 写性能
1写测试底层原理 2测试内容向HDFS集群写10个128M的文件
[rootnode1 hadoop]# hadoop jar /opt/module/hadoop-3.1.3/share/hadoop/mapreduce/hadoop-mapreduce-client-jobclient-3.1.3-tests.jar TestDFSIO -write -nrFiles 10 -fileSize 128MB2021-02-09 10:43:16,853 INFO fs.TestDFSIO: ----- TestDFSIO ----- : write
2021-02-09 10:43:16,854 INFO fs.TestDFSIO: Date time: Tue Feb 09 10:43:16 CST 2021
2021-02-09 10:43:16,854 INFO fs.TestDFSIO: Number of files: 10
2021-02-09 10:43:16,854 INFO fs.TestDFSIO: Total MBytes processed: 1280
2021-02-09 10:43:16,854 INFO fs.TestDFSIO: Throughput mb/sec: 1.61
2021-02-09 10:43:16,854 INFO fs.TestDFSIO: Average IO rate mb/sec: 1.9
2021-02-09 10:43:16,854 INFO fs.TestDFSIO: IO rate std deviation: 0.76
2021-02-09 10:43:16,854 INFO fs.TestDFSIO: Test exec time sec: 133.05
2021-02-09 10:43:16,854 INFO fs.TestDFSIO:注意nrFiles n为生成mapTask的数量生产环境一般可通过hadoop103:8088查看CPU核数设置为CPU核数 - 1 Number of files生成mapTask数量一般是集群中CPU核数-1我们测试虚拟机就按照实际的物理内存-1分配即可 Total MBytes processed单个map处理的文件大小 Throughput mb/sec:单个mapTak的吞吐量 计算方式处理的总文件大小/每一个mapTask写数据的时间累加 集群整体吞吐量生成mapTask数量*单个mapTak的吞吐量 Average IO rate mb/sec::平均mapTak的吞吐量 计算方式每个mapTask处理文件大小/每一个mapTask写数据的时间 全部相加除以task数量 IO rate std deviation:方差、反映各个mapTask处理的差值越小越均衡
3注意如果测试过程中出现异常
1可以在 yarn-site.xml 中设置虚拟内存检测为 false
!--是否启动一个线程检查每个任务正使用的虚拟内存量如果任务超出分配值则直接将其杀掉默认是true --
propertynameyarn.nodemanager.vmem-check-enabled/namevaluefalse/value
/property2分发配置并重启 Yarn 集群
4测试结果分析
1由于副本1就在本地所以该副本不参与测试 一共参与测试的文件10个文件 * 2个副本 20个 压测后的速度1.61 实测速度1.61M/s * 20个文件 ≈ 32M/s 三台服务器的带宽12.5 12.5 12.5 ≈ 30m/s 所有网络资源都已经用满。 如果实测速度远远小于网络并且实测速度不能满足工作需求可以考虑采用固态硬盘或者增加磁盘个数。 2如果客户端不在集群节点那就三个副本都参与计算
2.2 测试 HDFS 读性能
1测试内容读取HDFS集群10个128M的文件
[rootnode1 hadoop]# hadoop jar /opt/module/hadoop-3.1.3/share/hadoop/mapreduce/hadoop-mapreduce-client-jobclient-3.1.3-tests.jar TestDFSIO -read -nrFiles 10 -fileSize 128MB2021-02-09 11:34:15,847 INFO fs.TestDFSIO: ----- TestDFSIO ----- : read
2021-02-09 11:34:15,847 INFO fs.TestDFSIO: Date time: Tue Feb 09 11:34:15 CST 2021
2021-02-09 11:34:15,847 INFO fs.TestDFSIO: Number of files: 10
2021-02-09 11:34:15,847 INFO fs.TestDFSIO: Total MBytes processed: 1280
2021-02-09 11:34:15,848 INFO fs.TestDFSIO: Throughput mb/sec: 200.28
2021-02-09 11:34:15,848 INFO fs.TestDFSIO: Average IO rate mb/sec: 266.74
2021-02-09 11:34:15,848 INFO fs.TestDFSIO: IO rate std deviation: 143.12
2021-02-09 11:34:15,848 INFO fs.TestDFSIO: Test exec time sec: 20.832删除测试生成数据
[rootnode1 hadoop]# hadoop jar /opt/module/hadoop-3.1.3/share/hadoop/mapreduce/hadoop-mapreduce-client-jobclient-3.1.3-tests.jar TestDFSIO -clean3测试结果分析为什么读取文件速度大于网络带宽由于目前只有三台服务器且有三个副本数据读取就近原则相当于都是读取的本地磁盘数据没有走网络。
第3章 HDFS 多目录
3.1 NameNode 多目录配置
1NameNode的本地目录可以配置成多个且每个目录存放内容相同增加了可靠性 2具体配置如下
1在 hdfs-site.xml 文件中添加如下内容
propertynamedfs.namenode.name.dir/namevaluefile://${hadoop.tmp.dir}/dfs/name1,file://${hadoop.tmp.dir}/dfs/name2/value
/property注意因为每台服务器节点的磁盘情况不同所以这个配置配完之后可以选择不分发
2停止集群删除三台节点的data和logs中所有数据。
[rootnode1 hadoop]# rm -rf data/ logs/
[rootnode1 hadoop]# rm -rf data/ logs/
[rootnode1 hadoop]# rm -rf data/ logs/3格式化集群并启动
[rootnode1 hadoop]# bin/hdfs namenode -format
[rootnode1 hadoop]# sbin/start-dfs.sh3查看结果
[rootnode1 dfs]# ls
data name1 name2检查 name1 和 name2 里面的内容发现一模一样。
3.2 DataNode 多目录配置
1DataNode 可以配置成多个目录每个目录存储的数据不一样数据不是副本 2具体配置如下
在 hdfs-site.xml 文件中添加如下内容
propertynamedfs.datanode.data.dir/namevaluefile://${hadoop.tmp.dir}/dfs/data1,file://${hadoop.tmp.dir}/dfs/data2/value
/property3查看结果
[rootnode1 hadoop]# ls
data1 data2 name1 name24向集群上传一个文件再次观察两个文件夹里面的内容发现不一致一个有数一个没有
3.3 集群数据均衡之磁盘间数据均衡
生产环境由于硬盘空间不足往往需要增加一块硬盘。刚加载的硬盘没有数据时可以执行磁盘数据均衡命令。Hadoop3.x新特性 1生成均衡计划我们只有一块磁盘不会生成计划
hdfs diskbalancer -plan hadoop1032执行均衡计划
hdfs diskbalancer -execute hadoop103.plan.json3查看当前均衡任务的执行情况
hdfs diskbalancer -query hadoop1034取消均衡任务
hdfs diskbalancer -cancel hadoop103.plan.json第4章 HDFS–集群扩容及缩容
4.1 添加白名单
白名单表示在白名单的主机IP地址可以用来存储数据
企业中配置白名单可以尽量防止黑客恶意访问攻击 配置白名单步骤如下
1在 NameNode 节点的 ./hadoop/etc/hadoop 目录下分别创建 whitelist 和blacklist 文件
1创建白名单
vim whitelist在 whitelist 中添加如下主机名称假如集群正常工作节点为 102 103
hadoop102
hadoop1032创建黑名单
# 保持空的就可以
touch blacklist2在 hdfs-site.xml 配置文件中增加 dfs.hosts 配置参数
!-- 白名单 --
propertynamedfs.hosts/namevalue/export/server/hadoop/etc/hadoop/whitelist/value
/property!-- 黑名单 --
propertynamedfs.hosts.exclude/namevalue/export/server/hadoop/etc/hadoop/blacklist/value
/property3分发配置文件 whitelisthdfs-site.xml
xsync whitelist hdfs-site.xml4第一次添加白名单必须重启集群不是第一次只需刷新 NameNode 节点即可
5在 web 浏览器上查看 DNhttp://hadoop102:9870/dfshealth.html#tab-datanode 6在 hadoop104 上执行上传数据失败
7二次修改白名单增加 hadoop104
vim whitelist
hadoop102
hadoop103
hadoop1048刷新 NameNode
hdfs dfsadmin -refreshNodes9在 web 浏览器上查看 DNhttp://hadoop102:9870/dfshealth.html#tab-datanode 4.2 服役新服务器
1需求
随着公司业务的增长数据量越来越大原有的数据节点的容量已经不能满足存储数据的需求需要在原有集群基础上动态添加新的数据节点。
2环境准备
1在hadoop100主机上再克隆一台hadoop105主机
2修改IP地址和主机名称
vim /etc/sysconfig/network-scripts/ifcfg-ens33
vim /etc/hostname3拷贝hadoop102的 /export/server 目录和 /etc/profile.d/my_env.sh 到 hadoop105
scp -r /export/server/* roothadoop105:/export/server
scp /etc/profile.d/my_env.sh roothadoop105:/etc/profile.d/my_env.sh
source /etc/profile4删除 hadoop105 上 Hadoop 的历史数据data 和 log 数据
rm -rf data/ logs/5配置 hadoop102 和 hadoop103 到 hadoop105 的ssh 免密登陆
# 在 hadoop102 上执行
ssh-copy-id hadoop105
# 在 hadoop103 上执行
ssh-copy-id hadoop1053服役新节点具体步骤
1直接启动 DataNode即可关联到集群
hdfs --daemon start datanode
yarn --daemon start nodemanager4白名单中增加新服役的服务器
1在白名单whitelist中增加hadoop105
vim whitelist
修改为如下内容
hadoop102
hadoop103
hadoop104
hadoop1052分发
xsync whitelist3刷新 NameNode
dfs dfsadmin -refreshNodes5在 hadoop105 上上传文件
hadoop dfs -put ./test.txt /tmp4.3 服务器间数据均衡
1企业经验在企业开发中如果经常在hadoop102和hadoop104上提交任务且副本数为2由于数据本地性原则就会导致hadoop102和hadoop104数据过多hadoop103存储的数据量小。
另一种情况就是新服役的服务器数据量比较少需要执行集群均衡命令。 2开启数据均衡命令
sbin/start-balancer.sh -threshold 10对于参数10代表的是集群中各个节点的磁盘空间利用率相差不超过10%可根据实际情况进行调整。
3停止数据均衡命令
sbin/stop-balancer.sh注意由于 HDFS 需要启动单独的 Rebalance Server 来执行 Rebalance 操作所以尽量不要在 NameNode 上执行 start-balancer.sh而是找一台比较空闲的机器。
4.4 黑名单退役服务器
黑名单表示在黑名单的主机IP地址不可用用来存储数据
企业中配置黑名单用来退役服务器。 黑名单配置步骤如下
1编辑 blacklist 文件
vim blacklist添加如下主机名称要退役的节点
hadoop105注意如果白名单中没有配置需要在 hdfs-site.xml 配置文件中增加 dfs.host 配置参数
!-- 黑名单 --
propertynamedfs.hosts.exclude/namevalue/export/server/hadoop-3.1.3/etc/hadoop/blacklist/value
/property2分发配置文件 blacklist 和 hdfs-site.xml
xsync hdfs-site.xml blacklist3第一次添加黑名单必须重启集群不是第一次只需要刷新 NameNode 节点即可
hdfs dfsadmin -refreshNodes4检查 web 浏览器退役节点的状态为 decommission in progress退役中说明数据节点正在复制块到其他节点 5等待退役节点状态为 decommissioned所有块以复制完成停止该节点及节点资源管理器。
注意如果副本数是 3退役的节点小于等于3是不能退役成功的需要修改副本数后才能退役 hdfs --daemon stop datanode
yarn --daemon stop nodemanager6如果数据不均衡可以用命令实现集群的再平衡
sbin/start-balancer.sh -threshold 10第5章 HDFS-存储优化
注演示纠删码和异构存储需要一共5台虚拟机。尽量拿另外一套集群。提前准备5台服务器的集群。
5.1 纠删码
5.1.1 纠删码原理
HDFS默认情况下一个文件有3个副本这样提高了数据的可靠性但也带来了2倍的冗余开销。Hadoop3.x引入了纠删码采用计算的方式可以节省约50左右的存储空间。 1纠删码操作相关的命令
hdfs ec2查看当前支持的纠删码策略
hdfs ec -listPolicies3纠删码策略解释
RS-3-2-1024k使用RS编码每3个数据单元生成2个校验单元共5个单元也就是说这5个单元中只要有任意的3个单元存在不管是数据单元还是校验单元只要总数3就可以得到原始数据。每个单元的大小是1024k1024*10241048576。 RS-10-4-1024k使用RS编码每10个数据单元cell生成4个校验单元共14个单元也就是说这14个单元中只要有任意的10个单元存在不管是数据单元还是校验单元只要总数10就可以得到原始数据。每个单元的大小是1024k1024*10241048576。
RS-6-3-1024k使用RS编码每6个数据单元生成3个校验单元共9个单元也就是说这9个单元中只要有任意的6个单元存在不管是数据单元还是校验单元只要总数6就可以得到原始数据。每个单元的大小是1024k1024*10241048576。
RS-LEGACY-6-3-1024k策略和上面的RS-6-3-1024k一样只是编码的算法用的是rs-legacy。
XOR-2-1-1024k使用XOR编码速度比RS编码快每2个数据单元生成1个校验单元共3个单元也就是说这3个单元中只要有任意的2个单元存在不管是数据单元还是校验单元只要总数 2就可以得到原始数据。每个单元的大小是1024k1024*10241048576。
5.1.2 纠删码案例实操 纠删码策略是给具体一个路径设置。所有往此路径下存储的文件都会执行此策略。
默认只开启对RS-6-3-1024k策略的支持如要使用别的策略需要提前启用。
1需求将/input 目录设置为 RS-3-2-1024k 策略
2具体步骤
1开启对RS-3-2-1024k策略的支持
hdfs ec -enablePolicy -policy RS-3-2-1024k2在 HDFS 创建目录并设置 RS-3-2-1024k 策略
hdfs dfs -mkdir /input
hdfs ec -setPolicy -path /input -policy RS-3-2-1024k3上传文件并查看文件编码后的存储情况
hdfs dfs -put test.txt /input注你所上传的文件需要大于2M才能看出效果。低于2M只有一个数据单元和两个校验单元
4查看存储路径的数据单元和校验单元并作破坏实验
5.2 异构存储冷热数据分离
异构存储主要解决不同的数据存储在不同类型的硬盘中达到最佳性能的问题。 1关于存储类型
RAM_DISK内存镜像文件系统
SSDSSD固态硬盘
DISK普通硬盘在 HDFS 中如果没有主动声明数据目录存储类型默认都是 DISK
ARCHIVE没有特指哪种存储介质主要的指的是计算能力比较弱而存储密度比较高的存储介质用来解决数据量的容量扩增的问题一般用于归档
2关于存储策略
说明从 Lazy_Persist 到 Cold分别代表了设备的访问速度从快到慢 5.2.1 异构存储 Shell 操作
1查看当前有哪些存储策略可以用
hdfs storagepolicies -listPolicies2为指定路径数据存储目录设置指定的存储策略
hdfs storagepolicies -setStoragePolicy -path xxx -policy xxx3获取指定路径数据存储目录或文件的存储策略
hdfs storagepolicies -getStoragePolicy -path xxx4取消存储策略执行改命令之后该目录或者文件以其上级的目录为准如果是根目录那么就是HOT
hdfs storagepolicies -unsetStoragePolicy -path xxx5查看文件块的分布
hdfs fsck xxx -files -blocks -locations5查看集群节点
hadoop dfsadmin -report5.2.2 测试环境准备
1测试环境描述
服务器规模5台
集群配置副本数为2创建好带有存储类型的目录提前创建
集群规划
节点存储类型分配hadoop102RAM_DISKSSDhadoop103SSDDISKhadoop104DISKRAM_DISKhadoop105ARCHIVEhadoop106ARCHIVE
2配置文件信息
1为 hadoop102 节点的 hdfs-site.xml 添加如下信息
propertynamedfs.replication/namevalue2/value
/property
propertynamedfs.storage.policy.enabled/namevaluetrue/value
/property
propertynamedfs.datanode.data.dir/name value[SSD]file:///export/server/hadoop-3.1.3/hdfsdata/ssd,[RAM_DISK]file:///export/server/hadoop-3.1.3/hdfsdata/ram_disk/value
/property2为 hadoop103 节点的 hdfs-site.xml 添加如下信息
propertynamedfs.replication/namevalue2/value
/property
propertynamedfs.storage.policy.enabled/namevaluetrue/value
/property
propertynamedfs.datanode.data.dir/namevalue[SSD]file:///export/server/hadoop-3.1.3/hdfsdata/ssd,[DISK]file:///export/server/hadoop-3.1.3/hdfsdata/disk/value
/property3为 hadoop104 节点的 hdfs-site.xml 添加如下信息
propertynamedfs.replication/namevalue2/value
/property
propertynamedfs.storage.policy.enabled/namevaluetrue/value
/property
propertynamedfs.datanode.data.dir/namevalue[RAM_DISK]file:///export/server/hdfsdata/ram_disk,[DISK]file:///export/server/hadoop-3.1.3/hdfsdata/disk/value
/property4为 hadoop105 节点的 hdfs-site.xml 添加如下信息
propertynamedfs.replication/namevalue2/value
/property
propertynamedfs.storage.policy.enabled/namevaluetrue/value
/property
propertynamedfs.datanode.data.dir/namevalue[ARCHIVE]file:///export/server/hadoop-3.1.3/hdfsdata/archive/value
/property5为 hadoop106 节点的 hdfs-site.xml 添加如下信息
propertynamedfs.replication/namevalue2/value
/property
propertynamedfs.storage.policy.enabled/namevaluetrue/value
/property
propertynamedfs.datanode.data.dir/namevalue[ARCHIVE]file:///export/server/hadoop-3.1.3/hdfsdata/archive/value
/property3数据准备
1启动集群
start-all.sh2在 HDFS 上创建文件目录
hdfs fs -mkdir /testdir3并将文件资料上传
hdfs dfs -put ./text.txt /testdir5.2.3 HOT 存储策略案例
1最开始我们未设置存储策略的情况下我们获取该目录的存储策略
hdfs storagepolicies -getStoragePolicy -path /testdir2我们查看上传的文件块分布
hdfs fsck /testdir -files -blocks -locations[DatanodeInfoWithStorage[192.168.10.104:9866,DS-0b133854-7f9e-48df-939b-5ca6482c5afb,DISK], DatanodeInfoWithStorage[192.168.10.103:9866,DS-ca1bd3b9-d9a5-4101-9f92-3da5f1baa28b,DISK]]未设置存储策略所有文件块都存储在 DISK 下。所以默认存储策略为 HOT。
5.2.4 WARM存储策略测试
1接下来我们为数据降温
hdfs storagepolicies -setStoragePolicy -path /testdir -policy WARM2再次查看文件块分布我们可以看到文件块依然放在原处。
hdfs fsck /testdir -files -blocks -locations3我们需要让他 HDFS 按照存储策略自行移动文件块
hdfs mover /testdir4再次查看文件块分布
hdfs fsck /testdir -files -blocks -locations[DatanodeInfoWithStorage[192.168.10.105:9866,DS-d46d08e1-80c6-4fca-b0a2-4a3dd7ec7459,ARCHIVE], DatanodeInfoWithStorage[192.168.10.103:9866,DS-ca1bd3b9-d9a5-4101-9f92-3da5f1baa28b,DISK]]文件块一半在 DISK一半在 ARCHIVE符合我们设置的WARM策略
5.2.5 COLD 策略测试
1我们继续将数据降温为cold
hdfs storagepolicies -setStoragePolicy -path /testdir -policy COLD注意当我们将目录设置为 COLD 并且我们未配置 ARCHIVE 存储目录的情况下不可以向该目录直接上传文件会报出异常。
2手动转移
hdfs mover /testdir3检查文件块的分布
hdfs fsck /testdir -files -blocks -locations[DatanodeInfoWithStorage[192.168.10.105:9866,DS-d46d08e1-80c6-4fca-b0a2-4a3dd7ec7459,ARCHIVE], DatanodeInfoWithStorage[192.168.10.106:9866,DS-827b3f8b-84d7-47c6-8a14-0166096f919d,ARCHIVE]]所有文件块都在 ARCHIVE符合 COLD 存储策略。
5.2.6 ONE_SSD策略测试
1接下来我们将存储策略从默认的 HOT 更改为 ONE_SSD
hdfs storagepolicies -setStoragePolicy -path /testdir -policy One_SSD2手动转移
hdfs mover /testdir3检查文件块的分布
hdfs fsck /testdir -files -blocks -locations[DatanodeInfoWithStorage[192.168.10.104:9866,DS-0b133854-7f9e-48df-939b-5ca6482c5afb,DISK], DatanodeInfoWithStorage[192.168.10.103:9866,DS-2481a204-59dd-46c0-9f87-ec4647ad429a,SSD]]文件块分布为一半在SSD一半在DISK符合One_SSD存储策略。
5.2.7 ALL_SSD策略测试
1接下来我们再将存储策略更改为 All_SSD
hdfs storagepolicies -setStoragePolicy -path /testdir -policy All_SSD2手动转移
hdfs mover /testdir3检查文件块的分布
hdfs fsck /testdir -files -blocks -locations[DatanodeInfoWithStorage[192.168.10.102:9866,DS-c997cfb4-16dc-4e69-a0c4-9411a1b0c1eb,SSD], DatanodeInfoWithStorage[192.168.10.103:9866,DS-2481a204-59dd-46c0-9f87-ec4647ad429a,SSD]]所有的文件块都存储在SSD符合All_SSD存储策略。
5.2.8 LAZY_PERSIST策略测试
1将存储策略改为lazy_persist
hdfs storagepolicies -setStoragePolicy -path /testdir -policy lazy_persist2手动转移
hdfs mover /testdir3检查文件块的分布
hdfs fsck /testdir -files -blocks -locations[DatanodeInfoWithStorage[192.168.10.104:9866,DS-0b133854-7f9e-48df-939b-5ca6482c5afb,DISK], DatanodeInfoWithStorage[192.168.10.103:9866,DS-ca1bd3b9-d9a5-4101-9f92-3da5f1baa28b,DISK]]所有的文件块都存储在SSD符合All_SSD存储策略。
这里我们发现所有的文件块都是存储在DISK按照理论一个副本存储在RAM_DISK其他副本存储在DISK中这是因为我们还需要配置“dfs.datanode.max.locked.memory”“dfs.block.size”参数。
那么出现存储策略为LAZY_PERSIST时文件块副本都存储在DISK上的原因有如下两点
1当客户端所在的DataNode节点没有RAM_DISK时则会写入客户端所在的DataNode节点的DISK磁盘其余副本会写入其他节点的DISK磁盘。
2当客户端所在的DataNode有RAM_DISK但“dfs.datanode.max.locked.memory”参数值未设置或者设置过小小于“dfs.block.size”参数值时则会写入客户端所在的DataNode节点的DISK磁盘其余副本会写入其他节点的DISK磁盘。
但是由于虚拟机的“max locked memory”为64KB所以如果参数配置过大还会报出错误
ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: Exception in secureMain
java.lang.RuntimeException: Cannot start datanode because the configured max locked memory size (dfs.datanode.max.locked.memory) of 209715200 bytes is more than the datanodes available RLIMIT_MEMLOCK ulimit of 65536 bytes.我们可以通过该命令查询此参数的内存
ulimit -a第6章 HDFS-故障排除
注意采用三台服务器即可恢复到Yarn开始的服务器快照。
6.1 NameNode 故障处理 1需求
NameNode进程挂了并且存储的数据也丢失了如何恢复NameNode
2故障模拟
1kill -9 NameNode 进程
kill -9 20782删除 NameNode 存储的数据/export/server/hadoop-3.1.3/data/tmp/dfs/name
rm -rf /export/server/hadoop-3.1.3/data/tmp/dfs/name/*3问题解决
1拷贝 SecondaryNameNode 中数据到原 NameNode 存储数据目录
scp -r roothadoop104/export/server/hadoop-3.1.3/data/tmp/dfs/name /export/server/hadoop-3.1.3/data/tmp/dfs/name2重新启动 NameNode
hdfs --daemon start namenode3向集群上传一个文件
hdfs dfs ./test.txt /tmp6.2 集群安全模式磁盘修复
1安全模式文件系统只接受读数据请求而不接受删除、修改等变更请求
2进入安全模式场景
NameNode 在加载镜像文件和编辑日志期间处于安全模式NameNode 再接收 DataNode 注册时处于安全模式 3退出安全模式条件 dfs.namenode.safemode.min.datanodes:最小可用datanode数量默认0 dfs.namenode.safemode.threshold-pct:副本数达到最小要求的block占系统总block数的百分比默认0.999f。只允许丢一个块 dfs.namenode.safemode.extension:稳定时间默认值30000毫秒即30秒 4基本语法
集群处于安全模式不能执行重要操作写操作。集群启动完成后自动退出安全模式。
hdfs dfsadmin -safemode get 功能描述查看安全模式状态
hdfs dfsadmin -safemode enter 功能描述进入安全模式状态
hdfs dfsadmin -safemode leave 功能描述离开安全模式状态
hdfs dfsadmin -safemode wait 功能描述等待安全模式状态5案例1启动集群进入安全模式
1重新启动集群
stop-all.sh
start-all.sh2集群启动后立即来到集群式伤处数据提示集群处于安全模式 6案例2磁盘修复
需求数据块损坏进入安全模式如何处理
1分别进入hadoop102、hadoop103、hadoop104的/export/server/hadoop-3.1.3/data/dfs/data/current/BP-1015489500-192.168.10.102-1611909480872/current/finalized/subdir0/subdir0目录统一删除某2个块信息
cd /export/server/hadoop-3.1.3/data/dfs/data/current/BP-1015489500-192.168.10.102-1611909480872/current/finalized/subdir0/subdir0
rm -rf blk_1073741847 blk_1073741847_1023.meta
rm -rf blk_1073741865 blk_1073741865_1042.meta说明hadoop103/hadoop104重复执行以上命令
2重新启动集群
start-all.sh3观察http://hadoop102:9870/dfshealth.html#tab-overview 说明安全模式已经打开块的数量没有达到要求。
4离开安全模式
hdfs dfsadmin -safemode get
hdfs dfsadmin -safemode leave5观察http://hadoop102:9870/dfshealth.html#tab-overview 6将元数据删除 7观察http://hadoop102:9870/dfshealth.html#tab-overview集群已经正常
7案例3
需求模拟等待安全模式
1查看当前模式
hdfs dfsadmin -safemode get2先进入安全模式
hdfs dfsadmin -safemode enter3创建并执行下面的脚本
在/export/server/hadoop-3.1.3路径上编辑一个脚本safemode.sh
vim safemode.sh#!/bin/bash
hdfs dfsadmin -safemode wait
hdfs dfs -put /opt/module/hadoop-3.1.3/README.txt /sh safemode.sh4再打开一个窗口执行
hdfs dfsadmin -safemode leave5再观察上一个窗口
Safe mode is OFF6HDFS 集群上已经有上传的数据了 6.3 慢磁盘监控
“慢磁盘”指的时写入数据非常慢的一类磁盘。其实慢性磁盘并不少见当机器运行时间长了上面跑的任务多了磁盘的读写性能自然会退化严重时就会出现写入数据延时的问题。
如何发现慢磁盘
正常在HDFS上创建一个目录只需要不到1s的时间。如果你发现创建目录超过1分钟及以上而且这个现象并不是每次都有。只是偶尔慢了一下就很有可能存在慢磁盘。
可以采用如下方法找出是哪块磁盘慢
1通过心跳未联系时间。
一般出现慢磁盘现象会影响到DataNode与NameNode之间的心跳。正常情况心跳时间间隔是3s。超过3s说明有异常。 2fio命令测试磁盘的读写性能
1顺序读测试
yum install -y fio
fio -filename/home/atguigu/test.log -direct1 -iodepth 1 -thread -rwread -ioenginepsync -bs16k -size2G -numjobs10 -runtime60 -group_reporting -nametest_rRun status group 0 (all jobs):READ: bw360MiB/s (378MB/s), 360MiB/s-360MiB/s (378MB/s-378MB/s), io20.0GiB (21.5GB), run56885-56885msec结果显示磁盘的总体顺序读速度为360MiB/s。
2顺序写测试
fio -filename/home/atguigu/test.log -direct1 -iodepth 1 -thread -rwwrite -ioenginepsync -bs16k -size2G -numjobs10 -runtime60 -group_reporting -nametest_wRun status group 0 (all jobs):WRITE: bw341MiB/s (357MB/s), 341MiB/s-341MiB/s (357MB/s-357MB/s), io19.0GiB (21.4GB), run60001-60001msec结果显示磁盘的总体顺序写速度为341MiB/s。
3随机写测试
fio -filename/home/atguigu/test.log -direct1 -iodepth 1 -thread -rwrandwrite -ioenginepsync -bs16k -size2G -numjobs10 -runtime60 -group_reporting -nametest_randwRun status group 0 (all jobs):WRITE: bw309MiB/s (324MB/s), 309MiB/s-309MiB/s (324MB/s-324MB/s), io18.1GiB (19.4GB), run60001-60001msec结果显示磁盘的总体随机写速度为309MiB/s。
4混合随机读写
fio -filename/home/atguigu/test.log -direct1 -iodepth 1 -thread -rwrandrw -rwmixread70 -ioenginepsync -bs16k -size2G -numjobs10 -runtime60 -group_reporting -nametest_r_w -ioschedulernoopRun status group 0 (all jobs):READ: bw220MiB/s (231MB/s), 220MiB/s-220MiB/s (231MB/s-231MB/s), io12.9GiB (13.9GB), run60001-60001msecWRITE: bw94.6MiB/s (99.2MB/s), 94.6MiB/s-94.6MiB/s (99.2MB/s-99.2MB/s), io5674MiB (5950MB), run60001-60001msec结果显示磁盘的总体混合随机读写读速度为220MiB/s写速度94.6MiB/s****。
6.4 小文件归档
1HDFS存储小文件弊端 每个文件均按块存储每个块的元数据存储在NameNode的内存中因此HDFS存储小文件会非常低效。因为大量的小文件会耗尽NameNode中的大部分内存。但注意存储小文件所需要的磁盘容量和数据块的大小无关。例如一个1MB的文件设置为128MB的块存储实际使用的是1MB的磁盘空间而不是128MB。
2解决存储小文件办法之一
HDFS存档文件或HAR文件是一个更高效的文件存档工具它将文件存入HDFS块在减少NameNode内存使用的同时允许对文件进行透明的访问。具体说来HDFS存档文件对内还是一个一个独立文件对NameNode而言却是一个整体减少了NameNode的内存。 3实例操作
1需要启动 YARN 进程
start-yarn.sh2归档文件
把 /input 目录里面的所有文件归档成一个叫 input.har 的归档文件并把归档后文件存储到 /output 路径下。
hadoop archive -archiveName input.har -p /input /output3查看归档
hadoop fs -ls /output/input.har4解归档文件
hadoop fs -cp har:///output/input.har/* /第7章 HDFS-集群迁移
7.1 Apache 和 Apache 集群间数据拷贝
1scp 实现两个远程主机之间的文件复制
# 推 push
scp -r hello.txt roothadoop103:/root/tmp/hello.txt
# 拉 pull
scp -r roothadoop103:/root/tmp/hello.txt hello.txt
# 是通过本地主机中转实现两个远程主机的文件复制如果在两个远程主机之间 ssh 没有配置的情况下可以使用该方式。
scp -r roothadoop103:/root/tmp/hello.txt roothadoop104:/root/tmp 2采用 distcp 命令实现两个 Hadoop 集群之间的递归数据复制
hadoop distcp hdfs://hadoop102:8020/user/atguigu/hello.txt hdfs://hadoop105:8020/user/atguigu/hello.txt7.2 Apache 和 CDH 集群间拷贝数据
迁移数据
1准备两套集群我这使用apache集群和CDH集群。 2启动集群 3启动完毕后将apache集群中hive库里dwddwsads三个库的数据迁移到CDH集群 4在 apache 集群里 hosts 加上 CDH Namenode 对应域名并分发给各机器
vim /etc/hosts# 分发数据
xsync /etc/hosts5因为集群都是 HA高可用模式所以需要在 apache 集群上配置 CDH 集群让 distcp 能识别出 CDH 的 nameservice
修改 hdfs-site.xml
!--配置nameservice--
propertynamedfs.nameservices/namevaluemycluster,nameservice1/value
/property!--指定本地服务--
propertynamedfs.internal.nameservices/namevaluemycluster,nameservice1/value
/property
!--配置多NamenNode--
propertynamedfs.ha.namenodes.mycluster/namevaluenn1,nn2,nn3/value
/property
propertynamedfs.namenode.rpc-address.mycluster.nn1/namevaluehadoop101:8020/value
/property
property
propertynamedfs.namenode.rpc-address.mycluster.nn2/namevaluehadoop102:8020/value
/property
propertynamedfs.namenode.rpc-address.mycluster.nn3/namevaluehadoop103:8020/value
/property
!--配置nameservice1的namenode服务--
propertynamedfs.ha.namenodes.nameservice1/namevaluenamenode30,namenode37/value/propertypropertynamedfs.namenode.rpc-address.nameservice1.namenode30/namevaluehadoop104:8020/value/property
propertynamedfs.namenode.rpc-address.nameservice1.namenode37/namevaluehadoop106:8020/value/property
propertynamedfs.namenode.http-address.nameservice1.namenode30/namevaluehadoop104:9870/value/propertypropertynamedfs.namenode.http-address.nameservice1.namenode37/namevaluehadoop106:9870/value/propertypropertynamedfs.client.failover.proxy.provider.nameservice1/namevalueorg.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider/value/property
!--为NamneNode设置HTTP服务监听--
propertynamedfs.namenode.http-address.mycluster.nn1/namevaluehadoop101:9870/value
/property
propertynamedfs.namenode.http-address.mycluster.nn2/namevaluehadoop102:9870/value
/property
propertynamedfs.namenode.http-address.mycluster.nn3/namevaluehadoop103:9870/value
/property
!--配置HDFS客户端联系Active NameNode节点的Java类--
propertynamedfs.client.failover.proxy.provider.mycluster/namevalueorg.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider/value
/property6修改 CDH host
vim /etc/hosts7进行分发这里的hadoop104hadoop105hadoop106分别对应apache的hadoop101hadoop102hadoop103
xsync /etc/hosts8同样修改 CDH 集群配置在所有 hdfs-site.xml 文件里修改配置 propertynamedfs.nameservices/namevaluemycluster,nameservice1/value
/propertypropertynamedfs.internal.nameservices/namevaluenameservice1/value
/propertypropertynamedfs.ha.namenodes.mycluster/namevaluenn1,nn2,nn3/value
/propertypropertynamedfs.namenode.rpc-address.mycluster.nn1/namevaluehadoop104:8020/value
/propertypropertynamedfs.namenode.rpc-address.mycluster.nn2/namevaluehadoop105:8020/value
/propertypropertynamedfs.namenode.rpc-address.mycluster.nn3/namevaluehadoop106:8020/value
/propertypropertynamedfs.namenode.http-address.mycluster.nn1/namevaluehadoop104:9870/value
/propertypropertynamedfs.namenode.http-address.mycluster.nn2/namevaluehadoop105:9870/value
/propertypropertynamedfs.namenode.http-address.mycluster.nn3/namevaluehadoop106:9870/value
/propertypropertynamedfs.client.failover.proxy.provider.mycluster/namevalueorg.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider/value
/property9最后注意重点由于我的 Apahce 集群和 CDH 集群3台集群都是 hadoop101hadoop102hadoop103所以要关闭域名访问使用IP访问
CDH把钩去了 10Apache 设置为 false 11再使用 hadoop distcp 命令进行迁移-Dmapred.job.queue.name 指定队列默认是 default 队列。上面配置集群都配了的话那么在 CDH 和 apache 集群下都可以执行这个命令
hadoop distcp -Dmapred.job.queue.namehive webhdfs://mycluster:9070/user/hive/warehouse/dwd.db/ hdfs://nameservice1/user/hive/warehouse12会启动一个 MR 任务正在迁移 13查看 cdh 9870 http 地址 14数据已经成功迁移。数据迁移成功之后接下来迁移 hive 表结构编写 shell 脚本
#!/bin/bash
hive -e use dwd;show tablestables.txt
cat tables.txt |while read eachline
do
hive -e use dwd;show create table $eachlinetablesDDL.txt
echo ; tablesDDL.txt
done15执行脚本后将 tablesDDL.txt 文件分发到 CDH 集群下
xsync tablesDDL.txt16然后 CDH 下导入此表结构先进到 CDH 的 hive 里创建 dwd 库
hive
hive create database dwd;17创建数据库后边界 tablesDDL.txt 在最上方加上 use dwd; 18并且将 createtab_stmt 都替换成空格
sed -i s#createtab_stmt# #g tablesDDL.txt19最后执行 hive -f 命令将表结构导入
hive -f tablesDDL.txt 20最后将表的分区重新刷新下只有刷新分区才能把数据读出来编写脚本
vim msckPartition.sh#!/bin/bash
hive -e use dwd;show tablestables.txt
cat tables.txt |while read eachline
do
hive -e use dwd;MSCK REPAIR TABLE $eachline
done[roothadoop101 module]# chmod 777 msckPartition.sh
[roothadoop101 module]# ./msckPartition.sh 21刷新完分区后查询表数据 第8章 MapReduce 生产经验
8.1 MapReduce 跑得慢的原因
MapReduce程序效率的瓶颈在于两点
1计算机性能
CPU、内存、磁盘、网络
2I/O操作优化
1数据倾斜
2Map运行时间太长导致Reduce等待过久
3小文件过多
8.2 MapReduce 常用调优参数
MapReduce 优化 1 1自定义分区减少数据倾斜 定义类继承 Partitioner 接口重写 getPartition 方法 2减少溢写次数 mapreduce.task.io.sort.mb Shuffle的环形缓冲区大小默认100m可以提高到200m mapreduce.map.sort.spill.percent 环形缓冲区溢出的阈值默认80% 可以提高到90% 3增加每次 Merge 合并次数 mapreduce.task.io.sort.factor默认10可以提高到20 4在不影响业务结果的前提条件下可以提前采用Combiner job.setCombinerClass(xxxReducer.class); 5为了减少磁盘 IO可以采用 Snappy 或者 LZO 压缩 conf.setBoolean(“mapreduce.map.output.compress”, true); conf.setClass(“mapreduce.map.output.compress.codec”, SnappyCodec.class,CompressionCodec.class); 6mapreduce.map.memory.mb 默认 MapTask 内存上限1024MB。 可以根据128m 数据对应1G内存原则提高该内存。 7mapreduce.map.java.opts控制MapTask堆内存大小。如果内存不够报java.lang.OutOfMemoryError
8mapreduce.map.cpu.vcores 默认 MapTask 的 CPU 核数 1。计算密集型任务可以增加 CPU 核数
9异常重试 mapreduce.map.maxattempts每个Map Task最大重试次数一旦重试次数超过该值则认为Map Task运行失败默认值4。根据机器性能适当提高。 MapReduce 优化 2 1mapreduce.reduce.shuffle.parallelcopies 每个 Reduce 去 Map 中拉取数据的并行数默认值是5。可以提高到10。
2mapreduce.reduce.shuffle.input.buffer.percent Buffer 大小占 Reduce 可用内存的比例默认值0.7。可以提高到0.8
3mapreduce.reduce.shuffle.merge.percent Buffer中的数据达到多少比例开始写入磁盘默认值0.66。可以提高到0.75
4mapreduce.reduce.memory.mb 默认ReduceTask内存上限1024MB根据128m数据对应1G内存原则适当提高内存到4-6G
5mapreduce.reduce.java.opts控制ReduceTask堆内存大小。如果内存不够报java.lang.OutOfMemoryError
6mapreduce.reduce.cpu.vcores 默认 ReduceTask 的 CPU 核数1个。可以提高到 2-4 个
7mapreduce.reduce.maxattempts 每个Reduce Task 最大重试次数一旦重试次数超过该值则认为Map Task运行失败默认值4。
8mapreduce.job.reduce.slowstart.completedmaps 当 MapTask 完成的比例达到该值后才会为 ReduceTask 申请资源。默认是0.05。
9mapreduce.task.timeout 如果一个Task在一定时间内没有任何进入即不会读取新的数据也没有输出数据则认为该Task处于Block状态可能是卡住了也许永远会卡住为了防止因为用户程序永远Block住不退出则强制设置了一个该超时时间单位毫秒默认是60000010分钟。如果你的程序对每条输入数据的处理时间过长建议将该参数调大。
10如果可以不用Reduce尽可能不用
8.3 MapReduce 数据倾斜问题
1数据倾斜现象
数据频率倾斜——某一个区域的数据量要远远大于其他区域。
数据大小倾斜——部分记录的大小远远大于平均值。 2减少数据倾斜的方法
1首先检查是否空值过多造成的数据倾斜
生产环境可以直接过滤掉空值如果想保留空值就自定义分区将空值加随机数打散。最后再二次聚合。
2能在map阶段提前处理最好先在Map阶段处理。如Combiner、MapJoin 3设置多个reduce个数
第9章 Hadoop-YARN 生产经验
9.1 常用的调优参数
1调优参数列表
1Resourcemanager 相关
# 处理调度器请求的线程数量
yarn.resourcemanager.scheduler.client.thread-count ResourceManager
# 配置调度器
yarn.resourcemanager.scheduler.class2Nodemanager 相关
# NodeManager使用内存数
yarn.nodemanager.resource.memory-mb
# NodeManager为系统保留多少内存和上一个参数二者取一即可
yarn.nodemanager.resource.system-reserved-memory-mb
# NodeManager使用CPU核数
yarn.nodemanager.resource.cpu-vcores
# 是否将虚拟核数当作CPU核数
yarn.nodemanager.resource.count-logical-processors-as-cores
# 虚拟核数和物理核数乘数例如4核8线程该参数就应设为2
yarn.nodemanager.resource.pcores-vcores-multiplier
# 是否让yarn自己检测硬件进行配置
yarn.nodemanager.resource.detect-hardware-capabilities
# 是否开启物理内存检查限制container
yarn.nodemanager.pmem-check-enabled
# 是否开启虚拟内存检查限制container
yarn.nodemanager.vmem-check-enabled
# 虚拟内存物理内存比例
yarn.nodemanager.vmem-pmem-ratio 3Container 容器相关
# 容器最小内存
yarn.scheduler.minimum-allocation-mb
# 容器最大内存
yarn.scheduler.maximum-allocation-mb
# 容器最小核数
yarn.scheduler.minimum-allocation-vcores
# 容器最大核数
yarn.scheduler.maximum-allocation-vcores 第10章 Hadoop 综合调优
10.1 Hadoop 小文件优化方法
10.1.1 Hadoop 小文件弊端
HDFS上 每个文件都要在 NameNode 上创建对应的元数据这个元数据的大小约为 150byte这样当小文件比较多的时候就会产生很多的元数据文件一方面会大量占用 NameNode 的内存空间另一方面就是元数据文件过多使得寻址索引速度变慢。
小文件过多在进行MR计算时会生成过多切片需要启动过多的 MapTask。每个 MapTask 处理的数据量小导致 MapTask 的处理时间比启动时间还小白白消耗资源。
10.1.2 Hadoop小文件解决方案
1在数据采集的时候就将小文件或小批数据合成大文件再上传 HDFS数据源头 2Hadoop Archive存储方向 是一个高效的将小文件放入HDFS块中的文件存档工具能够将多个小文件打包成一个HAR文件从而达到减少NameNode的内存使用 3CombineTextInputFormat计算方向 CombineTextInputFormat用于将多个小文件在切片过程中生成一个单独的切片或者少量的切片。 4开启uber模式实现JVM重用计算方向 默认情况下每个Task任务都需要启动一个JVM来运行如果Task任务计算的数据量很小我们可以让同一个Job的多个Task运行在一个JVM中不必为每个Task都开启一个JVM。 1未开启uber模式在 /input 路径上上传多个小文件并执行 wordcount 程序
hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar wordcount /input /output22观察控制台
2021-02-14 16:13:50,607 INFO mapreduce.Job: Job job_1613281510851_0002 running in uber mode : false3观察 http://hadoop103:8088/cluster 4开启uber模式在 mapred-site.xml 中添加如下配置
!-- 开启uber模式默认关闭 --
propertynamemapreduce.job.ubertask.enable/namevaluetrue/value
/property!-- uber模式中最大的mapTask数量可向下修改 --
propertynamemapreduce.job.ubertask.maxmaps/namevalue9/value
/property
!-- uber模式中最大的reduce数量可向下修改 --
propertynamemapreduce.job.ubertask.maxreduces/namevalue1/value
/property
!-- uber模式中最大的输入数据量默认使用dfs.blocksize 的值可向下修改 --
propertynamemapreduce.job.ubertask.maxbytes/namevalue/value
/property5分发配置
xsync mapred-site.xml6再次执行 wordcount 程序
hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar wordcount /input /output27观察控制台
2021-02-14 16:28:36,198 INFO mapreduce.Job: Job job_1613281510851_0003 running in uber mode : true8观察 http://hadoop103:8088/cluster
10.2 测试MapReduce计算性能
使用Sort程序评测MapReduce
注一个虚拟机不超过 150G 磁盘尽量不要执行这段代码
1使用 RandomWriter 来产生随机数每个节点运行10个 Map 任务每个 Map 产生大约 1G 大小的二进制随机数
hadoop jar /opt/module/hadoop-3.1.3/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar randomwriter random-data2执行Sort程序
hadoop jar /opt/module/hadoop-3.1.3/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar sort random-data sorted-data3验证数据是否真正排好序了
hadoop jar /opt/module/hadoop-3.1.3/share/hadoop/mapreduce/hadoop-mapreduce-client-jobclient-3.1.3-tests.jar testmapredsort -sortInput random-data -sortOutput sorted-data10.3 企业开发场景案例
10.3.1 需求
1需求从1G数据中统计每个单词出现次数。服务器3台每台配置4G内存4核CPU4线程。
2需求分析
1G / 128m 8个MapTask1个ReduceTask1个mrAppMaster
平均每个节点运行10个 / 3台 ≈ 3个任务4 3 3
10.3.2 HDFS 参数调优
1修改hadoop-env.sh
export HDFS_NAMENODE_OPTS-Dhadoop.security.loggerINFO,RFAS -Xmx1024mexport HDFS_DATANODE_OPTS-Dhadoop.security.loggerERROR,RFAS -Xmx1024m2修改 hdfs-site.xml
!-- NameNode有一个工作线程池默认值是10 --
propertynamedfs.namenode.handler.count/namevalue21/value
/property3修改 core-site.xml
!-- 配置垃圾回收时间为60分钟 --
propertynamefs.trash.interval/namevalue60/value
/property4分发配置
xsync hadoop-env.sh hdfs-site.xml core-site.xml10.3.3 MapReduce参数调优
1修改 mapred-site.xml
!-- 环形缓冲区大小默认100m --
propertynamemapreduce.task.io.sort.mb/namevalue100/value
/property!-- 环形缓冲区溢写阈值默认0.8 --
propertynamemapreduce.map.sort.spill.percent/namevalue0.80/value
/property!-- merge合并次数默认10个 --
propertynamemapreduce.task.io.sort.factor/namevalue10/value
/property!-- maptask内存默认1g maptask堆内存大小默认和该值大小一致mapreduce.map.java.opts --
propertynamemapreduce.map.memory.mb/namevalue-1/valuedescriptionThe amount of memory to request from the scheduler for each map task. If this is not specified or is non-positive, it is inferred from mapreduce.map.java.opts and mapreduce.job.heap.memory-mb.ratio. If java-opts are also not specified, we set it to 1024./description
/property!-- matask的CPU核数默认1个 --
propertynamemapreduce.map.cpu.vcores/namevalue1/value
/property!-- matask异常重试次数默认4次 --
propertynamemapreduce.map.maxattempts/namevalue4/value
/property!-- 每个Reduce去Map中拉取数据的并行数。默认值是5 --
propertynamemapreduce.reduce.shuffle.parallelcopies/namevalue5/value
/property!-- Buffer大小占Reduce可用内存的比例默认值0.7 --
propertynamemapreduce.reduce.shuffle.input.buffer.percent/namevalue0.70/value
/property!-- Buffer中的数据达到多少比例开始写入磁盘默认值0.66。 --
propertynamemapreduce.reduce.shuffle.merge.percent/namevalue0.66/value
/property!-- reducetask内存默认1greducetask堆内存大小默认和该值大小一致mapreduce.reduce.java.opts --
propertynamemapreduce.reduce.memory.mb/namevalue-1/valuedescriptionThe amount of memory to request from the scheduler for each reduce task. If this is not specified or is non-positive, it is inferredfrom mapreduce.reduce.java.opts and mapreduce.job.heap.memory-mb.ratio.If java-opts are also not specified, we set it to 1024./description
/property!-- reducetask的CPU核数默认1个 --
propertynamemapreduce.reduce.cpu.vcores/namevalue2/value
/property!-- reducetask失败重试次数默认4次 --
propertynamemapreduce.reduce.maxattempts/namevalue4/value
/property!-- 当MapTask完成的比例达到该值后才会为ReduceTask申请资源。默认是0.05 --
propertynamemapreduce.job.reduce.slowstart.completedmaps/namevalue0.05/value
/property!-- 如果程序在规定的默认10分钟内没有读到数据将强制超时退出 --
propertynamemapreduce.task.timeout/namevalue600000/value
/property2分发配置
xsync mapred-site.xml10.3.4 Yarn 参数调优
1修改 yarn-site.xml 配置参数如下
!-- 选择调度器默认容量 --
propertydescriptionThe class to use as the resource scheduler./descriptionnameyarn.resourcemanager.scheduler.class/namevalueorg.apache.hadoop.yarn.server.resourcemanager.scheduler.capacity.CapacityScheduler/value
/property!-- ResourceManager处理调度器请求的线程数量,默认50如果提交的任务数大于50可以增加该值但是不能超过3台 * 4线程 12线程去除其他应用程序实际不能超过8 --
propertydescriptionNumber of threads to handle scheduler interface./descriptionnameyarn.resourcemanager.scheduler.client.thread-count/namevalue8/value
/property!-- 是否让yarn自动检测硬件进行配置默认是false如果该节点有很多其他应用程序建议手动配置。如果该节点没有其他应用程序可以采用自动 --
propertydescriptionEnable auto-detection of node capabilities such asmemory and CPU./descriptionnameyarn.nodemanager.resource.detect-hardware-capabilities/namevaluefalse/value
/property!-- 是否将虚拟核数当作CPU核数默认是false采用物理CPU核数 --
propertydescriptionFlag to determine if logical processors(such ashyperthreads) should be counted as cores. Only applicable on Linuxwhen yarn.nodemanager.resource.cpu-vcores is set to -1 andyarn.nodemanager.resource.detect-hardware-capabilities is true./descriptionnameyarn.nodemanager.resource.count-logical-processors-as-cores/namevaluefalse/value
/property!-- 虚拟核数和物理核数乘数默认是1.0 --
propertydescriptionMultiplier to determine how to convert phyiscal cores tovcores. This value is used if yarn.nodemanager.resource.cpu-vcoresis set to -1(which implies auto-calculate vcores) andyarn.nodemanager.resource.detect-hardware-capabilities is set to true. The number of vcores will be calculated as number of CPUs * multiplier./descriptionnameyarn.nodemanager.resource.pcores-vcores-multiplier/namevalue1.0/value
/property!-- NodeManager使用内存数默认8G修改为4G内存 --
propertydescriptionAmount of physical memory, in MB, that can be allocated for containers. If set to -1 andyarn.nodemanager.resource.detect-hardware-capabilities is true, it isautomatically calculated(in case of Windows and Linux).In other cases, the default is 8192MB./descriptionnameyarn.nodemanager.resource.memory-mb/namevalue4096/value
/property!-- nodemanager的CPU核数不按照硬件环境自动设定时默认是8个修改为4个 --
propertydescriptionNumber of vcores that can be allocatedfor containers. This is used by the RM scheduler when allocatingresources for containers. This is not used to limit the number ofCPUs used by YARN containers. If it is set to -1 andyarn.nodemanager.resource.detect-hardware-capabilities is true, it isautomatically determined from the hardware in case of Windows and Linux.In other cases, number of vcores is 8 by default./descriptionnameyarn.nodemanager.resource.cpu-vcores/namevalue4/value
/property!-- 容器最小内存默认1G --
propertydescriptionThe minimum allocation for every container request at the RM in MBs. Memory requests lower than this will be set to the value of this property. Additionally, a node manager that is configured to have less memory than this value will be shut down by the resource manager./descriptionnameyarn.scheduler.minimum-allocation-mb/namevalue1024/value
/property!-- 容器最大内存默认8G修改为2G --
propertydescriptionThe maximum allocation for every container request at the RM in MBs. Memory requests higher than this will throw an InvalidResourceRequestException./descriptionnameyarn.scheduler.maximum-allocation-mb/namevalue2048/value
/property!-- 容器最小CPU核数默认1个 --
propertydescriptionThe minimum allocation for every container request at the RM in terms of virtual CPU cores. Requests lower than this will be set to the value of this property. Additionally, a node manager that is configured to have fewer virtual cores than this value will be shut down by the resource manager./descriptionnameyarn.scheduler.minimum-allocation-vcores/namevalue1/value
/property!-- 容器最大CPU核数默认4个修改为2个 --
propertydescriptionThe maximum allocation for every container request at the RM in terms of virtual CPU cores. Requests higher than this will throw anInvalidResourceRequestException./descriptionnameyarn.scheduler.maximum-allocation-vcores/namevalue2/value
/property!-- 虚拟内存检查默认打开修改为关闭 --
propertydescriptionWhether virtual memory limits will be enforced forcontainers./descriptionnameyarn.nodemanager.vmem-check-enabled/namevaluefalse/value
/property!-- 虚拟内存和物理内存设置比例,默认2.1 --
propertydescriptionRatio between virtual memory to physical memory when setting memory limits for containers. Container allocations are expressed in terms of physical memory, and virtual memory usage is allowed to exceed this allocation by this ratio./descriptionnameyarn.nodemanager.vmem-pmem-ratio/namevalue2.1/value
/property2分发配置
xsync yarn-site.xml10.3.5 执行程序
1重启集群
stop-yarn.sh
start-yarn.sh2执行 WordCount 程序
hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar wordcount /input /output3观察Yarn任务执行页面 http://hadoop103:8088/cluster/apps