php+mysql网站开发全程实例 pdf,自动化项目外包网,个人网站可以做淘宝客,wordpress 载入特别慢本文这里为大家分享Hadoop集群设置中经常出现的一些问题。 在工作生活中#xff0c;有些问题非常简单#xff0c;但往往搜索半天也找不到所需的答案#xff0c;在Hadoop的学习与使用过程中同样如此。关注WX公众号#xff1a;大数据技术工程师。可免费领取hadoop学习资料。这…本文这里为大家分享Hadoop集群设置中经常出现的一些问题。 在工作生活中有些问题非常简单但往往搜索半天也找不到所需的答案在Hadoop的学习与使用过程中同样如此。关注WX公众号大数据技术工程师。可免费领取hadoop学习资料。这里为大家分享Hadoop集群设置中经常出现的一些问题 大数据技术工程师
1.Hadoop集群可以运行的3个模式
单机本地模式 伪分布式模式 全分布式模式
2. 单机本地模式中的注意点
在单机模式standalone中不会存在守护进程所有东西都运行在一个JVM上。这里同样没有DFS使用的是本地文件系统。单机模式适用于开发过程中运行MapReduce程序这也是最少使用的一个模式。
3. 伪分布模式中的注意点
伪分布式Pseudo适用于开发和测试环境在这个模式中所有守护进程都在同一台机器上运行。
4. VM是否可以称为Pseudo
不是两个事物同时Pseudo只针对Hadoop。
5. 全分布模式又有什么注意点
全分布模式通常被用于生产环境这里我们使用N台主机组成一个Hadoop集群Hadoop守护进程运行在每台主机之上。这里会存在Namenode运行的主机Datanode运行的主机以及task tracker运行的主机。在分布式环境下主节点和从节点会分开。
6. Hadoop是否遵循UNIX模式
是的在UNIX用例下Hadoop还拥有“conf”目录。
7. Hadoop安装在什么目录下
Cloudera和Apache使用相同的目录结构Hadoop被安装在cd/usr/lib/hadoop-0.20/。
8. Namenode、Job tracker和task tracker的端口号是
Namenode70Job tracker30Task tracker60。
9. Hadoop的核心配置是什么
Hadoop的核心配置通过两个xml文件来完成1hadoop-default.xml2hadoop-site.xml。这些文件都使用xml格式因此每个xml中都有一些属性包括名称和值但是当下这些文件都已不复存在。
10. 那当下又该如何配置
Hadoop现在拥有3个配置文件1core-site.xml2hdfs-site.xml3mapred-site.xml。这些文件都保存在conf/子目录下。
11. RAM的溢出因子是
溢出因子Spill factor是临时文件中储存文件的大小也就是Hadoop-temp目录。
12. fs.mapr.working.dir只是单一的目录
fs.mapr.working.dir只是一个目录。
13. hdfs-site.xml的3个主要属性
dfs.name.dir决定的是元数据存储的路径以及DFS的存储方式磁盘或是远端 dfs.data.dir决定的是数据存储的路径 fs.checkpoint.dir用于第二Namenode
14. 如何退出输入模式
退出输入的方式有1按ESC2键入:q如果你没有输入任何当下或者键入:wq如果你已经输入当下并且按下Enter。
15. 当你输入hadoopfsck /造成“connection refused java exception’”时系统究竟发生了什么
这意味着Namenode没有运行在你的VM之上。
16. 我们使用Ubuntu及Cloudera那么我们该去哪里下载Hadoop或者是默认就与Ubuntu一起安装
这个属于Hadoop的默认配置你必须从Cloudera或者Edureka的dropbox下载然后在你的系统上运行。当然你也可以自己配置但是你需要一个Linux boxUbuntu或者是Red Hat。在Cloudera网站或者是Edureka的Dropbox中有安装步骤。
17. “jps”命令的用处
这个命令可以检查Namenode、Datanode、Task Tracker、 Job Tracker是否正常工作。
18. 如何重启Namenode
点击stop-all.sh再点击start-all.sh。 键入sudo hdfsEntersu-hdfs Enter/etc/init.d/haEnter及/etc/init.d/hadoop-0.20-namenode startEnter。
19. Fsck的全名
全名是File System Check。
20. 如何检查Namenode是否正常运行
如果要检查Namenode是否正常工作使用命令/etc/init.d/hadoop-0.20-namenode status或者就是简单的jps。
21. mapred.job.tracker命令的作用
可以让你知道哪个节点是Job Tracker。
22. /etc /init.d命令的作用是
/etc /init.d说明了守护进程服务的位置或状态其实是LINUX特性和Hadoop关系不大。
23. 如何在浏览器中查找Namenode
如果你确实需要在浏览器中查找Namenode你不再需要localhost:8021Namenode的端口号是50070。
24. 如何从SU转到Cloudera
从SU转到Cloudera只需要键入exit。
25. 启动和关闭命令会用到哪些文件
Slaves及Masters。
26. Slaves由什么组成
Slaves由主机的列表组成每台1行用于说明数据节点。
27. Masters由什么组成
Masters同样是主机的列表组成每台一行用于说明第二Namenode服务器。
28. hadoop-env.sh是用于做什么的
hadoop-env.sh提供了Hadoop中. JAVA_HOME的运行环境。
29. Master文件是否提供了多个入口
是的你可以拥有多个Master文件接口。
30. hadoop-env.sh文件当下的位置
hadoop-env.sh现在位于conf。
31. 在Hadoop_PID_DIR中PID代表了什么
PID代表了“Process ID”。
32. /var/hadoop/pids用于做什么
/var/hadoop/pids用来存储PID。
33. hadoop-metrics.properties文件的作用是
hadoop-metrics.properties被用做“Reporting”控制Hadoop报告初始状态是“not to report”。
34. Hadoop需求什么样的网络
Hadoop核心使用ShellSSH来驱动从节点上的服务器进程并在主节点和从节点之间使用password-less SSH连接。
35. 全分布式环境下为什么需求password-less SSH
这主要因为集群中通信过于频繁Job Tracker需要尽可能快的给Task Tracker发布任务。
36. 这会导致安全问题吗
完全不用担心。Hadoop集群是完全隔离的通常情况下无法从互联网进行操作。与众不同的配置因此我们完全不需要在意这种级别的安全漏洞比如说通过互联网侵入等等。Hadoop为机器之间的连接提供了一个相对安全的方式。
37. SSH工作的端口号是
SSH工作的端口号是NO.22当然可以通过它来配置22是默认的端口号。
38. SSH中的注意点还包括
SSH只是个安全的shell通信可以把它当做NO.22上的一种协议只需要配置一个密码就可以安全的访问。
39. 为什么SSH本地主机需要密码
在SSH中使用密码主要是增加安全性在某些情况下也根本不会设置密码通信。
40. 如果在SSH中添加key是否还需要设置密码
是的即使在SSH中添加了key还是需要设置密码。
41. 假如Namenode中没有数据会怎么样
没有数据的Namenode就不能称之为Namenode通常情况下Namenode肯定会有数据。
42. 当Job Tracker宕掉时Namenode会发生什么
当Job Tracker失败时集群仍然可以正常工作只要Namenode没问题。
43. 是客户端还是Namenode决定输入的分片
这并不是客户端决定的在配置文件中以及决定分片细则。
44. 是否可以自行搭建Hadoop集群
是的只要对Hadoop环境足够熟悉你完全可以这么做。
45. 是否可以在Windows上运行Hadoop
你最好不要这么做Red Hat Linux或者是Ubuntu才是Hadoop的最佳操作系统。在Hadoop安装中Windows通常不会被使用因为会出现各种各样的问题。因此Windows绝对不是Hadoop的推荐系统。