网站如何做的看起来高大上,vs做网站怎么上,东莞保安公司电话,wordpress推送到公众号hive打不开,提示节点过少#xff0c;进入安全模式~~
前段时候给电及除尘#xff0c;因为经常拆着玩#xff0c;越熟练越容易大意#xff0c;一下子把电源排线扯坏了。挼了挼#xff0c;想凑和着用吧#xff0c;没想到不知怎么的就会关机#xff0c;太频繁了。一怒之下取…hive打不开,提示节点过少进入安全模式~~
前段时候给电及除尘因为经常拆着玩越熟练越容易大意一下子把电源排线扯坏了。挼了挼想凑和着用吧没想到不知怎么的就会关机太频繁了。一怒之下取出来剪了 然后没得玩了。 去某宝买了个6P排线2.5邮费8块。安上发现没网把路由拆了。一拆网就好安上就残重复50次后把盖揭扔了它就老实了。然后打开hive困倦的我又来了精神居然打不开了提示节点数量达到下限启用安全模式 还让不让好好玩了果断退出安全模式再启动hive问题解决了
错误提示如下:
Exception in thread main java.lang.RuntimeException: org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.hdfs.server.namenode.SafeModeException): Cannot create directory /tmp/hive/root/b8cf61ee-1127-4b11-878d-62becb3d8b37. Name node is in safe mode.
The reported blocks 56 needs additional 13 blocks to reach the threshold 0.9990 of total blocks 69.
The number of live datanodes 3 has reached the minimum number 0. Safe mode will be turned off automatically once the thresholds have been reached.at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.checkNameNodeSafeMode(FSNamesystem.java:1329)at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.mkdirs(FSNamesystem.java:3860)at org.apache.hadoop.hdfs.server.namenode.NameNodeRpcServer.mkdirs(NameNodeRpcServer.java:984)at org.apache.hadoop.hdfs.protocolPB.ClientNamenodeProtocolServerSideTranslatorPB.mkdirs(ClientNamenodeProtocolServerSideTranslatorPB.java:634)at org.apache.hadoop.hdfs.protocol.proto.ClientNamenodeProtocolProtos$ClientNamenodeProtocol$2.callBlockingMethod(ClientNamenodeProtocolProtos.java)at org.apache.hadoop.ipc.ProtobufRpcEngine$Server$ProtoBufRpcInvoker.call(ProtobufRpcEngine.java:616)at org.apache.hadoop.ipc.RPC$Server.call(RPC.java:982)at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:2217)at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:2213)at java.security.AccessController.doPrivileged(Native Method)at javax.security.auth.Subject.doAs(Subject.java:422)at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1746)at org.apache.hadoop.ipc.Server$Handler.run(Server.java:2213)退出安全模式命令 hadoop dfsadmin -safemode leave退出后一般还要执行健康检查删除损坏掉的block命令 hdfs fsck / -delete尽量弄清情况后看看需不需要删节点先恢复虚拟机到正常状态重启hadoop再试。因为删节点必然导致数据丢失。原因分析
由于系统断电内存不足等原因导致dataNode丢失超过设置的丢失百分比系统自动进入安全模式。我是因为虚拟机有两个挂了知情前打开的hadoop。
如果有更好的办法万望交流补充希望能帮到一起成长的朋友们