Hadoop 2.3.0解决了哪些问题
1个回答
展开全部
1,首先停掉namenode上相关的进程:切换到hadoop的/sbin目录下:sh stop-dfs.shsh stop-yarn.sh2,切换到hadoop的相应/current目录下将current下的所有文件清除。3,将datanode与namenode的/current 下VERSION等相应文件文件清除后,回到namenode上,执行hsfs namenode -format命令,接着切换到namenode的hadoop的/sbin目录下:执行sh start-dfs.shsh start-yarn.sh(旧版本的mapre 被新版本的yarn所替代,命令上多少有些不同)既可以看到相应的节点成功加载,相应的思想就是,当出错时,清除掉一切干扰思路的文件,然后整理思绪,重新开始,这样要远比在原地徘徊要好。由于在配置文件中指明的文件夹只有 hdfs tmp log,所以其余的文件也好文件夹也好都是动态执行脚本生成创建的,删除之后只要hadoop整个系统可以工作就会生成,即便错删,VM的 snapshot 也会拯救这个世界。
已赞过
已踩过<
评论
收起
你对这个回答的评价是?
推荐律师服务:
若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询