Hadoop 2.3.0解决了哪些问题

 我来答
双泉乡柳杭村bu
2017-05-09 · TA获得超过238个赞
知道小有建树答主
回答量:300
采纳率:0%
帮助的人:53万
展开全部
1,首先停掉namenode上相关的进程:切换到hadoop的/sbin目录下:sh stop-dfs.shsh stop-yarn.sh2,切换到hadoop的相应/current目录下将current下的所有文件清除。3,将datanode与namenode的/current 下VERSION等相应文件文件清除后,回到namenode上,执行hsfs namenode -format命令,接着切换到namenode的hadoop的/sbin目录下:执行sh start-dfs.shsh start-yarn.sh(旧版本的mapre 被新版本的yarn所替代,命令上多少有些不同)既可以看到相应的节点成功加载,相应的思想就是,当出错时,清除掉一切干扰思路的文件,然后整理思绪,重新开始,这样要远比在原地徘徊要好。由于在配置文件中指明的文件夹只有 hdfs tmp log,所以其余的文件也好文件夹也好都是动态执行脚本生成创建的,删除之后只要hadoop整个系统可以工作就会生成,即便错删,VM的 snapshot 也会拯救这个世界。
已赞过 已踩过<
你对这个回答的评价是?
评论 收起
推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询

为你推荐:

下载百度知道APP,抢鲜体验
使用百度知道APP,立即抢鲜体验。你的手机镜头里或许有别人想知道的答案。
扫描二维码下载
×

类别

我们会通过消息、邮箱等方式尽快将举报结果通知您。

说明

0/200

提交
取消

辅 助

模 式