hadoop 本地文件上传到 hdfs 失败 5

我搭建的完全分布式系统,Master,Slave,Slave2,Slave3,bin/hadoopnamenode-format格式化后,启动Hadoop,用/usr/j... 我搭建的完全分布式系统,Master,Slave,Slave2,Slave3,bin/hadoop namenode -format 格式化后,启动Hadoop,用 /usr/java/jdk1.6.0_45/bin/jps查看,Master,Slaves各个进程均正常启动,

但在执行上传文件命令时,却会报错,

查看datanode日志文件,发现 Server at Slave2/192.168.239.12:9000 not available yet, Zzzzz....

搞不明白,为何Hadoop个进程可以正常启动,但却会出现连接不上的问题,Server at Slave2... 这个Server 是位于datanode上的还是只 namenode ?已关闭防火墙,Linux是redhat,Hadoop是1.1.0版本,搞了好久都没成功,跪求大神指点一下,急
我在core-site.xml 文件中配置 fs.default.name 时,最开始 Master 节点值为 hdfs://Master:9000,Slaves 节点为 hdfs://Slave1:9000;hdfs://Slave2:9000;hdfs://Slave3:9000 ,用 jps 检测,节点程序都能正常启动,但是Slaves logs日志却显示一直尝试连接,不懂,如果未能连接,为何各个程序还能正常启动?后上网查,说Slaves 节点配置 fs.default.name 时要填写 namenode 的主机名,然后改了试了一下,结果,Master 节点各程序可正常启动,但Slaves 节点 datanode 程序无法启动,关于 fs.default.name 到底该怎么配置才是正确的?
展开
 我来答
旅游的甲鱼
2015-09-30 · TA获得超过120个赞
知道小有建树答主
回答量:171
采纳率:0%
帮助的人:155万
展开全部
看着像是datanode出问题了,你去master的50070端口看看datanode是否全部正常启动。
追问
追问有字数限制,请看一下我的补充问题,谢谢
追答
为了保持配置文件一致,你可以直接把master上的hdfs-site.xml拷贝到slave上。
已赞过 已踩过<
你对这个回答的评价是?
评论 收起
joy58061678
2015-09-30
知道答主
回答量:4
采纳率:0%
帮助的人:5.3万
展开全部
貌似你传的是文件夹 而不是文件
追问
那样好像可以把里面的文件都上传到 hdfs 中吧
已赞过 已踩过<
你对这个回答的评价是?
评论 收起
收起 2条折叠回答
推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询

为你推荐:

下载百度知道APP,抢鲜体验
使用百度知道APP,立即抢鲜体验。你的手机镜头里或许有别人想知道的答案。
扫描二维码下载
×

类别

我们会通过消息、邮箱等方式尽快将举报结果通知您。

说明

0/200

提交
取消

辅 助

模 式