나는 Vmware에 3 개의 동일한 linux (CentOS) 서버를 설치했다. 기본적으로 하나 만들어 완전히 2 클론했다.hadoop on vmware, namenode 찾지 못한 노예
각 서버 호스트 이름 server1, server2, server3을 편집하고 서로 다른 호스트에 추가했습니다. ssh 및 passwordless ssh 사용 가능. server1 # ssh server2 server2 #
이렇게 작동합니다.
namenode에서 dfs를 형식화합니다. dfs 및 map-reduce를 시작했습니다. 내가 실행할 때
$ hadoop dfsadmin -report
아무 노예도 보여주지 않습니다.
무슨 일입니까?
어떤 아이디어가 있습니까?
로그에 표시되는 내용은 '/ var/log/hadoop'입니까? – wlk