2010-07-27 3 views
0

나는 Vmware에 3 개의 동일한 linux (CentOS) 서버를 설치했다. 기본적으로 하나 만들어 완전히 2 클론했다.hadoop on vmware, namenode 찾지 못한 노예

각 서버 호스트 이름 server1, server2, server3을 편집하고 서로 다른 호스트에 추가했습니다. ssh 및 passwordless ssh 사용 가능. server1 # ssh server2 server2 #

이렇게 작동합니다.

namenode에서 dfs를 형식화합니다. dfs 및 map-reduce를 시작했습니다. 내가 실행할 때
$ hadoop dfsadmin -report

아무 노예도 보여주지 않습니다.

무슨 일입니까?

어떤 아이디어가 있습니까?

+0

로그에 표시되는 내용은 '/ var/log/hadoop'입니까? – wlk

답변

1

이 문제가 발생할 때마다 슬레이브 노드에서 네임 스페이스 충돌이 발생합니다. 이를 해결하기 위해 각 노드의 임시 디렉토리 아래에있는 모든 것을 삭제 한 다음 namenode를 다시 포맷합니다. 이 시점에서 DFS를 시작하면 대개 트릭을 실행합니다.