저는 Rbase의 RDBMS와는 완전히 다른 Hbase을 사용하여 매우 새로운 기능을 제공합니다. 난 간단한 응용 프로그램을 개발하고 원격 서버에 162.18.17.55 구성하려고합니다. 연결 오류가 발생했습니다. 나는 퍼티에 zk_dump를 입력 한 다음, 각각의 서버 세부 사항을 얻었을 때 데이터베이스에 퍼티와 테이블에 로그인 할 수 있지만, 연결할 수 없다는 것을 확인하면 전달이 잘못되었는지를 확인할 수 없다. 서버에. 당신이 Zookeeper
에 연결하면 당신이 당신의 core-site.xml
파일에 HadoopMaster
을 넣어 때문에 대신 IP 주소의 호스트로 HadoopMaster
을 반환하는 모든 사람은 나에게이 과정을 안내 할 수하십시오 및자바 클라이언트가 원격 서버에 연결을 거부했습니다
답변
실행합니다. 이제 HadoopMaster
을 /etc/hosts
파일에 추가해야 호스트 주소를 인식 할 수 있습니다. 이 행을 호스트 파일에 추가하십시오.
162.18.17.55 HadoopMaster
에서 등/호스트 내가이 162.18.17.55 HadoopMaster 내 등에서 162.18.17.56 HadoopNode – Navyah
/호스트는 나는 이러한 구성 목록 '# 127.0.0.1의 로컬 호스트를 # 127.0.1.1 HadoopMaster # 다음 줄은 IPv6를 할 수있는 호스트 : 1 IP6 - 로컬 호스트 IP6 진단 fe00 :: 0 IP6 - localnet에 FF00을 위해 바람직하다 :: 0 IP6-mcastprefix FF02 :: 1 IP6-하여 allnodes FF02 :: 2 IP6-allrouters #은/etc/ 162.18.17.55 HadoopMaster 162.18.17.56 hadoopnode (마스터 및 슬레이브) 호스트 ** "이 – Navyah
값 "127.0.1.1 HadoopMaster"가 호스트 파일의 "#"기호 앞에 이미 있습니까? –
core-site.xml을 게시 할 수 있습니까? HadoopMaster가 아마도 어딘가에 설정되어있을 것입니다 ... 호스트 파일에 가지고 있습니까? 사육사에 의해 옮겨진 호스트 정보는 클라이언트 응용 프로그램 –
내 핵심-site.xml 파일 <구성> hadoop.tmp.dir /응용 프로그램/하둡/tmp를 FS에 의해 알려져 있지 않다. HDFS를 default.name : // HadoopMaster : 54,310 구성> –
Navyah