2016-11-14 2 views
0

우리는 rackspace에 ambari를 사용하여 5 노드 용 PHD3.0 hadoop 클러스터 버전을 보유하고 있습니다. Google 클라우드 (GCP)로 마이그레이션해야합니다.Pivotal : HDFS-HAWQ - 새 하드웨어로의 마이그레이션

그러나 어떻게

Q1 다음 수행하는 단계를 점점 안 : 어떻게 새로운 기계에 오래된 컴퓨터에서 데이터, 메타 데이터 구성을 마이그레이션 않습니다. (Old Machine 버전은 cantos 6.5 대상 컴퓨터 버전 centos 6.5입니다.)

Q2 : 백업 할 구성 요소 및 폴더는 무엇입니까? 명령은 무엇입니까?

질문 3 : nameode 및 datanodes를 백업하는 방법은 무엇입니까?

질문 4 : ambari 데이터베이스도 백업해야합니까?

아무런 도움이 필요하십니까?

답변

1

저는 개인적으로 GCP에 hadoop 클러스터를 제공하고 distcp를 사용하여 새로운 클러스터로 데이터를 이동하는 것을 선호합니다. hawq 관리 테이블의 경우 데이터를 hdfs로 이동 한 다음 distcp를 수행합니다. AWS에서 데이터를 s3으로 이동하고 다시 hadoop로 가져 오는 경우가 있습니다.