하이브를 사용하여 HBase에서 쿼리를 실행해야합니다. 나는 HBase를 다운로드하고 HMaster가 잘 돌아가고있다. 하이브가 HBase를 백 엔드 데이터베이스로 사용하기 위해해야 할 구성 변경 사항을 알아야합니다. 모든 링크 튜토리얼을 주시면 감사하겠습니다. 미리 감사드립니다.
제 1 위와 함께 추적 파일을 만들어야합니다. 일지를 사용하여 작업 로그에서 추적 파일을 만드는 방법은 무엇입니까? 사용할 수있는 작업 로그 유형 및 생성 방법은 무엇이며 어디에서 찾을 수 있습니까? 이러한 로그는 정렬과 같은 프로그램을 실행할 때 생성되는 것과 동일합니까? 자세히 안내하거나 알려 줄 수 있습니까?
Hadoop을 설치 한 후 Pig를 설치합니다. 그러나, 나는 다음과 같은 문제가 있습니다 [email protected]:/home/dewi/Work2/pig-0.8.0-cdh3u0/bin$ ./pig
2011-11-23 10:15:20,865 [main] INFO org.apache.pig.Main - Logging error messages to:
Sqoop을 사용하고 싶지만 ElasticMapReduce (가장 좋아하는) 이상의 Cloudera 스택 @ AWS를 실행할 가치가 있다고 생각하지 마십시오. 나의 현재의 생각은 @ S3에 저장된 외부 테이블로 옮겨야하는 데이터를 작성한 다음 mysql으로 가져 오기위한 스크립트를 작성하는 것이다. 아마존은 SimpleDB (example)를 가지고 약간의
새로운 Hadoop API을 사용 중이며 일부 매개 변수 (일부 문자열)를 매퍼에게 전달하는 방법을 찾고 있습니다. 어떻게하면됩니까? This solutions works for old API은 : 여기 JobConf job = (JobConf)getConf();
job.set("NumberOfDocuments", args[0]);
"NumberOfD
내가 아마존의 엘라스틱 맵리 듀스 사용하고 분할 된 기존에서 새 테이블을 만들고 난 하이브 테이블과 같이 하루 폴더의 로그 아마존 S3에 저장된 파일 및 분할의 시리즈를 기반으로 만든이 : 데이터/일 = 2011-09-01/log_file.tsv 데이터/일 = 2011-09-02/log_file.tsv 나는 현재 일부를 필터링 추가 테이블을 만들려고하고 이
나는 hadoop map-reduce 작업의 결과물 인 순차 파일을 가지고있다. 이 파일에서 데이터는 키 값 쌍으로 기록되며 값 자체는 맵입니다. MAP 개체로 값을 읽고 더 처리 할 수 있도록하고 싶습니다. 프로그램 Configuration config = new Configuration();
Path path = new Path("D:\\O
특히 map reduce를 사용하여 그래프에서 최단 경로를 계산하는 방법을 찾으려고합니다. 내가 생각해 낸 점은지도를 여러 번 감축해야한다는 것입니다. 그러나 지금까지 Hadoop에서 읽은 문서는 여러 단계가있는 실행지도 축소 작업을 명확하게 설명하지 않습니다. 감속기의 출력을 첫 번째 단계에서 가져 와서 다음 단계의 맵퍼에 입력으로 공급합니다. 나는 그의