hadoop

    4

    2답변

    저는 기본적으로 매우 큰 데이터베이스가 있어야하는보고 도구 인 새 프로젝트를 시작하려고합니다. 테이블 수가 많지 (< 200), 대부분의 데이터 (80 %)가 20 개의 테이블에 포함되며 모든 데이터는 거의 삽입/읽기 전용 (업데이트 없음)입니다. 한 테이블의 예상 데이터 양은 분당 240,000 레코드로 증가 할 것이며, 다양한 보고서를 작성하려면 최소한

    1

    2답변

    이 코드를 사용하여 hadoop이라는 단어를 실행했습니다. WordCountDriver는 hadoop eclipse 플러그인으로 Eclipse 내부에서 실행할 때 실행됩니다. WordCountDriver는 mapper 및 reducer 클래스를 jar 파일로 패키지하고 클래스 패스에 놓을 때 명령 행에서 실행됩니다. 그러나 classpath에 클래스를 추가

    1

    1답변

    웹 사이트 api에서 MongoDB로 데이터를 가져 오는 기존 애플리케이션이 있습니다. 우리는 큰 변화를 겪었으며 이제 Hadoop을 사용하려고합니다. Cloudera VM이 작동 중이며 이제 응용 프로그램을 MongoDB에서 Hadoop으로 데이터를 삽입하는 것으로 변경하려고합니다. Hadoop/HDFS에서 사용할 수있는 MongoDB_CSharp 드라이

    8

    3답변

    웹 사이트를 크롤링하고 HDFS에 캐시하는 간단한 작업이 있습니다. 매퍼는 URL이 HDFS에 이미 있는지 확인하고, 그렇지 않은 경우 URL을 사용하여 페이지를 다운로드하고 HDFS에 저장합니다. 페이지를 다운로드하는 동안 네트워크 오류 (404 등)가 발생하면 URL은 완전히 건너 뛰고 HDFS에 기록되지 않습니다. ~ 1000 개의 웹 사이트를 운영

    4

    1답변

    마침내 Hadoop (단일 데비안 시스템에서 실행)에서 map-reduce 작업을 시작할 수 있습니다. 그러나,지도 작업은 항상 다음과 같은 오류와 함께 실패 감소는 : [email protected]:~$ ./hadoop-1.0.1/bin/hadoop jar hadooptest/main.jar nl.mydomain.hadoop.debian.test.Mai

    0

    1답변

    단계 1은 내가 작업이 완료되면 프로세스 단계 2 데이터의 양에 을 기반으로 변수 시간이 소요 하둡 스트리밍 직업을 가지고, 나는 MongoDB를에 수입에 모든 데이터 덤프를 필요로하고 평평한 CSV를 만들 질문 내가 하둡 스트리밍을 사용하여 1 단계와 2 단계를 수동으로 일을 방지하기 위해 2 단계 접착제 수있는 방법이 있나요 그것의 을 파일?

    4

    1답변

    키가 하이브 테이블 열의 값이고 해당 값이 카운트 인 맵에서 비슷한 값을 계산하려고합니다. 아래의 표에 대한 예를 들어 : +-------+-------+ | Col 1 | Col 2 | +-------+-------+ | Key1 | Val1 | | Key1 | Val2 | | Key2 | Val1 | +-------+-------+ 그래서

    0

    1답변

    오픈 소스 클라우드 컴퓨팅 기반 검색 엔진이 필요합니까? 누군가가 저를 도울 수 있습니까? 감사합니다. .

    0

    3답변

    지도/축소 작업을 수행하지 않으면 일부 HBase 내부 종속성에 대해 JobTracker/TaskTrackers를 실행해야합니까?

    -1

    1답변

    '행동의 마호트'를 읽는 중입니다.이 책에서 항목 기반 권장 사항을 설정할 수 있다는 사실을 알게되었습니다. 따라서 누구나 사용자 기반 권장 사항을 설정했는지 알고 싶습니다. 그리고 FileDataModel이 업데이트 파일을 지원한다는 것을 알고 있듯이이 파일은 sigle PC에서 사용됩니다. 어때요?