hawq

    0

    1답변

    우리는 greenplum DCA V1 및 V3의 작은 배열을 가지고 있습니다. 그들 사이의 백업/복원 프로세스 단계를 시도 중입니다. 논리적 인 방법으로 병렬 백업 프로세스를 이해하기 위해 벽에 머리를 대고 DCA Appliances.abanging 초보자입니다. 시도했습니다. 병렬 백업을 시도 중입니다. gpcrondump/gpdbrestore를 사용하십

    0

    3답변

    스트리밍 데이터를 hawq에 삽입하고 온라인 데이터에 쿼리를 실행하는 방법. 필자는 jdbc 삽입과 성능이 매우 좋지 않았습니다. 그 후 나는 flume으로 hdfs에 데이터를 쓰는 것을 테스트했고 hawq에 외부 테이블을 만들었지 만, flume이 파일을 닫을 때까지 hawq는 데이터를 읽을 수 없다. 문제는 내가 flume 파일을 며칠 동안 파일 수가

    1

    1답변

    우리는 3 노드를 가지고 있고 ambari로 hdfs와 중추적 인 hawq를 설정하려고했지만 이미 3 대의 모든 기계에 대해 암호없는 ssh를 사용할 수있게되었습니다. 그러나 hawq 서비스를 시작하면 "Setting 모든 HAWQ 호스트에 대해 암호가없는 ssh가 실패했습니다. "이 오류를 해결하려면이 오류를 해결하십시오. enter image descr

    0

    4답변

    hdfs를 배치 한 후, ambari로 reduce, hawq, pxf를 맵핑 한 후 impala-tpcds-kits를 사용하여 hdfs에 대해 약 10G 데이터를 생성했습니다. 하지만 사용자 postgres로 Postgres에 로그인 할 때 명령 줄 CREATE EXTERNAL TABLE을 사용하여 hdfs의 데이터를 색인 할 수 없습니다. psql he

    0

    1답변

    우리는 Greenplum 데이터베이스의 작은 배열을 가지고 있습니다. 우리는 마스터 노드를 가지고 있습니다. 내가 PSQL 유틸리티 이 오류 받기 사용하려고 할 때 : postmaster.pid files.We 검색에 [gpadmin의 @ 마스터 gpseg-1] $의 psql의 PSQL: could not connect to server: No such f

    1

    1답변

    HDP를 사용하고 있습니다. 2.4.2 데이터 수집을 위해 Spark과 HAWQ를 연결하고 싶습니다. 권장/올바른 방법이 있다면 알려주십시오. 현재 HAWQ와 스파크를 연결하기 위해 postgress jdbc 드라이버를 사용하고 있습니다. 과 같은 문제가 있습니다. 테이블이없는 경우 DataFrame이 HAWQ에 테이블을 자동으로 만듭니다. - 코드 섭취가

    1

    2답변

    Amazon EC2에서 프로비저닝 된 RedHat 서버에 HAWQ를 설치하고 있습니다. 이미 클러스터에 HDP 2.3 설치가 있습니다. Github에서 HAWQ를 복제했습니다. 먼저 ./configure --prefix=/opt/hawq을 실행합니다. 두 번째 단계에서는 make을 실행합니다. incubator-hawq의 루트 폴더에서 make을 실행하면

    0

    2답변

    예를 들어, query1을 실행할 때 알 수없는 이유로 YARN이 중지 된 경우. 이 때 query2는 실행할 리소스를 할당합니다. YARN은 몇 분 후에 다시 시작됩니다. query1과 query2가 모두 정상적으로 실행됩니까?

    0

    1답변

    PostgreSQL의 경우 성능 향상을 위해 데이터를 캐시하는 공유 메모리가 있습니다. OLAP 데이터베이스로서 HAWQ는 어떻게 데이터를 캐시합니까? PostgreSQL과 비교할 때 디자인의 유사점과 차이점은 무엇입니까? 감사.

    1

    1답변

    우리는 작은 hadoop 및 Greenplum 클러스터가 있습니다. 현재 데이터 파이프 라인의 흐름은 다음과 같습니다 External table >> hadoop-hawq external readbale table >>hawq internal table. 출력 : 1. 우리는 그린 플럼을 사용하여 데이터 파이프 라인을 확장하기 위해 노력하고 있습니다.