hbase

    1

    1답변

    Spark 배치 작업을 쓰려고합니다. 항아리에 포장하고 스파크 제출과 함께 사용하고 싶습니다.는 Exception in thread "main" java.lang.NoSuchMethodError: scala.Predef$.$conforms()Lscala/Predef$$less$colon$less; at HBaseBulkload$.saveAsHFil

    0

    1답변

    hbase 테이블을보기 위해 하이브에있는 테이블을 매핑하려고합니다. 나는 여러 열에 문제없이이 작업을 수행했지만 카운터 열로 관리하는 방법을 잘 모르겠습니다. 이것이 가능한가? hbase 테이블을 스캔 할 때 카운터 열의 예제 값은 \x00\x00\x00\x00\x00\x00\x00\x01입니다. 하이브 테이블에 열 유형이 잘못 설정되어있는 것 같습니다.

    2

    1답변

    여기에는 보안이 설정된 (Kerberos) HBase 클러스터가 있습니다. 시작시 HTable의 인스턴스를 만들고 그것에 매달리는 객체가 있습니다. 전화는 UserGroupInformation.setConfiguration(configuration); UserGroupInformation.loginUserFromKeytab(user, keytab);

    1

    1답변

    예측 유지 보수를위한 실시간 응용 프로그램을 만들고 싶습니다. Hbase를 Phoenix와 함께 사용하려고 생각했습니다. Phoenix는 HBase에서 SQL 레이어를 제공합니다. 나는 Hbase이 1 억 개의 행과 ++ 같은 Big Data에 유용하다고 읽었습니다. 하지만 내 응용 프로그램 데이터에는 현재 데이터가 없습니다. Hbase 데이터베이스는 처음

    3

    3답변

    hbase에 액세스하기 위해 hortonworks-spark/shc을 사용하여 Scala 2.11 Spark 2.0 응용 프로그램을 어셈블리하려고합니다. 종속성 세트는 간단한 같습니다 나는 지방 항아리에 조립 용도에하려고 할 때, 다음 어셈블리 플러그인 던져 중복 다른 버전으로 무상 종속성이 많이 있기 때문에 libraryDependencies ++= Se

    0

    1답변

    나는 flume을 syslogs 소스 및 hbase 싱크와 함께 사용하려고합니다. 내가 flume agent를 실행할 때 나는이 오류를 얻는다 : Failed to start agent because dependencies were not found in classpath. Error follows. java.lang.NoClassDefFoundError:

    2

    1답변

    HBase 테이블을 추적하고 배치마다 새롭거나 업데이트 된 행을 읽을 수 있도록 스파크 스트리밍 작업을 설정할 수 있습니까? 블로그 here은 HDFS 파일이 지원되는 소스에 들어 있다고 말합니다. 하지만 그들은 다음과 같은 정적 API를 사용하는 것 같습니다 : sc.newAPIHadoopRDD(..) 이 문제에 대한 문서는 찾을 수 없습니다. Spa

    2

    1답변

    HBase의 FuzzyRowFilter이 작동하는 데 어려움을 겪고 있습니다. 나는 다음과 같은 테스트 테이블이 있습니다 여기 hbase(main):014:0> scan 'test' ROW COLUMN+CELL row-01 column=colfam1:col1, timestamp=1481193793338, value=value1

    0

    1답변

    flume Hbase을위한 두 개의 싱크가 있다는 것을 읽었습니다. 그래서 그것들 (AsyncHBaseSink와 HbaseSink) 사이의 차이점은 무엇이고 언제 사용합니까?

    0

    1답변

    HBase-Hive 통합을 사용하여 HBase를 하이브로 읽고 쓰려면 documentation을 따르십시오. 그것은 완벽하게 작동하고 CREATE EXTERNAL TABLE hbase.test ( col1 string, col2 map<string, double> ) STORED BY 'org.apache.hadoop.hive.