어디서 잘못 가고 있는지 모르지만 HDFS에서 MySQL로 내 Sqoop 내보내기 명령을 실행할 때마다 실패합니다. sqoop export --connect "jdbc:mysql://quickstart.cloudera:3306/streaming"
--username root --password cloudera --table pd_count --update
--incremental sqoop 가져 오기 스위치가 SQOOP를 통한 HIVE 가져 오기에 작동하지 않는 것으로 알려져 있습니다. 하지만 그 해결 방법은 무엇입니까? 1) 내가 만들 수있는 한 가지는 HIVE 테이블을 만들고 SQOOP를 통해 증분 데이터를 HDFS로 가져 와서 수동으로로드 할 수 있다는 것입니다. 그러나 우리가 그것을하고 있다면, 매번
하이브 테이블의 내 필드 중 하나에 모든 특수 문자가 포함되어 있으므로 MultiDelimitSerDe (~ #)를 사용하여 하이브 필드를 구분했습니다. 이제 이러한 데이터를 Sqoop 내보내기를 사용하여 My sql로 내 보내야합니다. 그리고 Sqoop이 여러 분리 문자로 내보내지지 않습니다. 다른 방법이 있습니까? 이 필드는 데이터 유형이 - date,
sqoop 명령을 다른 사용자로 실행하고 싶습니다. 내가 mapreduce.map.memory.mb 옵션을 설정하는 방법과 유사한 Sqoop을 명령에서이를 설정하는 방법이 있는지 궁금 해서요 export HADOOP_USER_NAME=desiredUser
sqoop import \
-D mapreduce.map.memory.mb=4096 \
-D m
아래 사항을 도와주십시오. 은 오늘 거대한 헤아 렸어요 기록과 오라클 데이터베이스를 가지고 - 5TB의 데이터를 가정, 그래서 우리는 그것은 HDFS에서 확인하고 가져옵니다 framework- Sqoop을 vaildator를 사용할 수 있습니다. 그러면 tomorrow-i는 위의 TB 데이터 위에 새 레코드를 받게 될 것이므로 어떻게 새 레코드 (기존 레코
필드 중 하나에 특수 문자가 있기 때문에 더 낮은 값을 구분 기호로 사용하고 싶습니다. 하이브는 구분 기호 (\ 0)로 잘 동작하지만 NoSuchElement 예외로 인해 sqoop이 실패합니다. 구분 기호가 \ 0으로 감지되지 않는 것 같습니다. 이것은 내 하이브가 sqoop 스크립트처럼 보입니다. 제발 도와주세요. 구분 기호 당신은 구분 기호로, 그것은
Oracle에서 Hive로 일부 데이터를 이동해야하며 Sqoop이 유용한 도구라는 것을 알았습니다. 문제는 쿼리를 처리하고 결과를 대상 데이터베이스의 테이블에 삽입해야한다는 것입니다. 오라클 함수 결과 -> HiveDB.myTable 내가이 명령을 발견 sqoop import --connect jdbc:oracle:thin:@******:1522/**
-