에 kafkaConnect를 구성 문제는 간단하다 : 나는 {"id":"1", "name":"Alex", "clicks":2}
같은 JSON 데이터와 카프카의 데모 주제를 가지고 말 id, name, clicks 등의 열이있는 cassanra 테이블에 자동으로 넣기를 원합니다. 나는 kafka-connect-cassandra을보고 있지만, 나는 카산드라
카프카에 푸시 된 메시지를 깊은 저장소에 저장해야합니다. 우리는 Azure 클라우드 서비스를 사용하고 있으므로 Azure BLOB 저장소가 더 나은 옵션 일 수 있다고 가정합니다. 카프카 커넥트의 싱크 커넥터 API를 사용하여 Azure Blob에 데이터를 푸시합니다. Kafka 문서는 대부분 데이터를 내보내는 HDFS를 제안하지만,이 경우 Hadoop을
내 Kafka Connect Sink 작업의 put() 메서드가 트리거되는 간격을 제어 할 수 있습니까? 이 점에서 Kafka Connect 프레임 워크의 예상되는 동작은 무엇입니까? 이상적으로, 예를 들어, "X 개의 새 레코드/Y 개의 새 바이트가 없거나 마지막 호출 이후에 경과 한 시간이 Z 밀리 초가 아니면 저에게 전화하지 마십시오." 이로 인해 잠
내 싱크 커넥터를 만들려면 SinkTask을 확장하고 싶습니다. 플러시 중에 오프셋을 저장하고 다음에 싱크 커넥터를 시작할 때 저장된 오프셋에서 다시 읽기를 원할 경우 올바른 방법은 무엇입니까? @Override
public void initialize(SinkTaskContext context) {
HashMap<TopicPartition, L