아마존 EC2 인스턴스에 카프카를 설정했습니다. 나는 순서 아래에 다음과 같은 짓을 : (2) 시작 Zookeper (3) 시작 카프카 (4) 생산자와 소비자 프로그램을 실행 인스턴스 에 (1) SSH를. 여기까지 모든 것이 잘 작동합니다. 그러나 일단 내가 카프카를 시작한 SSH 창을 닫으면 카프카 서비스가 중단됩니다. 더 이상 프로듀서 및 소비자 프로그
KafkaSpout을 사용중인 스톰 토폴로지를 다시 균형을 잡으려고합니다. 내 코드는 다음과 같습니다 그러나 TopologyBuilder builder = new TopologyBuilder();
Properties kafkaProps = new Properties();
kafkaProps.put("zk.connect", "localhos
나는 카프카를 처음 사용합니다. 하나의 주제와 해당 주제에 할당 된 1 개의 소비자 그룹을 사용하여 간단한 대기열 시스템을 구현하려고합니다. 그러나 나는 소비자 그룹을 만드는 방법을 알아낼 수 없었다. p.s. 나는 kafka-rb gem과 함께 Ruby를 사용하고 있습니다. 감사합니다. 에릭
Kafka 0.8에 대한 비교적 부족한 문서에는 브로커의 기존 항목, 파티션 및 복제본의 균형을 유지하기 위해 예상되는 동작이 무엇인지 언급되어 있지 않습니다. 보다 구체적으로 브로커가 도착할 때와 브로커 (리더 또는 아닌)가 충돌 할 때 예상되는 동작은 무엇입니까? 감사합니다.
페이스 북이나 트위터와 비슷한 뉴스 피드를 만들려고합니다. 시나리오는 사용자와 온라인 페이지를 따라갈 수 있다는 것입니다. 내 팔로 잉 목록에있는 활동이 어떤 역할을 하든지 피드에 나와 함께 나타나야합니다. 나는 http://kafka.apache.org/을 조사했지만 문서가 매우 좋지 않은 것처럼 kafka를 사용하여 뉴스 피드를 작성하는 방법을 얻을 수
Java에서 간단한 제작자 -> Kafka -> 소비자 응용 프로그램을 구현하려고합니다. 나는 메시지를 성공적으로 소비 할 수있을뿐만 아니라 생산할 수 있지만, 소비자를 다시 시작할 때 문제가 발생합니다. 이미 소비 된 메시지 중 일부는 다시 Kafka (모든 메시지는 아니지만 마지막 메시지의 일부)에서 소비자에 의해 선택됩니다. 소비 된 메시지). 내 소
6 개의 시스템 A, B, C, 1,2,3이 있습니다. Kafka는 A (생산자), B (생산자), C (소비자)에 설치되고 구성됩니다. 현재 1,2,3 사육사가 설치되어 있으며이 3 대가 카프카 클러스터를 관리합니다. 이것이 카프카를 클러스터하는 올바른 방법입니까? 내가 사용하는 논리에 대해 맞습니까? 그렇지 않다면 나에게 올바른 방법을 설명해주십시오.
마침내 zookeeper 및 kafka 0.7.2를 CentOS 상자에 설치하고 console-producer.sh 샘플을 실행하려고했습니다. [[email protected] bin]# bash kafka-console-producer.sh
Error: could not find or load main class kafka.producer.Con