로그 데이터를 AWS의 Elasticsearch Service로 보내려면 Logstash를 사용하고 있습니다. 이제는 Spark Streaming에 정의 된 비즈니스 로직을 실시간으로 로그 데이터에 적용하고자하므로 중간에 Amazon SQS 또는 Apache Kafka를 사용하려고합니다.Logstash와 Spark Streaming 사이에서 Apache Kafka를 사용하여 로그 데이터를 비즈니스 로직 (Spark에서 정의)으로 가져 오는 것이 옳은가요?
이 시나리오에서 카프카를 사용하는 것이 맞습니까?
감사합니다.