Apache Flink는 REST API에게 작업을 제출합니다. 로컬 컴퓨터에서 REST API를 호출하려고하는데 java.net.UnknownHostException을 얻는 중입니다. 지금까지 SSH를 통해 내 작업을 성공적으로 실행했지만 내 응용 프로그램/코드에서 작업을 직접 실행할 수 있도록 REST API를 통해 작업을 실행해야합니다.
StreamExecutionEnvironment.readFile 메서드를 이해할 수 없습니다. FileProcessingMode에는 PROCESS_ONCE 및 PROCESS_CONTINUOUSLY의 두 가지 옵션이 있습니다. 전자를 선택하면 파일을 한 번만 처리하고 execute() 후에 종료합니다. 후자를 선택하면 파일에 줄을 추가하는 것만으로도 파일 전
Windows에서 intellij 아이디어로 flink를 컴파일하려고하고 있는데 여기의 모든 지침을 따르고 있습니다 "https://ci.apache.org/projects/flink/flink-docs-release-1.4/internals/ide_setup.html". 프로젝트를 빌드 할 때, 나는이 오류에 직면하고 있습니다 : 터미널에서 "MVN이 새
Flink에서 데이터를 쓰거나 읽으려고 할 때 Flink 데이터베이스 연결 문제가 발생했습니다 .은 MySQL에 데이터 크기가 작습니다. 그러나 동시에 많은 수의 sinkFuction이 호출 될 수 있습니다. 저비용으로이 문제를 해결할 더 좋은 방법이 있는지 알고 싶습니다.
여러 필드의 합을 얻고 싶습니다. 나는 내 시간 창에서 두 필드 (계산 및 COUNT2)의 합을 원하는 // parse the data, group it, window it, and aggregate the counts
val windowCounts = text
.flatMap { w => w.split("\\s") }
.map {
나는 Flink에 처음 온 사람입니다. 이 코드는지도, 그룹 및 JSON 입력 합계가 있습니다. 단어 수 계산식과 매우 유사합니다. 내가 어떤 이유로 난 당신의 코드를 실행 (occupied,1) (vacant,1) (occupied,2) public static void main(String[] args) throws Exception {
St
우리는 카프카 토픽 (Json 형식의 로그)에서 데이터 스트림을 처리하기 위해 Flink를 사용할 계획입니다. 하지만 그 처리를 위해서는 매일 바뀌는 입력 파일을 사용해야하며 내부의 정보가 완전히 바뀔 수 있습니다 (형식이 아니라 내용). 입력 파일 중 하나가 변경 될 때마다 해당 파일을 프로그램에 다시로드하고 스트림 처리를 계속해야합니다. DataSet<