Spark 2.2.0부터는 스트리밍 작업에 대한 정보를 얻기 위해 API에 새로운 끝 점이 있습니다.Spark Streaming 응용 프로그램의 통계 끝점에 액세스하는 방법은 무엇입니까?
클러스터 모드에서 Spark 2.2.0을 사용하여 EMR 클러스터에서 스파크를 실행합니다.
내 스트리밍 작업에 대한 엔드 포인트에 충돌 할 때, 모두가 나에게주는 오류 메시지입니다 :
에는 스트리밍 청취자 내가 통해 발굴 한 >< 스트림 이름에 첨부되지
스파크 코드베이스가 조금 있지만이 기능에 대해서는 잘 설명되어 있지 않습니다. 이것이 버그인지 궁금합니다. 이 끝점을 작동 시키려면 몇 가지 구성이 필요합니까?
이것은 클러스터에서 실행할 때 특히 문제가되는 것으로 보입니다. 로컬 컴퓨터의 Spark 2.2.0에서 실행되는 동일한 코드가 통계를 예상대로 표시하지만 클러스터에서 실행할 때 오류 메시지가 표시됩니다.
소수가있다. 엔드 포인트의베이스는 통계, 리시버, 배치 등에 대한 엔드 포인트가있는'/ api/v1/applications/[app-id]/streaming /'입니다. [the docs] (https://spark.apache.org)를 참조하십시오. /docs/latest/monitoring.html#rest-api) 전체 목록을 참조하십시오. 특히'/ api/v1/applications/[app-id]/스트리밍/통계 '에 관심이 있지만 모두 동일한 문제가 있습니다. –
예, 모두 실행 중이며 스트리밍 탭이 웹 UI에도 표시됩니다. 그냥 두 번 확인해 봤어. 내가 생각할 수있는 유일한 불일치는 클러스터 모드에서'[app-id]'대신'[app-id]/[attempt-id]'를 사용하는 것이지만, 시도 ID없이 시도해 보았습니다. 아무런 시도도없이 그런 일이 없다고 말합니다. –