로 nginx를 사용하는 방법 우리는 침투의 사용은 우리 (일반적으로 nodejs) 서비스가 앞으로 직접 HTTPS 부하 분산을 생성 할 수 있습니다. 그러나 최근 Google은로드 밸런서가 제공하지 않는 nodej 앞에 트래픽을 더 많이 제어하려고했습니다.이는 Kubernetes (GKE)와 구글 HTTPS 부하 분산
- 표준화, 사용자 지정 오류 페이지
- 표준 재 작성 규칙 (예 : http를 https로 리디렉션)로드 밸런서의 상태 검사에서
- 분리 포드 readinessProbes을 (그래서 건강한 포드가 없을 때 우리는 여전히 사용자 지정 오류 페이지를 제공 할 수 있습니다).
우리는 스택의 다른 부분에서 nginx를 사용하므로 좋은 선택처럼 보입니다. Kuvennetes에서 프론트 서비스에 사용되는 nginx의 몇 가지 예를 두 가지 구성 중 하나에서 보았습니다.
- 모든 pod의 nginx 컨테이너가 로컬 호스트의 응용 프로그램으로 트래픽을 직접 전달합니다.
- 별도의 nginx 배포 & 서비스, 적절한 Kubernetes 서비스에 트래픽을 독립적으로 확장 및 전달합니다.
각 방법의 장단점은 무엇이고 어떤 것이 우리의 사용 사례에 가장 적합한 지 어떻게 결정해야합니까? 나열된 요구 사항의
네, 좋은 지적입니다. 이 문제에 대한 내 생각을 명확히하는 데 도움을 주셔서 감사합니다. 이전에 해본 사람들로부터 많은 것을 검증하려고합니다. 대부분 내가이 시스템을 설계하는 방식으로 정말 명백한 것을 놓치고있는 것은 아닙니다. :) –