Spark 2.0.2를 사용하여 Spark 응용 프로그램을 실행하기 위해 10 개의 노드가있는 AWS EMR 5.2 인스턴스 m4.2x 대형을 사용하고있었습니다. 나는 maximizeResourceAllocation=true
의 재산을 사용했다. 나는 다음과 같은 속성을 본 곳 불꽃은 defaults.conf에서 본 : .I 만 이해Amazon EMR에서 Spark를 사용할 때 드라이버 메모리 및 실행자 메모리 크기가 어떻게됩니까?
spark.executor.instances 10
spark.executor.cores 16
spark.driver.memory 22342M
spark.executor.memory 21527M
spark.default.parallelism 320
원사를 site.xml에서를, 내가 yarn.nodemanager.resource.memory-mb=24576
(24기가바이트)를 보았다 (10)에 spark.executor.instances
세트로 나는 10 개의 노드 클러스터를 사용하고있다. 하지만 아무도 내게 어떻게 다른 속성이 드라이버 메모리 & 실행 메모리가 계산되었습니다처럼 설정되었습니다 설명 할 수 있습니까? 또한 maximizeResourceAllocation=true
의 속성을 사용했습니다. 어떻게 메모리에 영향을 줍니까?
'maximizeResourceAllocation = true' 속성을 설정하지 않은 경우의 차이점은 무엇입니까 ?? –
전체 클러스터 리소스를 계산하고 계산 결과를 기반으로 기본 구성을 설정하는 데 사용됩니다. 이 옵션을 활성화하지 않으면 일부 매개 변수가'spark.default.parallelism = 100'과 같이 기본값으로 설정됩니다. – FaigB