EMR 스파크 응용 프로그램에서 파일 - 그러나로드 소품 내가 사용하여 내 스파크 응용 프로그램에서 사용자 정의 속성을로드하려고
command-runner.jar,spark-submit,--deploy-mode,cluster,--properties-file,s3://spark-config-test/myprops.conf,--num-executors,5,--executor-cores,2,--class,com.amazon.Main,#{input.directoryPath}/SWALiveOrderModelSpark-1.0-super.jar
, 나는 다음과 같은 예외가 점점 오전 : - 스레드
예외 "main"java.lang.IllegalArgumentException : 올바르지 않은 등록 정보 파일 's3 : //spark-config-test/myprops.conf' '. org.apache.spark에서 org.apache.spark.launcher.AbstractCommandBuilder.loadPropertiesFile (AbstractCommandBuilder.java:284) 에서 org.apache.spark.launcher.CommandBuilderUtils.checkArgument (CommandBuilderUtils.java:241)에서 . 조직
에서 launcher.AbstractCommandBuilder.getEffectiveConfig org.apache.spark.launcher.SparkSubmitCommandBuilder.buildSparkSubmitCommand (SparkSubmitCommandBuilder.java:233)에서 (AbstractCommandBuilder.java:264) 는 이 파일을로드하는 올바른 방법인가 S3에서?
이것은 spark-default.conf 및 yarn-xml 파일 같은 경우에도 해당됩니까? – Sanchay
아니요, Amazon은 spark/hadoop 특정 설정을 모두 구성하는 구성 API를 제공합니다. 본질적으로 JSON 객체에 "yarn.some.setting"과 같은 키를 제공합니다. 여기 세부 정보 : http://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-configure-apps.html – RyanW
spark-defaults 분류를 사용하고 다음 속성을 제공합니다. - spark.yarn.appMasterEnv.FOO = "foo". 유언 집행 인에게도 이것이 보이게됩니까? – Sanchay