2016-06-28 6 views
1

에 하둡 2.7.2를 설치하는 동안 :오류 어떤 하둡 관련 cmd를 작업을 실행하는 동안이 오류를 얻기 윈도우 10

`Error: JAVA_HOME is incorrectly set. 
Please update C:\Hadoop\hadoop-2.7.2\conf\hadoop-env.cmd '-Xmx512m' is not recognized as an internal or external command, operable program or batch file.` 

내 JAVA_HOME은 환경 변수에 C:\Program Fies(x86)\Java\jdk1.8.0_91로 설정됩니다. C:\Hadoop\hadoop-2.7.2\etc\hadoop-env.sh도 변경했으며 JAVA_HOME을 위와 동일하게했습니다.

답변

1

간격이 문제입니다. C:\Program Fies(x86)\Java\jdk1.8.0_91 대신 C:\java\jdk으로 Java를 설치하십시오. Windows 8.1에서이 소프트웨어가 작동합니다.

+0

시도해보십시오. 여전히 차이는 없습니다. –

+0

환경 변수'JAVA_HOME'과 java sdk의 경로를 확인할 수 있습니다. –

+0

또한'hadoop-env.sh' 파일에 JAVA_HOME이 추가/편집되었는지 확인하십시오. –

0

hadoop-env.sh 파일 대신 hadoop-env.cmd (Windows 명령 스크립트)를 편집하고 경로를 JAVA_HOME으로 설정하십시오.

설명 :-> jdk 경로의 경로에 공백이 들어 있지 않은지 확인하십시오 (예 : C : \ Program Files \ java .: 여기 "프로그램 파일"에는 hadoop에서 구문 분석 할 수없는 공백이 있습니다). jdk 경로에 공백을 넣은 다음 경로 이름에 공백이없는 다른 경로에 java를 설치하십시오.} -> hadoop-env.cmd를 마우스 오른쪽 단추로 클릭하고 메모장에서 편집 -> JAVA_HOME =을 설정하십시오 (예 : JAVA_HOME = C : \ java를 설정하십시오)

이것은 나를 위해 일했고, scala와 scala IDE가 설치된 Windows에 Apache Spark를 설치했고 (Eclipse -> Maven 프로젝트를 스칼라 IDE로 사용) winutils 오류를 해결하고 spark 작업을 수행하기 위해이 오류를 해결했습니다. 내 창문. 이 점에 관해 어떤 의문이라도 물어보십시오.