Windows 10 컴퓨터에 Apache Spark을 설치하려고합니다. 스파크를 설치하는 내 첫 번째 단계는이 다음이 경로를 통해 다운로드 한 Java from here를 다운로드하는 것이 었습니다 : C:\Program Files (x86)\Java
설치하는 동안 다운로드 된 하나 개의 폴더가 있었다 :Windows에서 Spark 설치가 작동하지 않습니다.
\jre1.8.0_151
가 다음 내가 JDK from here를 설치하고 윈도우 86 버전을 다운로드. 자바 폴더에서 위와 동일한 경로를 사용하여 다운로드했습니다. 그것은 완료 후 나는 자바 폴더 안에 두 개의 폴더했다 : 그 후 jdk1.8.0_151 and jre1.8.0_151
을, 나는 JAVA_HOME 변수가 C:\PROGRA~1(x86)\Java\jdk1.8.0_151
를 가리 키도록 설정하고 Path
에서 나는 다음 Scala from here을 설치 %JAVA_HOME%
을 추가하고 Windows 용 스칼라 바이너리를 다운로드했습니다. 환경 경로로 path
첨가 하였다 D:\spark-2.2.1-bin-hadoop2.7\bin
및 I는 %SPARK_HOME%\bin
path
업데이트 :
C:\PROGRA~1(x86)\scala\bin
다음에 I가 Spark from here을 설치하고 이후 spark-2.2.1-bin-hadoop2.7.tgz
를 설치 난 후 경로 SPARK_HOME 같은 환경 변수를 추가 D:\spark-2.2.1-bin-hadoop2.7
여기 폴더 배치
마지막으로 모든 것이 설치되었는지 확인하려고했습니다. 나는 java -version
을 입력했고 정확한 java가 설치되었다. 그런 다음 scala
을 입력하고 scala가 표현식 등을 입력하기 위해 열렸습니다. 그때 spark-shell
에 입력하지만이 오류가있어 :
'spark-shell' is not recognized as an internal or external command, operable program or batch file.
내가 잘못이 열려 불꽃을하지 않는 일을하고 무엇을? 주의 사항 : 저는 모든 것을 위해 cmd를 사용하고 있습니다.
내가 볼 흠, 저는 업데이트 때 여전히 말을 나에게 오류를 제공'시스템은 찾을 수 없습니다 경로 지정. – user2896120
@ user2896120, 어느 쪽을'% PATH %'또는'% SPARK_HOME %'로 조정 했습니까? spark-shell.cmd는'% SPARK_HOME % \ bin \ spark-submit2.cmd "를 간접적으로 호출하기 때문에'% SPARK_HOME %'을 조정할 필요가 있다고 믿습니다. %'. 이것이 사실이 아니라면'bin '폴더 아래에'.cmd' 파일을 편집하여 첫 줄에'@echo off' 전에'REM'(주석 달기)을 추가해야합니다. 그런 식으로 어떤 명령이 실패했는지 알 수 있습니다. 그것을 모른 채 어떻게 당신을 도울 지 모르겠습니다. – SergGr
이제 문제가 java_home에서 (x86) 경로를 제거해야했습니다! – user2896120