2017-12-26 22 views
0

Windows 10 컴퓨터에 Apache Spark을 설치하려고합니다. 스파크를 설치하는 내 첫 번째 단계는이 다음이 경로를 통해 다운로드 한 Java from here를 다운로드하는 것이 었습니다 : C:\Program Files (x86)\Java 설치하는 동안 다운로드 된 하나 개의 폴더가 있었다 :Windows에서 Spark 설치가 작동하지 않습니다.

\jre1.8.0_151가 다음 내가 JDK from here를 설치하고 윈도우 86 버전을 다운로드. 자바 폴더에서 위와 동일한 경로를 사용하여 다운로드했습니다. 그것은 완료 후 나는 자바 폴더 안에 두 개의 폴더했다 : 그 후 jdk1.8.0_151 and jre1.8.0_151

을, 나는 JAVA_HOME 변수가 C:\PROGRA~1(x86)\Java\jdk1.8.0_151를 가리 키도록 설정하고 Path에서 나는 다음 Scala from here을 설치 %JAVA_HOME%을 추가하고 Windows 용 스칼라 바이너리를 다운로드했습니다. 환경 경로로 path 첨가 하였다 D:\spark-2.2.1-bin-hadoop2.7\bin 및 I는 %SPARK_HOME%\bin

path 업데이트 : C:\PROGRA~1(x86)\scala\bin

다음에 I가 Spark from here을 설치하고 이후 spark-2.2.1-bin-hadoop2.7.tgz를 설치 난 후 경로 SPARK_HOME 같은 환경 변수를 추가 D:\spark-2.2.1-bin-hadoop2.7 여기 폴더 배치

마지막으로 모든 것이 설치되었는지 확인하려고했습니다. 나는 java -version을 입력했고 정확한 java가 설치되었다. 그런 다음 scala을 입력하고 scala가 표현식 등을 입력하기 위해 열렸습니다. 그때 spark-shell에 입력하지만이 오류가있어 :

'spark-shell' is not recognized as an internal or external command, operable program or batch file.

내가 잘못이 열려 불꽃을하지 않는 일을하고 무엇을? 주의 사항 : 저는 모든 것을 위해 cmd를 사용하고 있습니다.

답변

2

그것은 "나는 다음 %SPARK_HOME%\binpath 업데이트 "때 따라서 귀하의 %SPARK_HOME% 잘못된 장소로 설정처럼 보이는 그것은 분명히 잘못을 두 번 \binD:\spark-2.2.1-bin-hadoop2.7\bin\bin를 추가하는 결과. %SPARK_HOME%\bin이 없어야합니다. 일반적으로

당신이 그들 모두를 표시하기 위해 명령 행에서 echo %PATH% 또는 SET를 호출하여 환경 변수를 테스트 할 수 있습니다

+0

내가 볼 흠, 저는 업데이트 때 여전히 말을 나에게 오류를 제공'시스템은 찾을 수 없습니다 경로 지정. – user2896120

+0

@ user2896120, 어느 쪽을'% PATH %'또는'% SPARK_HOME %'로 조정 했습니까? spark-shell.cmd는'% SPARK_HOME % \ bin \ spark-submit2.cmd "를 간접적으로 호출하기 때문에'% SPARK_HOME %'을 조정할 필요가 있다고 믿습니다. %'. 이것이 사실이 아니라면'bin '폴더 아래에'.cmd' 파일을 편집하여 첫 줄에'@echo off' 전에'REM'(주석 달기)을 추가해야합니다. 그런 식으로 어떤 명령이 실패했는지 알 수 있습니다. 그것을 모른 채 어떻게 당신을 도울 지 모르겠습니다. – SergGr

+1

이제 문제가 java_home에서 (x86) 경로를 제거해야했습니다! – user2896120