을 사용 SparkContext 개체를 만들 수 없습니다 나는 MS 윈도우 7는 아파치 스파크 2.2 버전
처음에, 나는 스파크 1.6에서 스칼라를 사용하여 하나 개의 프로그램을 시도하고 괜찮 았는데 사용합니다. 나는 PARALLELIZE 방법 아래 실행하려고 그것은 나에게 하나의 오류를 줄 때 지금
import org.apache.spark.SparkContext
import org.apache.spark.SparkConf
val sc = new SparkConf().setAppName("myname").setMaster("mast")
new SparkContext(sc)
: 나는 2.2 스파크했을 때
, 내가 자동으로 sc
을 받고 있지 않다 그래서 나는 다음 단계를 수행하여 하나를 만들어
val data = Array(1, 2, 3, 4, 5)
val distData = sc.parallelize(data)
오류 :
Value parallelize is not a member of org.apache.spark.SparkConf
나는 FOLLO 이 단계는 공식 문서만을 사용하십시오. 아무도 나 잘못 설명해 줄 수 있니? 미리 감사드립니다. :)
나는 "spark-shell"을 사용하여 _ "SparkContext 개체를 자동으로 가져 오는 곳"_으로부터 이해합니다. 'HADOOP_HOME'을 정의하고'$ HADOOP_HOME/bin'에'winutils.exe'를 저장 했습니까? –