2017-10-24 5 views
1

설명서를 읽었으며 SnappyData Smart Connector 지점을 이해하는 데 도움을 요청합니다.SnappyData Smart Connector - 작업 실행 방법

나는 불꽃 제출할 사용 방법 문서의 몇 가지 예입니다 예 :

예 1

./bin/spark-submit --deploy-mode cluster --class somePackage.someClass 
--master spark://localhost:7077 --conf spark.snappydata.connection=localhost:1527 
--packages "SnappyDataInc:snappydata:1.0.0-s_2.11" 

예 2

// Start the Spark standalone cluster from SnappyData base directory 
$ sbin/start-all.sh 
// Submit AirlineDataSparkApp to Spark Cluster with snappydata's 
locator host port. 
$ bin/spark-submit --class io.snappydata.examples.AirlineDataSparkApp --master spark://masterhost:7077 --conf spark.snappydata.connection=locatorhost:clientPort --conf spark.ui.port=4041 $SNAPPY_HOME/examples/jars/quickstart.jar 

예 3

$ <Spark_Product_Home>/bin/spark-submit --master local[*] --conf 
spark.snappydata.connection=localhost:1527 --class 
org.apache.spark.examples.snappydata.SmartConnectorExample -- 
packages SnappyDataInc:snappydata:1.0.0-s_2.11 
<SnappyData_Product_Home>/examples/jars/quickstart.jar 

내가 3 호스트에 스파크 클러스터가 있다고 가정 해 봅시다 : 1 명의 마스터와 3 명의 직원 현재 스파크 환경의 데이터 소스로 SnappyData 클러스터를 사용하고 싶습니다. 예제 1 또는 2 또는 3의 명령을 사용해야합니까?

또한 spark-submit의 --deploy-mode 인수는 무엇입니까? http://snappydatainc.github.io/snappydata/affinity_modes/connector_mode/ spark-submit에 대해 클러스터 모드와 클라이언트 모드간에 다른 점은 무엇입니까?

도움을 주셔서 감사합니다. 감사합니다.

답변

0

배포 모드는 here입니다. SnappyData를 사용할 때 다른 점은 없습니다. Spark 클러스터 (Spark 2.1과 호환되는 모든 Spark 배포판)를 실행할 때 SnappyData를 사용하면 Snappy locator (예 : localhost : 1527) 만 구성하면됩니다.

+0

답장을 보내 주셔서 감사합니다. – Tomtom

+0

SmartConnectorExample application.1.start를 실행하려고합니다. 하나의 호스트에서 Spark 독립 실행 형 클러스터를 시작합니다. 2. snappy-start-all.sh 명령을 사용하여 동일한 호스트에서 Snappydata를 시작합니다. 3. 독립 실행 형 Spark 클러스터에서 다음 명령을 실행합니다.'./spark-submit --master spark : //192.168.3.26 : 7077 --conf spark.snappydata.connection = localhost : 1527 --class org.apache.spark .examples.snappydata.SmartConnectorExample --packages SnappyDataInc : snappydata : 1.0.0-s_2.11/opt/snappydata/examples/jars/quickstart.jar' 그러나 오류가 발생합니다. snappydata.connection 및 spark.snappydata.connection이 모두 구성되었습니다. 하나만 설정해야합니다. – Tomtom

+0

'-conf spark.snappydata.connection ='을'-conf snappydata.store.locators ='로 변경했습니다. 하지만 스파크 클러스터 콘솔에는 응용 프로그램이 표시되지 않습니다. 나는 기민하고 SparkUI에서 대시 보드 만 볼 수 있습니다. Spark 관점에서 현재 컨텍스트와 애플리케이션을 어딘가에 확인할 수 있습니까? – Tomtom