설명서를 읽었으며 SnappyData Smart Connector 지점을 이해하는 데 도움을 요청합니다.SnappyData Smart Connector - 작업 실행 방법
나는 불꽃 제출할 사용 방법 문서의 몇 가지 예입니다 예 :
예 1
./bin/spark-submit --deploy-mode cluster --class somePackage.someClass
--master spark://localhost:7077 --conf spark.snappydata.connection=localhost:1527
--packages "SnappyDataInc:snappydata:1.0.0-s_2.11"
예 2
// Start the Spark standalone cluster from SnappyData base directory
$ sbin/start-all.sh
// Submit AirlineDataSparkApp to Spark Cluster with snappydata's
locator host port.
$ bin/spark-submit --class io.snappydata.examples.AirlineDataSparkApp --master spark://masterhost:7077 --conf spark.snappydata.connection=locatorhost:clientPort --conf spark.ui.port=4041 $SNAPPY_HOME/examples/jars/quickstart.jar
예 3
$ <Spark_Product_Home>/bin/spark-submit --master local[*] --conf
spark.snappydata.connection=localhost:1527 --class
org.apache.spark.examples.snappydata.SmartConnectorExample --
packages SnappyDataInc:snappydata:1.0.0-s_2.11
<SnappyData_Product_Home>/examples/jars/quickstart.jar
내가 3 호스트에 스파크 클러스터가 있다고 가정 해 봅시다 : 1 명의 마스터와 3 명의 직원 현재 스파크 환경의 데이터 소스로 SnappyData 클러스터를 사용하고 싶습니다. 예제 1 또는 2 또는 3의 명령을 사용해야합니까?
또한 spark-submit의 --deploy-mode 인수는 무엇입니까? http://snappydatainc.github.io/snappydata/affinity_modes/connector_mode/ spark-submit에 대해 클러스터 모드와 클라이언트 모드간에 다른 점은 무엇입니까?
도움을 주셔서 감사합니다. 감사합니다.
답장을 보내 주셔서 감사합니다. – Tomtom
SmartConnectorExample application.1.start를 실행하려고합니다. 하나의 호스트에서 Spark 독립 실행 형 클러스터를 시작합니다. 2. snappy-start-all.sh 명령을 사용하여 동일한 호스트에서 Snappydata를 시작합니다. 3. 독립 실행 형 Spark 클러스터에서 다음 명령을 실행합니다.'./spark-submit --master spark : //192.168.3.26 : 7077 --conf spark.snappydata.connection = localhost : 1527 --class org.apache.spark .examples.snappydata.SmartConnectorExample --packages SnappyDataInc : snappydata : 1.0.0-s_2.11/opt/snappydata/examples/jars/quickstart.jar' 그러나 오류가 발생합니다. snappydata.connection 및 spark.snappydata.connection이 모두 구성되었습니다. 하나만 설정해야합니다. – Tomtom
'-conf spark.snappydata.connection ='을'-conf snappydata.store.locators ='로 변경했습니다. 하지만 스파크 클러스터 콘솔에는 응용 프로그램이 표시되지 않습니다. 나는 기민하고 SparkUI에서 대시 보드 만 볼 수 있습니다. Spark 관점에서 현재 컨텍스트와 애플리케이션을 어딘가에 확인할 수 있습니까? – Tomtom