Azure에서 HDInsight 클러스터가 실행 중이지만 클러스터 생성시 에지/게이트웨이 노드를 회전시킬 수 없습니다. 그래서spark-shell 오류 : 스키마에 대한 FileSystem이 없습니다. wasb
echo 'deb http://private-repo-1.hortonworks.com/HDP/ubuntu14/2.x/updates/2.4.2.0 HDP main' >> /etc/apt/sources.list.d/HDP.list
echo 'deb http://private-repo-1.hortonworks.com/HDP-UTILS-1.1.0.20/repos/ubuntu14 HDP-UTILS main' >> /etc/apt/sources.list.d/HDP.list
echo 'deb [arch=amd64] https://apt-mo.trafficmanager.net/repos/azurecore/ trusty main' >> /etc/apt/sources.list.d/azure-public-trusty.list
gpg --keyserver pgp.mit.edu --recv-keys B9733A7A07513CAD
gpg -a --export 07513CAD | apt-key add -
gpg --keyserver pgp.mit.edu --recv-keys B02C46DF417A0893
gpg -a --export 417A0893 | apt-key add -
apt-get -y install openjdk-7-jdk
export JAVA_HOME=/usr/lib/jvm/java-7-openjdk-amd64
apt-get -y install hadoop hadoop-hdfs hadoop-yarn hadoop-mapreduce hadoop-client openssl libhdfs0 liblzo2-2 liblzo2-dev hadoop-lzo phoenix hive hive-hcatalog tez mysql-connector-java* oozie oozie-client sqoop flume flume-agent spark spark-python spark-worker spark-yarn-shuffle
를 설치하여이 가장자리/게이트웨이 노드를 작성되었다 그럼 난 /usr/share/java/
/usr/lib/hdinsight-datalake/
/etc/spark/conf/
/etc/hadoop/conf/
/usr/lib/python2.7/dist-packages/hdinsight_common/
을 복사하지만 spark-shell
을 실행할 때 나는 여기
java.io.IOException: No FileSystem for scheme: wasb
가 가득 오류를 다음 얻을 스택 https://gist.github.com/anonymous/ebb6c9d71865c9c8e125aadbbdd6a5bc
패키지/jar가 여기에 누락되어 있는지 확실하지 않습니다.
누구나 내가 뭘 잘못하고 있는지 알 수 있습니까?
감사
의 'hadoopConfiguration'에 매개 변수를 전달 할 수있다. 가능한 지원 여기에 : http://stackoverflow.com/questions/32264020/unable-to-connect-with-azure-blob-storage-with-local-hadoop – aaronsteers