2016-06-28 4 views

답변

3

해결 방법 : 스파크 - 쉘

import org.apache.spark.api.java.JavaSparkContext 
val jsc = new JavaSparkContext(sc) 
val javaRDD:java.util.List[Int]= java.util.Arrays.asList(1, 2, 3, 4, 5) 
jsc.parallelize(javaRDD) 

Spark Programming Guide

4

(2.0 스파크) 나는 같은 Proble했다 엠. 지금까지 무슨 짓을 : 내가이 작업을 수행 할

List<String> list = Arrays.asList("Any", "List", "with", "Strings"); 
Dataset<String> listDS = sparkSession.createDataset(list, Encoders.STRING()); 
JavaRDD<String> javaRDDString = listDS.toJavaRDD(); 

이유 중 하나는 내가이 도움이 JavaRDD<String>하지만

Dataset<String>와 희망으로 잘 작동 flatMap를 사용하려면 예입니다.

+0

감사합니다. .... !! –