저는 아주 새로워졌습니다. 2 열만있는 CSV 파일이 있습니다. csv 파일은 큽니다 (3 천만 행 포함). 데이터 프레임에로드하려면 spark-csv_2.10:1.2.0을 사용하려고합니다. 내가 오류 다음 얻고있다 df = sqlContext.read.load('file:///path/file_third.csv',
format='com
in this tutorial과 같이 spark csv lib를 사용하여 hdfs 파일에 데이터 프레임 객체를 만들려고했습니다. 나는로드 empid,empname
1000,Tom
2000,Jerry
: 내가 DataFrame 객체의 수를 얻기 위해 시도 할 때 0 여기 같은 내 파일보기와 같이 , 그것은 employee.csv, 보여주고있다 위의 파
Zeppelin-Sandbox 0.5.6을 Spark 1.6.1과 Amazon EMR으로 사용하고 있습니다. s3에있는 csv 파일을 읽습니다. 문제는 때때로 파일을 읽는 중 오류가 발생했습니다. 나는 그것이 작동 할 때까지 인터프리터를 여러 번 다시 시작해야한다. 내 코드가 변경되지 않습니다. 나는 그것을 복원 할 수 없으며 그것이 언제 일어나는지 알 수