Amazon Elastic MapReduce 시스템에서 hadoop 프로그램을 실행하려고합니다. 내 프로그램은 프로그램을 실행하는 데 필요한 매개 변수가 들어있는 로컬 파일 시스템의 입력 파일을 사용합니다. 그러나 파일이 정상적으로 로컬 파일 시스템에서 FileInputStream
으로 읽혀지기 때문에 AWS 환경에서 매개 변수 파일을 찾을 수 없다는 오류가 발생하면 작업이 실패합니다. 이미 Amazon S3에 파일을 업로드했음을 유의하십시오. 이 문제를 어떻게 해결할 수 있습니까? 감사. 아래는 내가 공용 미터 파일을 읽고 결과적으로 파일의 매개 변수를 읽는 데 사용하는 코드입니다. 로컬 파일 시스템에서 파일을 읽을해야하는 경우Amazon Elastic MapReduce 및 S3의 매개 변수 파일에서 읽기
FileInputStream fstream = new FileInputStream(path);
FileInputStream os = new FileInputStream(fstream);
DataInputStream datain = new DataInputStream(os);
BufferedReader br = new BufferedReader(new InputStreamReader(datain));
String[] args = new String[7];
int i = 0;
String strLine;
while ((strLine = br.readLine()) != null) {
args[i++] = strLine;
}
당신이 무슨 짓을 드디어? – Amar
DataInputStream을 사용하여 텍스트를 읽지 마십시오. http://vanillajava.blogspot.co.uk/2012/08/java-memes-which-refuse-to-die.html –