S3 디렉토리에 많은 수의 텍스트 파일이 있습니다. 각 텍스트 파일에 대해 함수 (부트 스트랩을 통해로드 된 실행 파일)를 적용한 다음 결과를 S3의 출력 디렉토리에 같은 이름의 다른 텍스트 파일에 쓰려고합니다. 따라서 MapReduce 작업에는 명백한 축소 단계가 없습니다.Elastic MapReduce로 파일 처리 - 감속기 단계가 필요하지 않습니까?
내 감속기로 NONE을 사용했지만 출력 디렉토리에 part-00000, part-00001 등과 같은 파일이 가득 찼습니다. 이보다 더 많은 파일이 내 입력 디렉토리에 있습니다. 각 파트 - 파일은 처리 된 단편만을 나타냅니다.
모든 조언을 주시면 감사하겠습니다. 그것이 내가 하둡에 대해 읽은 것과 같다
모두 도움을 주셔서 감사합니다. 하둡 스트리밍 FAQ에서이 질문에 대한 또 다른 답변을 찾았습니다. http://hadoop.apache.org/common/docs/current/streaming.html#How+do+I+process+files%2C+one+per +지도 % 3F – 345871345