큰 (100MB에서 500MB) 이미지를 많이 (1000-10000) 처리해야하는 프로젝트가 있습니다. 현재 수행중인 처리는 Imagemagick을 통해 수행 할 수 있지만 Amazon의 Elastic MapReduce 플랫폼 (실제로는 Hadoop을 사용한다고 생각합니다)에서이 처리를 실제로 수행하고 싶습니다.Amazon MapReduce/Hadoop을 사용하여 이미지 처리
모든 예제 중 텍스트 기반 입력 (Word Count Count가 10 억 회라는 것을 알았습니다)을 다룹니다. Hadoop에서는 파일 집합을 시작으로 각 파일에 대해 동일한 작업을 수행 한 다음 새 파일의 출력을 자체 파일로 작성하여 이러한 유형의 작업을 찾을 수 없습니다.
이 플랫폼으로이 작업을 수행 할 수 있으며 Bash를 사용하여 수행 할 수 있어야합니다. 나는 전체 Java 응용 프로그램 또는 뭔가를 만드는 문제로 갈 필요가 있다고 생각하지 않지만 잘못 될 수 있습니다.
나는 나에게 코드를 손에 누군가를 요구 아니지만, 사람이 예제 코드 또는 유사한 문제를 다루는 튜토리얼에 대한 링크가있는 경우, 그것은 훨씬
이미지에 대한 하둡은 주로 ginormous-sized-images가 아니라 ginormous-number-of-images가 아니라고 말하고 있습니까? –
@aaaaaaa 전혀 아닙니다. Hadoop을 이미지 처리에 사용할 수는 있지만 그의 요구 사항은 Hadoop에 적합하지 않다고 생각합니다. 하지만 네가 옳다. 작은 크기의 큰 이미지가 큰 이미지의 작은 이미지보다 낫다.하지만 'CombineInputFormat'에서 많은 문제를 무시할 수는 있지만 여전히 상당한 오버 헤드가있다. –