0
너무 많은 반복 횟수와 감속 기능에서 계산량이 많은 함수가있는 루프가 있습니다.Hadoop에서 Map/Reduce 작업이 실패하지 않도록하는 방법
while (context.getCounter(SOLUTION_FLAG.SOLUTION_FOUND).getValue() < 1 && itrCnt < MAX_ITR)
MAX_ITR은 반복 카운트입니다 - 사용자 입력
문제는 내가 하둡 클러스터에서 실행하는 경우가 타임 아웃 오류이며, 감속기 작업이 살해
17/05/06 21:09:43 INFO mapreduce.Job: Task Id : attempt_1494129392154_0001_r_000000_0, Status : FAILED
AttemptID:attempt_1494129392154_0001_r_000000_0 Timed out after 600 secs
내가 피하기 위해 무엇을해야합니까 시간 초과? (내 생각 엔 하트 비트 신호입니다.)
실제로, [this] (http://stackoverflow.com/a/11815803/7584363) 하나는 문제를 완벽하게 해결했지만 참조 링크는 좋았습니다. 감사 –