0
최적화 목적으로 한 번 타임 아웃 된 웹 사이트를 건너 뛰려면 스파이더가 필요하며 scrapy que를 반복해서 시도해보십시오.치료가 시간 초과 웹 사이트를 다시 시도하는 것을 허용하지 않으려면 어떻게해야합니까?
어떻게 달성 할 수 있습니까?
감사합니다.
최적화 목적으로 한 번 타임 아웃 된 웹 사이트를 건너 뛰려면 스파이더가 필요하며 scrapy que를 반복해서 시도해보십시오.치료가 시간 초과 웹 사이트를 다시 시도하는 것을 허용하지 않으려면 어떻게해야합니까?
어떻게 달성 할 수 있습니까?
감사합니다.
난 그냥 설정 세트, 을 발견 : 알아서 것 :
을 "RETRY_ENABLED = 거짓"