-1
나는 300 Megs XML 피드를 반복하기 위해 itertag가있는 XMLFeedSpider를 사용하고 있습니다.큰 XML 피드 링크를 따르는 치료
큰 피드의 각 항목을 항목으로 저장하는 것 외에도 각 항목에는 크롤링 할 추가 링크가 있으며, 이번에는 html 페이지에 대한 링크입니다.
HTML 페이지가 CrawlerSpider를 사용하여 크롤링되므로 해당 스파이더를 사용하여 큰 XML 피드의 링크를 따라갈 수있는 방법을 찾으려한다는 것을 알고 있습니다.
감사합니다, 모든 읽기의 가이
스파이더를 사용하려면 "scrapy crawl projectname"을 실행하십시오. – fgeek