을 찾을 수 있지만 오류가 계속 할 수 없습니다 : Scrapy 내가 scrapy 실행하는 간단한 거미를 얻기 위해 노력 해왔다 거미 오류
Could not find spider for domain:stackexchange.com
내가 표현 scrapy-ctl.py crawl stackexchange.com
으로 코드를 실행
from scrapy.spider import BaseSpider
from __future__ import absolute_import
class StackExchangeSpider(BaseSpider):
domain_name = "stackexchange.com"
start_urls = [
"http://www.stackexchange.com/",
]
def parse(self, response):
filename = response.url.split("/")[-2]
open(filename, 'wb').write(response.body)
SPIDER = StackExchangeSpider()`
, Scrapy spider is not working 내가 정확히 http://doc.scrapy.org/intro/tutorial.html에 turtorial을 다음되었으며, 이유를 알아낼 수 없습니다 작동 안됨. 나는 일식이 코드를 실행하면
나는 그것이 기본 거미 모듈을 찾지 못하는 이유 내가 알아낼 수 없습니다 오류
Traceback (most recent call last): File "D:\Python Documents\dmoz\stackexchange\stackexchange\spiders\stackexchange_spider.py", line 1, in <module> from scrapy.spider import BaseSpider ImportError: No module named scrapy.spider
를 얻을. 내 거미가 scripts 디렉토리에 저장되어야합니까?
내 스파이더에는 규칙 문이 없으므로 적용되지 않는다고 생각합니다. 나는 틀릴 수 있었다. – Kristin
튜토리얼에서 정의한 DmozSpider를 사용할 때 같은 오류가 발생합니까? – unutbu
도메인으로 dmoz를 사용해 보지 않았습니다. 내가 실제로 한 모든 작업은 크롤링하는 사이트를 변경하는 것입니다. – Kristin