scraperwiki

    0

    2답변

    원본 웹 페이지에서 링크 된 웹 페이지에서 링크 된 웹 페이지의 내용을 기록하는 가장 간단한 방법을 결정하려고합니다. 내 출력 페이지의 깊은 세 번째 레이어의 내용에 해당하는 행 테이블로하고 싶습니다. 코드에서 알 수 있듯이 현재 제 3 수준 페이지에서 원하는 항목의 첫 번째 인스턴스 만 가져올 수 있습니다. 또한 현재 코드는 기본 URL의 각 h2 항목에

    0

    1답변

    이것은 바보 같은 질문 일지 모르지만 나는 현재 Scraperwiki를 사용하여 twitter를 긁어 모으고 있습니다. Tho ScraperWiki 실행 빈도는 다소 낮습니다. 내 지식이 자바 스크립트로 제한되기 때문에 더 자주 파이썬을 만지지 않고도 ScraperWiki를 더 자주 실행하는 방법이 있습니까? 지금까지 내 코드 : 자바 스크립트 : 당신은

    2

    1답변

    다음 TD 태그가있는 주요 열 요소로 TH를 사용하는 테이블을 긁어 내려고했습니다. 문제는 TH 태그가 없기 때문에 표에서 생략해야하는 간헐 분배기를 사용한다는 것입니다. 이 테이블에서 샘플입니다 <tr><th scope="row">Availability (non-CRS):</th><td></td></tr> <tr><td colspan="2" class=

    0

    1답변

    Python 용 Scraperwiki 모듈을 설치하려고했습니다. 그러나 오류를 생성합니다. ""UserWarning : 로컬 Scraperlib에는 pdftohtml이 필요하지만 pdftohtml은 PATH에서 찾을 수 없습니다. "을 설치해야합니다. pdftohtml 파일을 가지고 있기 때문에 poppler를 살펴 보았지만 어떻게 작동하는지 모르겠습니다.

    0

    1답변

    ScraperWiki을 사용하여 div 컨테이너에서 데이터를 가져 오는 방법이 있습니까? 내가 좋아하는 뭔가가 HTML의 라인있어 : <div id="karte_data_aktuelle_temperatur___CHA" class="karte_text_hidden"> <span style="font-size: 10px;">9.0</span>

    0

    1답변

    나는 london-gazette.co.uk 사이트에서 링크를 가져 오기 위해 ScraperWiki를 사용하고 있습니다. 코드를 편집하여 맨 아래에 여러 개의 개별 검색 URL을 붙여 넣을 수 있는데,이 둘은 모두 동일한 데이터 저장소에 대조됩니다. 현재로서는 새로운 URL에 붙여 넣기 만하면됩니다. 실행하면 새 데이터가 이전 데이터의 뒷면에 추가되지만, 속

    0

    1답변

    내가이 페이지에서 특정 요소의 텍스트 데이터를 긁어 위해 노력하고 있어요 (사용 scraperwiki) import requests from lxml import html response = requests.get(http://portlandmaps.com/detail.cfm?action=Assessor&propertyid=R246274) tree

    1

    1답변

    ScraperWiki로이 PDF를 다듬 으려합니다. 현재 코드는 나에게 정의되지 않은 이름 '데이터'의 오류를 제공하지만 난 내 else 문에서 동일한 오류가 그 줄을 주석으로 경우에 나는 elif int(el.attrib['left']) < 647: data['Neighborhood'] = el.text 에 오류가 나타납니다. 여기 내 코드 내가 잘못

    -1

    3답변

    안녕하세요 저는 웹 페이지를 긁어 스크래퍼 위키 database.Now에 데이터를 저장하는 스크래퍼 위키에 스크레이퍼를 작성했습니다. 이제 파이썬으로 프로그램을 작성하고 싶습니다. 그러면 scraper-wiki API로 이동하여 로컬 컴퓨터의 sqlite 데이터베이스에 데이터 및 저장소를 가져옵니다.

    0

    1답변

    여기 내가 ScraperWiki에 파이썬을 사용하여 만든 스크레이퍼입니다 : import lxml.html import re import scraperwiki pattern = re.compile(r'\s') html = scraperwiki.scrape("http://www.shanghairanking.com/ARWU2012.html") roo