나는 웹 사이트를 긁어 내려고하고있다. 이것은 이것의 연장입니다 soup.findAll is not working for tablebeautifulsoup와 python을 사용하여 여러 페이지로 사이트를 긁을 수 있습니까?
필요한 데이터를 얻을 수 있었지만 사이트에는 하루에 여러 페이지가 있습니다. 언젠가 20 페이지와 33 페이지가 될 수 있습니다. 나는 마지막 페이지를 요소 How to scrape the next pages in python using Beautifulsoup 를 획득하여이 솔루션을 구현하려고했지만, 난이 사이트에서 호출기 DIV에 도착했을 때 나는 내가 모든 페이지에 긁어 수있는 방법이 형식
<a class="ctl00_cph1_mnuPager_1" href="javascript:__doPostBack('ctl00$cph1$mnuPager','32')">32</a>
<a class="ctl00_cph1_mnuPager_1">33</a>
을 발견 긁어 할 페이지의 양이 매일 바뀌는 사이트? 페이지 변경으로 인해 페이지 URL이 바뀌지 않는 방식으로 에 있습니다. JS를 실행할 수 없습니다 그 때문에
아마도 회피 방법을 사용하여 즉각적인 회신을 받기 위해 해당 사이트의 링크를 공개 할 수 있습니까? – SIM