beautifulsoup를 사용하여 페이지의 모든 링크를 가져옵니다. 내 코드는 다음과 같습니다페이지에서 링크 가져 오기 Beautiful Soup
는import requests
from bs4 import BeautifulSoup
url = 'http://www.acontecaeventos.com.br/marketing-promocional-sao-paulo'
r = requests.get(url)
html_content = r.text
soup = BeautifulSoup(html_content, 'lxml')
soup.find_all('href')
내가 할 모든 것은입니다 :
[]
가 어떻게 해당 페이지의 모든 HREF 링크 목록을받을 수 있나요?
하지만 그렇게하면 첫 번째 링크가 나타납니다. http://www.acontecaeventos.com.br/ for 루프를 수행하고 모두 가져와야합니까? – user1922364
'links = soup.find_all ('a')'는 모든 링크 목록을 제공합니다. 첫 번째 링크는 답변의 맨 아래 코드에서 예로 사용했습니다. 그리고 yes는'links'리스트를 반복하여 찾은 모든 링크에 접근합니다. – Anonta