2017-12-28 35 views
0

예를 들어, 브라우저에서 https://stackoverflow.com/을 열면 브라우저는 기본 페이지뿐만 아니라 이미지, js, css도 다운로드합니다.URL의 HTML에서 링크를 다운로드하는 방법은 무엇입니까?

하지만 내가 curl https://stackoverflow.com/ 일 때 기본 페이지 html 만 다운로드됩니다. images/js/css도 다운로드 할 수있는 curl 또는 wget 옵션이 있습니까?

또는 다른 도구로도 가능합니까?

+0

가능한 중복 저장됩니다? https://stackoverflow.com/questions/6348289/download-a-working-local-copy-of-a-webpage –

+0

가능한 [웹 페이지의 로컬 로컬 복사본 다운로드] (https://stackoverflow.com/) questions/6348289/download-a-working-local-a-a-a-web 페이지) –

답변

0

wget -r 모든 것을

wget -r www.your-site.com