0
예를 들어, 브라우저에서 https://stackoverflow.com/을 열면 브라우저는 기본 페이지뿐만 아니라 이미지, js, css도 다운로드합니다.URL의 HTML에서 링크를 다운로드하는 방법은 무엇입니까?
하지만 내가 curl https://stackoverflow.com/
일 때 기본 페이지 html 만 다운로드됩니다. images/js/css도 다운로드 할 수있는 curl
또는 wget
옵션이 있습니까?
또는 다른 도구로도 가능합니까?
가능한 중복 저장됩니다? https://stackoverflow.com/questions/6348289/download-a-working-local-copy-of-a-webpage –
가능한 [웹 페이지의 로컬 로컬 복사본 다운로드] (https://stackoverflow.com/) questions/6348289/download-a-working-local-a-a-a-web 페이지) –