stdin에서 URL을 제공하면서 웹 페이지를 다운로드하고 싶습니다. 본질적으로 하나의 프로세스가 stdout/file에 대한 URL을 지속적으로 생성하므로 wget 또는 curl로 파이프 처리하려고합니다. (원하는 경우 간단한 웹 크롤러로 생각하십시오.)wget 또는 curl from stdin
이것은 잘 작동하는 것 같다 :
tail 1.log | wget -i - -O - -q
을하지만 '꼬리 -f'를 사용하고 더 이상 작동하지 않을 때 (버퍼링 또는 wget과는 EOF을 기다리고 있습니다?) :
tail -f 1.log | wget -i - -O - -q
누구나 wget, curl 또는 다른 표준 유닉스 도구를 사용하여 솔루션을 제공 할 수 있습니까? 이상적으로 루프에서 wget을 다시 시작하지 않으려 고합니다. URL을 다운로드 할 때 계속 실행하십시오.
'xargs'를 사용하면'wget'이 URL을 매개 변수로 받아들이므로 더 이상'-i -'가 필요 없습니다. 'tail -f 1.log | xargs -n1 wget -O - -q' – pabouk
URL 당 새로운 wget 프로세스가 시작됩니다 –
공유 컴퓨터에서 실행중인 경우 다른 사용자가 "ps"명령을 사용하여 매개 변수를 읽을 수 있음을 알고 싶을 수 있습니다. 그래서 귀하의 URL에 암호 등을 넣지 마십시오. 문제가 될 수있는 경우 표준 입력을 매개 변수로 바꾸지 않는 솔루션을 사용하십시오 (시스템에 대한 루트 액세스 권한이있는 관리자는 물론 가져 오는 URL을 확인할 수 있지만 아마도 무작위로 신뢰하는 것 이상으로 관리자를 신뢰할 수 있습니다). 다른 사용자). –