cat urllist.txt | xargs -P0 -n1 컬 | grep "HREF ="> out.txt말아서 100 개의 URL을 병렬로 가져옴
이 작동하지만 이것은 한 번에 하나의 URL을 연결합니다. 어떻게하면 100 개의 URL을 동시에 감을 수 있습니까?
cat urllist.txt | xargs -P0 -n1 컬 | grep "HREF ="> out.txt말아서 100 개의 URL을 병렬로 가져옴
이 작동하지만 이것은 한 번에 하나의 URL을 연결합니다. 어떻게하면 100 개의 URL을 동시에 감을 수 있습니까?
xargs를 사용하는 대신 parallel을 사용하십시오. xargs와 매우 유사하지만 병렬로 명령을 실행합니다. 따라서 이름이 ...
URL을 벤치마킹하려면 apache 벤치 마크를 사용하십시오. httpd와 함께 제공됩니다. 샘플 실행 : 위입니다 무엇을
$ ab -n 100 -c 100 "<url>"
은의 oncurrency 100 회 (C)에 URL을 명중 100