2011-01-04 2 views
1

약 100 개의 URL을 스크랩하는 스크래퍼를해야하는데, 스크래퍼는 CronJob에서 호출하는 PHP CLI에서 실행해야합니다. 나는 이것을 관리하는 방법에 대해 완전히 분실했다 ... 각 URL에 대해 특정 URL에 대한 코드를 업데이트해야 할 때 명확한 정보를 얻으려고 새 파일을 작성하려고 생각하고있다.PHP 응용 프로그램 설계

이것은 좋은 옵션 일 수 있습니까? 그런 다음 하나의 CronJob에서이 모든 파일을 호출 할 수 있습니까?

답변

5

100 개의 URL을 데이터베이스 나 텍스트 파일에 저장하여 쉽게 관리 할 수 ​​있습니다. 그러면 모든 URL을로드하고 루프를 반복하여 스크랩 기능을 호출하십시오. 무엇 당신이 할 수있는

+0

또는 하드 코딩 된 배열 또는 텍스트 파일을 사용하십시오. – moteutsch

0

,

는 데이터베이스에 (무엇에 의해, http://google.com을위한 '구글'을 말할 수)에 별칭 이름과 함께 100 개 개의 URL 목록을 유지합니다.

다음 이름 지정 규칙 '별칭 name.php'로 각 URL에 대한 파일을 만듭니다. 해당 파일의 URL을 구문 분석하는 코드를 작성하십시오.

이제 데이터베이스에서 모든 URL을 검색 할 Cronjob을 호출 할 수 있습니다. 각 URL을 반복하여 해당 별칭 이름으로 파일을 실행할 수 있습니다.

예를 들면. URL이 인 경우 http://google.com이고 별칭은 입니다. Google입니다. 이를 위해 Google.php라는 파일을 만들어야하며 스크래핑 코드를 작성해야합니다. cron 작업에서 코드는 다음과 같습니다.

$urls = getAllURLs();  
foreach($urls as $url){ 

include_once($url['alias'].".php"); 

} 

희망이 도움이 될 것입니다.

감사합니다!

후세인