쉘 스크립트가 있습니다. cron 작업은 하루에 한 번 실행됩니다. 현재 wget을 사용하여 웹에서 파일을 다운로드하고 파일 이름에 타임 스탬프를 추가 한 다음 압축합니다. 기본적인 것들. 이 파일은 자주 변경되지 않으므로 이미 다운로드 한 파일을 삭제하고 싶습니다. 가장 쉬운 방법은? 감사합니다.
PHP를 사용하여 웹 페이지를 말리십시오 (사용자가 입력 한 일부 URL은 유효하다고 가정 해 봅시다). 예 : http://www.youtube.com/watch?v=Hovbx6rvBaA HTML을 구문 분석하고 이미지처럼 보이는 모든 중복되지 않은 URL을 추출해야합니다. img src=""에있는 것뿐만 아니라 해당 페이지에서 jpe?g|bmp|gif|
Id 필드가 두 번 이상 존재하는 모든 레코드를 얻으려고 시도 할 때 내 쿼리가 아무 것도 반환하지 않고 왜 그럴 이유가 없는지 !? 그리고 이것이 제가 아는 유일한 방법입니다. 일부 자세한 내용 :가 각 세트의 processOrder에 의해 그룹화 같은 주문 번호 8까지있다가, 내가하지만 속는 나머지에 대해이 가장 낮은 값이 필요 데이터가 다를 수도 있고
필자는 필연적으로 실패로 끝나거나 내 Mac에서 마우스를 던지려는 프로그래밍 여정을 시작하려고합니다. 흥미로운 문제. 일부 기본 디렉토리에서부터 시작하여 반복적으로 각 응용 프로그램을 반복하는 응용 프로그램을 빌드하고 정확한 중복 파일을 찾으면 삭제하고 심볼릭 링크를 만듭니다. 기본적으로 빈약 한 사람은 중복 제거를 수행합니다. Mac에서 중복 파일이 많아
약 10 개 이상의 클래스가 있으며 각 클래스에는 LUMP_INDEX 및 SIZE 정적 상수가 있습니다. 배열의 크기가 두 개의 상수를 사용하여 계산되는 각 클래스의 배열이 필요합니다. 순간 은 난의 라인을 따라 뭔가를 배열을 생성하는 각 클래스에 대한 기능을 가지고 : private Plane[] readPlanes()
{
int count =
JSON 형식으로 들어오는 대규모 데이터 세트로 작업하기 시작했습니다. 불행하게도, 데이터 피드를 제공하는 서비스는 중요한 레코드를 전달합니다. 위쪽에는 각 레코드가 64 비트 양의 정수로 저장된 고유 한 ID 번호 (Java 긴)가 있습니다. 데이터는 일주일에 한 번 도착할 때마다 배달되며 약 10M 레코드입니다. 이전 배치에 있던 레코드뿐만 아니라 현재