https://search.twitter.com에 Hashtag 검색 결과를 연속적으로 다운로드하거나 특정 해시 태그 (데이터 스크레이퍼)의 전체 트윗을 다운로드 할 수있는 data processing 도구가 있습니까? 'Archivist Desktop'은 제가 설립 한 유일한 회사입니다. 전체 결과를 CSV 형식으로 내보내고 지불하는 것은 허용됩니다. 무
모든 gitHub 저장소에 대한 링크를 보여주는 색인 페이지가 필요합니다. 내가 그 많은 REPOS 높은 순위와 같은 사이트가 있다면 내가 생각하는 Waybackmachine 처럼 크롤러가 발견되지 않는 이유, 생각, 그들은 그것을 개발자 크롤링을 시작할 것 사이트 SAIS는 Api for getting all repos
마스터 PostgreSQL 9.2 서버를 아카이브하지 않고 스트리밍 복제를 수행하도록 구성하는 것이 허용되는지 또는 합리적인가? 아래 그림과 같이 구성됩니다 : "슬레이브"서버 (대기 대기)는 WAL 세그먼트를 아카이브하도록 구성 할 수 있습니까? wal_level = hot_standby
hot_standby = on
archive_mode = on
정적 라이브러리가 포함 된 프로젝트를 만들었습니다. 보관을 시도하면 라이브러리 헤더가 누락되어 실패합니다. 하지만 앱을 만들면 제대로 작동합니다. 빌드 폴더 헤더에서, 번들 리소스와 라이브러리는 앱 파일 외부에서 생성됩니다. 이 파일을 앱 파일로 만들고 또는 다른 보관 처리 용 프로세스를 보관할 수 있습니까? 미리 감사드립니다.
ssh를 통해 500000 (약 1TB)을 초과하는 파일을 복사하려고하는데 원격 컴퓨터로 ssh의 시간 제한을 초과 했으므로 파이프가 실패합니다. 그래서 저는 원격 컴퓨터의 모든 파일을 보관하고 압축하는 작업으로 옮겼습니다. 그러나 원격으로 ssh'ing 할 시간을 초과하기 때문에 백그라운드에서 프로세스를 종료하더라도 컴퓨터가 취소됩니다. 마지막으로 필자는
오라클 테이블에 6 개월보다 오래된 데이터를 플랫 파일 또는 db 로그에 자동 보관해야합니다. oracle에서이 문제를 해결하는 기존 방법이 있습니까? 아니면이 작업을 수동으로 수행해야합니까? 또한 누구나 배치 프로그램을 작성하여 6 개월이 넘는 레코드를 가져오고 플랫 파일이나 CSV 등으로 기록하는 것과 같은이 보관 프로세스를 해결할 수있는 여러 가지 방
아카이브를 사용하여 로그 파일의 수를 제한하고 각 아카이브 된 로그의 파일 이름을 로그의 날짜로 지정합니다. 충분히 간단합니다. 이 내 목표 중 하나입니다 : 파일 이름에 날짜를 때 전혀 작동하지 않습니다 권 Page 215 ArchiveFileName 또는 보관에 당신이 {#}을해야합니다 읽었습니다 <target xsi:type="File" name="i
글쎄, cfquery을 사용하여 4GB 데이터를 쿼리하려고합니다. 데이터를 가져 오는 데 오랜 시간이 걸리므로 데이터베이스 전체를 으로 쿼리하는 것은 어려울 것입니다. 데이터가 2GB 였을 때 저장 프로 시저를 시도했지만 그 당시에는 너무 빠르지 않았습니다. 데이터 가져 오기는 사용자가 HTML 페이지에서 선택할 날짜 범위를 기준으로 수행됩니다. 데이터베이
tar은 어떻게 org.apache.commons.compress 라이브러리를 사용하여 디렉토리 구조를 보존하고 보존 할 수 있습니까? 내가 아래에서 뭘하는지와 함께, 나는 모든 것을 평평하게 한 패키지를 얻고있다. 감사합니다. 다음은 내가 시도한 것이며 작동하지 않습니다. public static void createTar(final String tarN