나는 좋은 웹 트래픽 필터를 만들기 위해 노력하고있다. 나의 목표는 모든 봇, 크롤러, 스파이더, 비 실제 사용자를 금지하고 특정 브라우저 만 허용하는 것이다.크롤러, 봇, 가짜 사용자를 차단하고 특정 브라우저 만 허용 하시겠습니까?
나는 PHP에서 몇 가지 테스트를 해봤지만 다른 것들은 자바 스크립트에서했지만 나는 완전히 해냈다 고 생각하지 않는다. 나는 전문가의 의견을 원합니다. 나는 PHP + JavaScript + robots.txt + .htaccess의 조합을 사용하는 것이 좋다고 생각한다.
나는 사용자 에이전트가 위조 될 수 있다는 것을 알고 있지만, 그것을 탐지하는 더 좋은 방법이 있는지 알고 싶습니다. 예를 들어, 버전에 관계없이 사용자 만 Mozilla Firefox를 사용하도록 허용하고 싶습니다.
다른 모든 브라우저는 제외 목록 또는 일종의 필터로 이동해야합니다.
가장 좋은 방법은 무엇입니까? 즉, Firefox 만 허용하고 모든 가짜 사용자, 로봇, 거미, 크롤러 및 기타 쓰레기를 피하도록 브라우저를 검색하십시오.
여기서 문제는 IP 주소를 포함하여 모든 것이 위조 될 수 있다는 것입니다. 브라우저에서 javascript를 실행하여 user-agent에 의존하는 대신 브라우저를 검색 할 수는 있지만 위조 될 수 있습니다. 내 질문은 당신에게 돌아갑니다. 당신은 실제로 무엇을 성취하려고합니까? 브라우저를 기반으로 필터링하는 이유는 무엇입니까? –
@RogerCracel 나는 단순히 모든 쓰레기 (거미, 로봇, 크롤러 등)를 피하고 Firefox를 사용하는 실제 사용자에게만 집중하고자합니다. 나는 모든 것이 위조 될 수 있다는 것을 알고있다. 그러나 내가 알아내는 최선의 방법을 찾는다. 가짜를 만든 사용자가 결국에는 문제가되지 않는다. 중요한 것은 최대 값을 필터링하여 해당 작업을 어렵게 만드는 것입니다. – candlejack