2009-03-25 4 views
3

에 액세스하기 위해 로봇을 차단 나는이 구조에 링크가 있습니다의 robots.txt는 : 주어진 "URL을 깊이"

구글에 &은 URL에 하나의 태그가 있지만 두 개 이상의 태그가있는 URL이 아닌 모든 링크를 거미하고 싶습니다.

현재이 문제를 해결하기 위해 html 메타 태그 "robots" -> "noindex, nofollow"을 사용합니다.

robots.txt 솔루션 (적어도 일부 검색 로봇에서 작동)이 있습니까? 아니면 "noindex, nofollow"로 계속 추가 트래픽이 필요합니까?

답변

1

robots.txt를 사용하여 작업 할 수 있다고 생각하지 않습니다. The standard은 매우 좁습니다 (와일드 카드 없음, 최상위 레벨에 있어야 함 등).

서버의 사용자 에이전트를 기반으로 허용하지 않으려면 어떻게해야합니까?

+0

액세스를 허용하지 않으면 일종의 HTTP 오류가 발생합니다. Google이 "서버 오류"가 많은 페이지에 어떻게 반응하는지 잘 모릅니다. 아주 열심히 시도해보십시오 :) – BlaM

+0

필요가 없습니다 - 당신은 싼 정적 "여기를 볼 아무것도"페이지를 제공 할 수 있습니다. – MarkusQ

+0

사실입니다. 적어도 전체 페이지를 제공하는 것보다 낫다. – BlaM