3
에 액세스하기 위해 로봇을 차단 나는이 구조에 링크가 있습니다의 robots.txt는 : 주어진 "URL을 깊이"
- http://www.example.com/tags/저쩌구
- http://www.example.com/tags/blubb
- http://www.example.com/tags/ㅋ/blubb (두 태그 모두와 일치하는 모든 항목)
구글에 &은 URL에 하나의 태그가 있지만 두 개 이상의 태그가있는 URL이 아닌 모든 링크를 거미하고 싶습니다.
현재이 문제를 해결하기 위해 html 메타 태그 "robots" -> "noindex, nofollow"을 사용합니다.
robots.txt 솔루션 (적어도 일부 검색 로봇에서 작동)이 있습니까? 아니면 "noindex, nofollow"로 계속 추가 트래픽이 필요합니까?
액세스를 허용하지 않으면 일종의 HTTP 오류가 발생합니다. Google이 "서버 오류"가 많은 페이지에 어떻게 반응하는지 잘 모릅니다. 아주 열심히 시도해보십시오 :) – BlaM
필요가 없습니다 - 당신은 싼 정적 "여기를 볼 아무것도"페이지를 제공 할 수 있습니다. – MarkusQ
사실입니다. 적어도 전체 페이지를 제공하는 것보다 낫다. – BlaM