3
봇에 대한 모든 액세스를 https : // 페이지에 차단하는 구문은 무엇입니까? SSL을 가지고 있지 않은 기존 사이트에서 모든 https : // 페이지에 대한 액세스를 차단하고 싶습니다.Robots.txt가 모든 https : // 페이지에 대한 액세스 차단
봇에 대한 모든 액세스를 https : // 페이지에 차단하는 구문은 무엇입니까? SSL을 가지고 있지 않은 기존 사이트에서 모든 https : // 페이지에 대한 액세스를 차단하고 싶습니다.Robots.txt가 모든 https : // 페이지에 대한 액세스 차단
로봇이 다른 프로토콜을 사용하거나/다른 요청을 사용하는 경우 동작하는지 알 수 없습니다. 다른 프로토콜에 대해서는 robots.txt
입니다. . 그러나 HTTPS를 통한 요청에 대해서는 다른 robots.txt
을 전달할 수 있습니다.
따라서 http://example.com/robots.txt
이 요청되면 보통 robots.txt
을 전달합니다. https://example.com/robots.txt
이 요청되면 robots.txt
을 전달하면 모든 것을 허용하지 않습니다.
어떻게하면 쉽게 할 수 있을까요? 나는 ISAPI 재 작성을 사용합니까 ?? 다른 robots.txt를 제공하기 위해 그것을 사용할 수 있습니까 ?? – leen3o
ISAPI 다시 쓰기 구문을 잘 모르겠습니다. 그러나 다음과 같이 시도하십시오 : RewriteCond % SERVER_PORT^433 $ RewriteRule ^/robots \ .txt $ /robots.txt.https [L] – Gumbo