Moja baza kodu jest podzielony między kilku środowiskach (na żywo, inscenizacja, odchylenie) i subdomen ( staging.example
, dev.example
etc.) i tylko dwa powinny być dopuszczone do przeszukania (tj. www.example
A example
). Zwykle modyfikowałbym /robots.txt
i dodawał Disallow: /
, ale z powodu wspólnej bazy kodu nie mogę modyfikować /robots.txt
bez wpływu na wszystkie (pod) domeny.
Wszelkie pomysły, jak to zrobić?
sub.example.com/robots.txt
, więc musisz zrobić coś, aby uzyskać inną odpowiedź w zależności od subdomeny. Nie musisz używać mod_rewrite, ale jest to technika, którą widziałem kilka razy. Jeślirobots.txt
jest generowany dynamicznie, możesz zmienić odpowiedź w kodzie serwera (np. PHP).robots.txt
może być zapobieganie indeksowaniu zamiast przeszukiwania poprzez wysyłanieX-Robots-Tag: noindex
nagłówka odpowiedzi HTTP, gdy dostęp do takich subdomen jest możliwy (można to również zrobić w .htaccess). Chociaż myślę, że lepiej zapobiegać indeksowaniu. (?)robots.txt
działa tylko wtedy, gdy jest obecny w katalogu głównym.Musisz przesłać osobny
robots.txt
dla każdej witryny subdomeny, z której można uzyskać dostęphttp://subdomain.example.com/robots.txt
.Dodaj poniższy kod do
robots.txt
Innym sposobem jest wstawienie
<META>
tagu Robots na wszystkich stronach.źródło
/robots.txt
i dodawałDisallow: /
, ale ze względu na wspólną bazę kodu nie mogę modyfikować/robots.txt
bez wpływu na wszystkie (pod) domeny”.Usuwałbym metatag ze strony HTML i dynamicznie budowałem go w zależności od subdomeny. np. używamy dev subdomeny. dla rozwoju. Więc w przypadku pageload mamy to:
źródło