Mam kilka dynamicznie generowanych adresów URL.
Czy mogę użyć wyrażenia regularnego, aby zablokować te adresy URL w pliku robots.txt?
robots.txt
regular-expression
Sudheera Njs
źródło
źródło
Odpowiedzi:
Wyrażenia regularne nie są poprawne w pliku robots.txt, ale Google, Bing i niektóre inne boty rozpoznają pewne dopasowanie wzorca.
Powiedz, że jeśli chcesz zablokować wszystkie adresy URL, które mają
example
dowolne miejsca w adresie URL, możesz użyć wpisu z symbolem wieloznacznym *Możesz także użyć znaku dolara $, aby określić, że adresy URL muszą kończyć się w ten sposób. Więc jeśli chcesz zablokować wszystkie adresy URL, które kończą się
example
, ale nie adresy URL, które mająexample
inne adresy URL, możesz użyć:Więcej informacji dogłębne dla Google można znaleźć tutaj: Robots.txt Specyfikacje , Bing tutaj: Jak utworzyć plik robots.txt i jest interaktywny przewodnik na Moz tutaj
źródło