Dzisiaj natknąłem się na ten artykuł w moich wiadomościach SEO. Wydaje się to sugerować, że możesz używać Noindex:
dyrektyw oprócz standardowych Disallow:
dyrektyw w pliku robots.txt .
Disallow: /page-one.html
Noindex: /page-two.html
Wygląda na to, że uniemożliwiłoby to wyszukiwarkom indeksowanie strony pierwszej, a także indeksowanie strony drugiej.
Czy ta dyrektywa robots.txt jest obsługiwana przez Google i inne wyszukiwarki? Czy to działa? Czy to jest udokumentowane?
web-crawlers
robots.txt
googlebot
noindex
Stephen Ostermiller
źródło
źródło
disallow
Google nie odkrywa linków na stronach nadrzędnych i podrzędnych, jeśli takie istnieją. Chociażnoindex
po prostu zatrzymuje wyświetlanie strony, nie przerywa odkrywania, podczas gdy nie zezwala.nofollow
działa metatagi. Byłoby miło wiedzieć, czy dotyczy to również pliku robots.txt .<a rel="no-follow">
. Nie widzę powodu, dla którego byłby traktowany inaczej. Oczywiście nie jest to oficjalne i John Muller zaleca nawet, aby nie używać go w pliku robots.txt, ale poza jego tweetem nie udało mi się znaleźć wielu informacji na jego temat.Noindex
dyrektywy wrobots.txt
plikach jako błędu.Odpowiedzi:
Google nieoficjalnie wspierało
Noindex
dyrektywę w pliku robots.txt, jednak w 2019 r . Ogłosili, że dyrektywa przestanie działać.Oto co Google John Mueller mówi o
Noindex:
w pliku robots.txt :Zanim Google ogłosiło wycofanie tej funkcji, deepcrawl.com przeprowadził pewne testy tej funkcji i stwierdził, że:
Ponieważ Google zaprzestało korzystania z tej funkcji, nie należy jej już używać.
Zamiast tego użyj metatagów robotów, które są dobrze obsługiwane i udokumentowane, aby zapobiec indeksowaniu:
źródło