Właśnie zaktualizowałem mój plik robots.txt w nowej witrynie; Google Webmaster Tools zgłasza, że przeczytał mój plik robots.txt 10 minut przed moją ostatnią aktualizacją.
Czy mogę w jakiś sposób zachęcić Google do ponownego przeczytania mojego pliku robots.txt tak szybko, jak to możliwe?
AKTUALIZACJA: W obszarze Konfiguracja strony | Dostęp dla robota | Testuj plik robots.txt:
Dostęp do strony głównej pokazuje:
Googlebot jest zablokowany na http://my.example.com/
FYI: Plik robots.txt, który ostatnio czytano w Google, wygląda następująco:
User-agent: *
Allow: /<a page>
Allow: /<a folder>
Disallow: /
Czy postrzeliłem się w stopę, czy czy w końcu przeczytam: http: ///robots.txt (tak jak ostatnio czytał)?
Jakieś pomysły na to, co muszę zrobić?
Odpowiedzi:
Jeśli ktoś napotka ten problem, istnieje sposób, aby zmusić google-bot do ponownego pobrania pliku robots.txt.
Przejdź do Zdrowie -> Pobierz jako Google [1] i poproś o pobranie /robots.txt
Spowoduje to ponowne pobranie pliku, a Google ponownie go przeanalizuje.
[1] w poprzednim interfejsie Google był to „Diagnostyka -> Pobierz jako GoogleBot”.
źródło
Disallow: /
. Zamiast tego raporty pobierania „Odmowa przez robots.txt”: /.Wiem, że to jest bardzo stare, ale ... Jeśli przesłałeś niewłaściwy plik robots.txt (blokowanie wszystkich stron), możesz spróbować:
gdy Google próbuje odczytać mapę witryny xml, sprawdzi, czy plik robots.txt ponownie, co zmusi google do ponownego przeczytania pliku robots.txt.
źródło
DOBRZE. Oto co zrobiłem iw ciągu kilku godzin Google ponownie przeczytał moje pliki robots.txt.
Mamy 2 witryny na 1 witrynę, którą prowadzimy. Nazwijmy je stroną kanoniczną (www.mysite.com) i witryną bez domeny (mysite.com).
Mamy skonfigurowane nasze witryny, aby mysite.com zawsze zwracało przekierowanie 301 na stronę www.mysite.com.
Po skonfigurowaniu obu witryn w narzędziach Google dla webmasterów powiedziałem, że www.mysite.com jest witryną kanoniczną, wkrótce po przeczytaniu pliku robots.txt na stronie kanonicznej.
Naprawdę nie wiem dlaczego, ale tak się stało.
źródło
Skróć interwał skanowania Google o kilka dni.
Widziałem też przycisk do weryfikacji pliku robots.txt, może to zmusić go do Google, ale nie jestem pewien.
źródło