Czytam odpowiedzi na to pytanie, ale nadal pozostawiają moje pytanie otwarte: Czy Google cache robots.txt?
W Narzędziach Google dla webmasterów nie znalazłem sposobu na ponowne pobranie mojego pliku robots.txt .
Przez jakiś błąd mój plik robots.txt został zastąpiony przez:
User-agent: *
Disallow: /
A teraz cała moja treść została usunięta z wyników wyszukiwania Google.
Oczywiście jestem zainteresowany jak najszybszym poprawieniem tego. Zamieniłem już plik robots.txt , ale nie mogę znaleźć sposobu, aby Google zaktualizował wersję z pamięci podręcznej.
google
google-search-console
robots.txt
Der Hochstapler
źródło
źródło
Odpowiedzi:
Nie możesz zmusić ich do ponownego pobrania pliku robots.txt, kiedy chcesz. Google ponownie zaindeksuje je i wykorzysta nowe dane, ilekroć uzna to za odpowiednie dla Twojej witryny. Zwykle indeksują go regularnie, więc nie spodziewałbym się, że znalezienie zaktualizowanego pliku zajmie dużo czasu, a strony zostaną ponownie zaindeksowane i zindeksowane. Pamiętaj, że znalezienie nowego pliku robots.txt może zająć trochę czasu, zanim strony zostaną ponownie zaindeksowane, a jeszcze więcej czasu, zanim pojawią się ponownie w wynikach wyszukiwania Google.
źródło
Ten sam problem napotkałem, gdy
www.satyabrata.com
16 czerwca otworzyłem nową stronę internetową .Miałem
Disallow: /
w moim pliku robots.txt , dokładnie tak jak Oliver. W Narzędziach Google dla webmasterów pojawiła się również wiadomość ostrzegająca o zablokowanych adresach URL.Problem został rozwiązany wczoraj, 18 czerwca. Wykonałem następujące czynności. Nie jestem pewien, który krok zadziałał.
www.satyabrata.com
Komunikat ostrzegawczy o zablokowanych adresach URL zniknął, a nowy plik robots.txt jest wyświetlany do pobrania w Narzędziach Google dla webmasterów.
Obecnie mam tylko dwie strony zaindeksowane w Google, stronę główną i plik robots.txt . Mam 10 stron na stronie. Mam nadzieję, że reszta zostanie wkrótce zindeksowana.
źródło
Miałem problem polegający na tym, że obrazy zostały przeniesione na osobny serwer CNAME, aw folderze obrazów nałożono disallow. Sposób, w jaki to wyczyściłem, to pobranie pliku robots.txt z Narzędzi dla webmasterów jako strony Google jako narzędzia Google. Gdy tylko powiedział mi, że pobrał i przeczytał plik robots.txt, przesłałem go. To złamało trzymiesięczne embargo na skanowanie obrazów, gdy Google zgłosiło, że czyta plik robots.txt, ale nie zmieniło pająka, aby pasowało do reguł, które zostały zmienione, aby zezwolić na folder obrazów. W ciągu tygodnia obrazy były ponownie indeksowane.
Może być warte spróbowania. Wiadomo, że Google czasami blokuje się i nie może ponownie odczytać pliku.
źródło
Mam nadzieję, że ten link pomoże Ci zindeksować witryny: https://support.google.com/adsense/answer/10532?hl=pl .
Usuń
/
z pliku robots.txt .źródło
W moim przypadku problem polegał na tym, że korzystałem z bezpłatnej usługi DNS o nazwie afraid.org.
(moja darmowa domena zakończyła się w
.us.to
)Po przejściu na TLD zaczęło działać.
źródło