Podczas wykonywania testu przyjaznego dla urządzeń mobilnych pojawia się błąd „Nie można załadować 23 stron zasobów”
https://search.google.com/test/mobile-friendly
Jednak komunikat o błędzie to (raczej nieprzyjazny) „Inny błąd”.
Gdy odwiedzam witrynę w Chrome przy użyciu Narzędzi programisty i ustawiam pasek narzędzi urządzenia na „Responsive”, działa to bezbłędnie, a kiedy wchodzę do Google Search Console i robię indeksowanie-> Pobierz jako Google, nie otrzymuję żadnych błędów.
google
googlebot-mobile
Scott C. Wilson
źródło
źródło
Odpowiedzi:
Miałem 6 przypadków „innych błędów” (4 obrazy i 2 arkusze stylów) i ciągłe naciskanie przycisku odświeżania nie pomogło. oto, co moim zdaniem w końcu to naprawiło:
Zmieniłem 2 obrazy ze ścieżek względnych na bezwzględne. to naprawiło oba z nich.
Usunąłem type = "text / css" z tagów head css, które wywołały 2 arkusze stylów. więc teraz mają tylko rel i href - w ten sposób
<link rel="stylesheet" href="https://www.example.com/styles.css">
. naprawiono pozostałe 4 błędy. (najwyraźniej pozostałe 2 obrazy zostały wywołane w arkuszach stylów).źródło
„Załaduj 23 zasoby strony”, co brzmi jak strona ma dużo zasobów do załadowania.
Tester mobilny nie lubi „ciężkich” stron.
Jest wiele sposobów naśladowania tego, jak to może być ładowanie prawdziwego urządzenia mobilnego, które może mieć niestabilne połączenie danych.
Spraw, aby strona była „lżejsza” - ładowanie mniej „crud”, a strona ładuje się szybciej, a zatem bardziej „przyjazna”.
źródło
index.html
.Zgodnie z tym wątkiem wsparcia „Innym błędem” może być to, że Googlebot osiągnął limit liczby żądań, które chce wysłać do serwera, aby zapobiec nadmiernemu obciążeniu witryny żądaniami.
Nie było ostatecznej odpowiedzi, ale wydaje się, że jest to odpowiedź. Jeśli to prawda, chciałbym, aby komunikat „błąd” został zmieniony na coś w rodzaju „Osiągnięto limit prędkości” ...
źródło
Sprawdź plik robots.txt, aby zobaczyć, czy nie blokuje GoogleBota przed wymaganiem do załadowania strony.
Na przykład możesz mieć skrypt CSS w nazwie,
<head>
który wywołuje URL niedozwolony w pliku robots.txtźródło
robots.txt
?robots.txt
, nic nie jest blokowane - więc to nie jest problem.