Czy posiadacz strony „przeprowadzającej konserwację” wpłynie na twoją pozycję SEO i rankingi stron? Jeśli tak, czy istnieje lepszy sposób, aby sobie z tym poradzić?

12

Powiedzmy, że teoretycznie prowadzisz sklep internetowy. Raz w roku mogą zdarzyć się sytuacje, w których trzeba będzie usunąć witrynę, aby zaktualizować informacje o produkcie lub przeprowadzić konserwację.

Co stałoby się z Twoimi rankingami stron? Zakładam, że przekierowalibyśmy każde trafienie strony na stronę konserwacji.

milemeow
źródło

Odpowiedzi:

12

Oto jak udało mi się to w przeszłości w / Apache (bez widocznej zmiany w rankingu):

1. Utwórz stronę serwisową ze zdefiniowanym otwarciem / zamknięciem dla okna serwisowego - spraw, aby okno serwisowe trwało około dwa razy dłużej, niż przewiduje się konserwacja, aby w razie potrzeby móc cofnąć

2. Przepisz regułę, aby skierować ruch na stronę konserwacji:

RewriteEngine on
RewriteCond %{REMOTE_ADDR} !^1\.2\.3\.4
RewriteCond %{REQUEST_URI} !maintenance\.html$
RewriteRule .* /maintenance.html [L,R=307]

(Gdzie 1\.2\.3\.4jest wyrażenie regularne dla twojego adresu IP)

3. Zakończ konserwację i testy, skomentuj dyrektywy przepisywania

307 Tymczasowe przekierowanie jest, aby zgodnie z moją najlepszą wiedzą, prawidłowe nagłówka odpowiedzi na sytuację technicznego, nigdy nie widziałem żadnych problemów z utrzymaniem trwające 1-3 godzin na umiarkowanie ruchliwych miejscach (tj 100-500 użytkowników / godzina).

Edytować:

Zgodnie z komentarzami Johna Muellera, powinieneś także skonfigurować swój serwer WWW, aby generował błąd 503 z ramką czasową Ponów po, aby wskazać, że pająki nie powinny buforować zawartości strony konserwacji.

W tym celu możesz postępować zgodnie z instrukcją AskApache 503 / Retry-After HowTo .

danlefree
źródło
Tak. 307 jest dokładnie tym, czego chcesz.
John Conde
3
Upewnij się również absolutnie, że strona konserwacji zwraca kod wyniku 503 HTTP. Bez 503 wyszukiwarki mogą założyć, że chcesz indeksować tę zawartość (co prawdopodobnie nie jest prawdą).
John Mueller
1
@John Mueller - Ach, masz rację - zapomniałem wspomnieć o <meta name="robots" content="noindex" />tagu na stronie konserwacji - doda to
danlefree
1
Prawie :) - 503 jest ważny, ponieważ roboty indeksujące w ogóle nie będą czytać zawartości strony, a zamiast tego spróbują później. Metatag noindex byłby niepoprawny, ponieważ w zasadzie powiedziałby wyszukiwarkom, aby usunęły zawartość z indeksu (spowodowałoby to usunięcie strony konserwacji i potencjalnie oryginalnego adresu URL z indeksu). Nie polecałbym używania noindex na stronie konserwacji.
John Mueller
1
@John_Mueller - Nie zauważyłem jednak tego w trakcie wykonywania konserwacji, aby być uczciwym, konserwacja rzadko trwała dłużej niż 30 minut, a strona nie generowała wystarczającej ilości nowych treści, aby zagwarantować ciągłe pająki, więc odłożę się do twojego doświadczenia.
danlefree