Jak zatrzymać gromadzenie błędów Soft 404 dla strony „Brak wyników”?

9

Ostatnio zauważyłem, że mam rosnącą listę błędów Soft 404 w Narzędziach Google dla webmasterów. Wszystkie dotyczą dynamicznie generowanych stron wyników wyszukiwania, które zgłaszają „Nie znaleziono dopasowań”.

I nie rozumiem, co znaczy przez Google SOFT 404 i dlaczego są one zgłoszenie go do tych stron. Dodałem więc <meta name="robots" content="noindex">do tych stron.

Jednak Google wciąż zgłasza nowe błędy Soft 404 dla stron, które używają metatagu noindex .

Dlaczego Google zgłosić dowolny błąd na stronie Powiedziałem im nie do indeksu?

Problem polega na tym, że przy wszystkich tych niechcianych błędach nie widzę, czy istnieją jakieś rzeczywiste problemy, które należy naprawić.

Niektórzy powiedzieli, że strony te powinny zwrócić kod stanu 404. Ale to po prostu przenosi problem na kartę błędów 404. Poza tym Google zwraca kod stanu 200 za stronę braku wyników .

Nie chcę blokować dostępu za pomocą pliku robots.txt, ponieważ chcę, aby linki na tych stronach były śledzone i chcę, aby Google widział metatag noindex . Poza tym nie ma wzorca, którego mógłbym użyć do ich zablokowania.

Google znalazło te adresy URL w pierwszej kolejności, ponieważ treść istniała, ale od tego czasu została usunięta. Nie mogę zwrócić kodu statusu 410, ponieważ mój kod PHP nie ma możliwości poznania przyczyny, dla której nie znaleziono żadnych wyników.

Czy mogę coś zrobić, aby łatwiej dostrzec prawdziwe problemy?

toksalot
źródło
W jaki sposób Google znajduje te wyszukiwane adresy URL? Czy skądś je łączysz?
DisgruntledGoat
Zobacz kolejne pytanie: webmasters.stackexchange.com/q/55624/33777
toxalot
@DisgruntledGoat, widziałem to na wielu moich stronach internetowych. Googlebot ma możliwość wyszukiwania. Nie jestem do końca pewien, czy to był właśnie problem. Ale nigdy nie byłem w stanie znaleźć innego źródła ich dziwnych poszukiwań .
Alexis Wilke

Odpowiedzi:

7

Powinieneś uniemożliwić Google indeksowanie stron wyszukiwania w witrynie. Google w ogóle nie chce indeksować wyszukiwania w Twojej witrynie . Oto post na blogu Matt Cutts na temat tego problemu: Wyniki wyszukiwania w wynikach wyszukiwania Matt Cutts z 10 marca 2007 r . Google obecnie aktywnie karze witryny, które pozwalają na indeksowanie wyników wyszukiwania i wyświetlanie ich na serwerach SERP Google. Zezwalając Googlebotowi na indeksowanie stron wyników wyszukiwania, ryzykujesz cały ruch związany z odsyłaniem do Google. Jedną z ulubionych sztuczek recenzenta Google jest wyszukiwanie w witrynie haseł zawierających spam, takich jak „Viagra”. Gdy w wyniku tego zobaczą stronę do przeszukiwania (nawet jeśli jest napisane „nie znaleziono wyników dla Viagry”), nałożą ręczne sankcje na twoją stronę jako spam.

Powinieneś umieścić w swojej wyszukiwarce robots.txt. Upewnij się tylko, że Googlebot nadal może indeksować strony z treścią. Przestaniesz wtedy zgłaszać nowe miękkie błędy 404.


Duża liczba błędów 404 (nawet miękkie błędy 404) nie szkodzi rankingom witryny. Google zgłasza błędy na dowolnej stronie, którą może znaleźć i zaindeksować, niezależnie od tego, czy chcesz ją zaindeksować, czy też nie. Robią to, ponieważ raporty błędów są wyłącznie dla twojej korzyści i czują, że powinieneś być w pełni informowany.

Oto, co ma do powiedzenia John Mueller z Google :

  1. Błędy 404 w nieprawidłowych adresach URL w żaden sposób nie naruszają indeksowania ani rankingu witryny. Nie ma znaczenia, czy jest ich 100, czy 10 milionów, nie zaszkodzą one rankingu witryny. http://googlewebmastercentral.blogspot.ch/2011/05/do-404s-hurt-my-site.html
  2. W niektórych przypadkach błędy indeksowania mogą wynikać z uzasadnionego problemu strukturalnego w witrynie lub systemie CMS. Jak to powiedzieć Sprawdź dokładnie przyczynę błędu indeksowania. Jeśli w Twojej witrynie jest uszkodzony link, w statycznym kodzie HTML strony, zawsze warto to naprawić. (dzięki + Martino Mosna)
  3. A co z funky, które są „wyraźnie uszkodzone”? Gdy nasze algorytmy, takie jak Twoja witryna, mogą próbować znaleźć na niej więcej świetnych treści, na przykład próbując odkryć nowe adresy URL w JavaScript. Jeśli wypróbujemy te „adresy URL” i znajdziemy 404, to jest świetne i oczekiwane. Po prostu nie chcemy przegapić niczego ważnego (wstaw tutaj nadmiernie załączony mem Googlebota). http://support.google.com/webmasters/bin/answer.py?answer=1154698
  4. Nie musisz naprawiać błędów indeksowania w Narzędziach dla webmasterów. Funkcja „oznacz jako ustaloną” służy wyłącznie pomocą, jeśli chcesz śledzić swoje postępy; nic nie zmienia w naszym potoku wyszukiwania w sieci, więc możesz go zignorować, jeśli go nie potrzebujesz. http://support.google.com/webmasters/bin/answer.py?answer=2467403
  5. Błędy indeksowania wyświetlamy w Narzędziach dla webmasterów według priorytetów, które są oparte na kilku czynnikach. Jeśli pierwsza strona błędów indeksowania jest wyraźnie nieistotna, prawdopodobnie nie znajdziesz ważnych błędów indeksowania na kolejnych stronach. http://googlewebmastercentral.blogspot.ch/2012/03/crawl-errors-next-generation.html
  6. Nie ma potrzeby „naprawiania” błędów indeksowania w witrynie. Znalezienie 404 jest normalne i oczekuje się od zdrowej, dobrze skonfigurowanej strony internetowej. Jeśli masz równoważny nowy adres URL, dobrym pomysłem jest przekierowanie do niego. W przeciwnym razie nie powinieneś tworzyć fałszywych treści, nie powinieneś przekierowywać na swoją stronę główną, nie powinieneś robots.txt blokować tych adresów URL - wszystkie te rzeczy utrudniają nam rozpoznanie struktury Twojej witryny i prawidłowe jej przetwarzanie. Nazywamy te „miękkimi błędami 404”. http://support.google.com/webmasters/bin/answer.py?answer=181708
  7. Oczywiście - jeśli te błędy indeksowania pojawiają się w przypadku adresów URL, na których Ci zależy, być może adresów URL w pliku mapy witryny, należy natychmiast podjąć odpowiednie działania. Jeśli Googlebot nie może zaindeksować ważnych adresów URL, mogą zostać usunięte z naszych wyników wyszukiwania i użytkownicy mogą nie mieć do nich dostępu.
Stephen Ostermiller
źródło
Nie jest sztuczką powstrzymywanie indeksowania bezużytecznych stron wyszukiwania. Nie ma nic bardziej frustrującego niż wyszukiwanie terminu w Google i uzyskiwanie listy wyszukiwań z powrotem, a nie rzeczywiste wyniki. Dlatego Google karze to zachowanie. Kiedy myślisz o tym z punktu widzenia użytkownika, staje się oczywiste, że przejściowe wyniki wyszukiwania nie powinny być indeksowane, ale same strony z treścią. Dlatego powinieneś używać czegoś takiego jak mapa witryny dla indeksatorów i używać dynamicznych stron wyszukiwania jako skrótu tylko dla użytkowników.
JamesRyan
Dlaczego więc Google indeksuje wyniki Yellow Page i tym podobne?
toxalot
Nie sądzę, że Google chce zaindeksować większość witryn z żółtymi stronami, a przynajmniej nie wyróżniać ich w wynikach wyszukiwania. superpages.com ma swoją główną siedzibę naprzeciwko mnie. Kilka lat temu Google umieściło go w rankingu prawie na całym świecie. Nagle przeprowadzałem wywiady z ich twórcami, którzy szukają nowej pracy.
Stephen Ostermiller
2
@StephenOstermiller Czy masz odniesienie do tego, gdzie Google twierdzi, że karzą witryny, które pozwalają na indeksowanie stron wyszukiwania? Nic nie mogę na ten temat znaleźć.
alexp
1
Jeśli chodzi o Viagrę, to nie jest dla mnie dobre. Moja strona śledzi spory sądowe, a patenty związane z Viagrą były sporne. Jak zapobiegają tym fałszywym pozytywom?
Speedplane