Masowy atak 404 z nieistniejącymi adresami URL. Jak temu zapobiec?

14

Problemem jest cały ładunek 404 błędów, zgłaszanych przez Google Webmaster Tools, ze stronami i zapytaniami, które nigdy tam nie były. Jednym z nich jest viewtopic.php, a także zauważyłem straszną liczbę prób sprawdzenia, czy strona jest witryną WordPress ( wp_admin) i logowania cPanel. Już blokuję TRACE, a serwer jest wyposażony w pewną ochronę przed skanowaniem / hakowaniem. Jednak to się nie kończy. Według Google Webmastera strona odsyłająca to totally.me.

Szukałem rozwiązania tego problemu, ponieważ z pewnością nie jest to dobre dla biednych rzeczywistych użytkowników, nie mówiąc już o obawach związanych z SEO.

Korzystam z czarnej czarnej listy Perishable Press ( tutaj ), standardowego programu blokującego odsyłacze (dla stron pornograficznych, ziołowych, kasynowych), a nawet niektórych programów do ochrony strony (blokowanie XSS, wstrzykiwanie SQL itp.). Serwer używa również innych środków, więc można by założyć, że strona jest bezpieczna (miejmy nadzieję), ale to się nie kończy.

Czy ktoś jeszcze ma ten sam problem, czy tylko ja to widzę? Czy to jest to, co myślę, to znaczy jakiś atak? Czy istnieje sposób, aby to naprawić lub lepiej zapobiec marnowaniu zasobów?

EDYCJA Nigdy nie użyłem pytania, aby podziękować za odpowiedzi i mam nadzieję, że da się to zrobić. Dziękuję wszystkim za wnikliwe odpowiedzi, które pomogły mi znaleźć wyjście z tego. Postępowałem zgodnie z sugestiami wszystkich i wdrożyłem:

  • plaster miodu
  • skrypt, który nasłuchuje podejrzanych adresów URL na stronie 404 i wysyła mi wiadomość e-mail z agentem użytkownika / ip, jednocześnie zwracając standardowy nagłówek 404
  • skrypt nagradzający legalnych użytkowników na tej samej niestandardowej stronie 404, na wypadek gdyby kliknęli jeden z tych adresów URL. W ciągu mniej niż 24 godzin udało mi się wyodrębnić niektóre podejrzane adresy IP, wszystkie wymienione w Spamhaus. Wszystkie dotychczas zarejestrowane adresy IP należą do firm hostingowych VPS ze spamem.

Jeszcze raz dziękuję, przyjąłbym wszystkie odpowiedzi, gdybym mógł.

tattvamasi
źródło
Kiedy Narzędzia Google dla webmasterów mówią, że strona odsyłająca to Ty, czy masz na myśli, że wskazują one, że strony w Twojej witrynie to strony odsyłające?
Stephen Ostermiller
przepraszam, mój błąd. Mam strony, które nigdy nie istniały w narzędziach dla webmasterów, a Google twierdzi, że ich nie znaleziono. Jednym z nich jest mysite.com/viewtopic.php?forget_the_value=1 i jest powiązany z total.me. Nawet kliknąłem ... Nic nie znalazłem.
tattvamasi
2
Często w dziennikach dostępu często pojawia się 404 znaków dla nieistniejących stron, sprawdzanie luk (np. WP admin) itp. - wystarczy upewnić się, że witryna jest bezpieczna. Jednak, aby zgłosić je GWT, to albo istnieją linki do tych stron, albo w Twojej domenie była poprzednia witryna (jak WordPress)?
MrWhite
nie. Zabawne jest to, że nigdy nie korzystałem z wordpress i nigdy nie korzystałem ze stron, które widziałem jako błędy 404. Niektóre błędy, które popełniłem (błędnie napisane adresy URL w linkach przychodzących, z jednej strony na drugą), ale plik viewtopic.php nigdy tam nie był. Ta strona działa od lat ...
tattvamasi
Kiedy mówię „linki do tych stron”, mam na myśli z innych stron . Dla każdego z 404 błędów (w GWT) powinieneś być w stanie przejść do szczegółów, aby pokazać, skąd jest „powiązany”.
MrWhite

Odpowiedzi:

17

Często widzę inną witrynę, która prowadzi do wielu stron w mojej witrynie, które nie istnieją. Nawet jeśli klikniesz tę stronę i nie widzisz linku:

  • Witryna mogła wcześniej mieć te linki
  • Witryna może maskować i udostępniać te linki tylko Googlebotowi, a nie odwiedzającym

To marnotrawstwo zasobów, ale nie pomyli Google i nie zaszkodzi twoim pozycjom. Oto, co John Mueller z Google (który pracuje nad Narzędziami dla webmasterów i mapami witryn) ma do powiedzenia o błędach 404 pojawiających się w narzędziach dla webmasterów :

WSPARCIE! MOJA STRONA MA 939 BŁĘDÓW WYCIĄGANIA !! 1

Widzę tego rodzaju pytania kilka razy w tygodniu; nie jesteś sam - wiele witryn ma błędy indeksowania.

  1. Błędy 404 w nieprawidłowych adresach URL w żaden sposób nie naruszają indeksowania ani rankingu witryny . Nie ma znaczenia, czy jest ich 100, czy 10 milionów, nie zaszkodzą one rankingu witryny. http://googlewebmastercentral.blogspot.ch/2011/05/do-404s-hurt-my-site.html
  2. W niektórych przypadkach błędy indeksowania mogą wynikać z uzasadnionego problemu strukturalnego w witrynie lub systemie CMS. Jak to powiedzieć Sprawdź dokładnie przyczynę błędu indeksowania. Jeśli w Twojej witrynie jest uszkodzony link, w statycznym kodzie HTML strony, zawsze warto to naprawić. (dzięki + Martino Mosna )
  3. A co z funky, które są „wyraźnie uszkodzone”? Gdy nasze algorytmy, takie jak Twoja witryna, mogą próbować znaleźć na niej więcej świetnych treści, na przykład próbując odkryć nowe adresy URL w JavaScript. Jeśli wypróbujemy te „adresy URL” i znajdziemy 404, to jest świetne i oczekiwane. Po prostu nie chcemy przegapić niczego ważnego (wstaw tutaj nadmiernie załączony mem Googlebota). http://support.google.com/webmasters/bin/answer.py?answer=1154698
  4. Nie musisz naprawiać błędów indeksowania w Narzędziach dla webmasterów. Funkcja „oznacz jako ustaloną” służy wyłącznie pomocą, jeśli chcesz śledzić swoje postępy; nic nie zmienia w naszym potoku wyszukiwania w sieci, więc możesz go zignorować, jeśli go nie potrzebujesz. http://support.google.com/webmasters/bin/answer.py?answer=2467403
  5. Błędy indeksowania wyświetlamy w Narzędziach dla webmasterów według priorytetów, które są oparte na kilku czynnikach. Jeśli pierwsza strona błędów indeksowania jest wyraźnie nieistotna, prawdopodobnie nie znajdziesz ważnych błędów indeksowania na kolejnych stronach. http://googlewebmastercentral.blogspot.ch/2012/03/crawl-errors-next-generation.html
  6. Nie ma potrzeby „naprawiania” błędów indeksowania w witrynie. Znalezienie 404 jest normalne i oczekuje się od zdrowej, dobrze skonfigurowanej strony internetowej. Jeśli masz równoważny nowy adres URL, dobrym pomysłem jest przekierowanie do niego. W przeciwnym razie nie powinieneś tworzyć fałszywych treści, nie powinieneś przekierowywać na swoją stronę główną, nie powinieneś robots.txt blokować tych adresów URL - wszystkie te rzeczy utrudniają nam rozpoznanie struktury Twojej witryny i prawidłowe jej przetwarzanie. Nazywamy te „miękkimi błędami 404”. http://support.google.com/webmasters/bin/answer.py?answer=181708
  7. Oczywiście - jeśli te błędy indeksowania pojawiają się w przypadku adresów URL, na których Ci zależy, być może adresów URL w pliku mapy witryny, należy natychmiast podjąć odpowiednie działania. Jeśli Googlebot nie może zaindeksować ważnych adresów URL, mogą zostać usunięte z naszych wyników wyszukiwania i użytkownicy mogą nie mieć do nich dostępu.
Stephen Ostermiller
źródło
dzięki, chociaż czytałem o osobie, która twierdzi, że atak 404 negatywnie wpłynął na jej pozycję strony (dyskusja na forum Google dla webmasterów, jak tylko ją odzyskam, opublikuję ją tutaj), a niektórzy twierdzą, że błędy 404 się liczą (Google nie mówią wszystkiego, twierdzą ci ludzie), więc to jedna z moich obaw, a drugie pytanie dotyczy tego, kto masowo tweetuje niewłaściwe linki do mojej witryny i dlaczego, skoro ma to nic nie robić dla SEO? Zaakceptowałem odpowiedź :)
tattvamasi
totally.me to prawdziwa strona. Istnieje wiele tysięcy śmieci, które usuwają i publikują linki w celu przyciągnięcia użytkowników. Jest to forma spamdeksowania. Czasami linki te istnieją tylko przez krótki czas. Przeważnie dzieje się tak, aby wpłynąć na mniejsze, mniej wyrafinowane wyszukiwarki, z większą liczbą regionalnych odbiorców najczęściej spotykanych w Rosji i Polsce, choć istnieje wiele innych. Takie linki często pochodzą z baz danych, które zostały przekazane z poprzednich prób zgarniania, dzięki czemu stare linki ponownie się pojawią, a nowe witryny będą pojawiać się okresowo. Nic nie możesz na to poradzić.
closetnoc
2
„Atak 404” na pewno NIE wpłynie na PageRank witryny ani jej ranking. (Jeśli twoi konkurenci spędzają czas na linkowaniu do stron 404, to mniej czasu spędzają na robieniu czegoś pożytecznego, więc bądź szczęśliwy :)). Witryny powinny mieć 404, to znak, że poprawnie skonfigurowałeś serwer , więc jeśli tak, to byłby dla nas dobry sygnał.
John Mueller
5

Istnieje mnóstwo skryptów optymistycznie skanujących losowe adresy IP w Internecie w celu znalezienia luk znanych z różnego rodzaju oprogramowania. W 99,99% przypadków nic nie znajduje (jak na Twojej stronie), a przez 0,01% czasu skrypt będzie pnnował maszynę i zrobi wszystko, co chce kontroler skryptu. Zazwyczaj skrypty te są uruchamiane przez anonimowe botnety z komputerów, które wcześniej były pwnd, a nie z rzeczywistej maszyny oryginalnego skryptu kiddie.

Co powinieneś zrobić?

  1. Upewnij się, że Twoja witryna nie jest zagrożona. Wymaga to stałej czujności.
  2. Jeśli powoduje to tak duże obciążenie, że wpływa to na normalną wydajność witryny, dodaj regułę blokowania opartą na protokole IP, aby uniknąć akceptowania połączeń z określonej witryny.
  3. Naucz się filtrować skany w poszukiwaniu CMD.EXE, cPanel lub phpMyAdmin lub mnóstwa innych luk podczas przeglądania dzienników serwera.

Wydaje się, że wierzysz, że każde 404 zwrócone z twojego serwera komukolwiek wpłynie na to, co Google myśli o Twojej stronie. To nie jest prawda. Tylko 404 zwrócone przez roboty Google i być może użytkownicy Chrome będą mieć wpływ na Twoją witrynę. Tak długo, jak wszystkie linki w Twojej witrynie są poprawnymi linkami i nie unieważniasz linków, które wcześniej udostępniłeś światu, nie zobaczysz żadnego wpływu. Boty skryptowe w żaden sposób nie rozmawiają z Google.

Jeśli zostaniesz zaatakowany w prawdziwy sposób, musisz zarejestrować się w jakiejś usłudze dostawcy łagodzenia DoS. Verisign, Neustar, CloudFlare i Prolexic to wszyscy dostawcy, którzy mają różne plany na różne rodzaje ataków - od prostego proxy internetowego (który może być nawet wolny od niektórych dostawców) po DNS oparty na filtrowaniu na żądanie, aż do pełnego BGP oparte na huśtawkach punktu obecności, które wysyłają cały ruch przez „szorowanie” centrów danych z regułami ograniczającymi ataki.

Ale z tego, co mówisz, wynika, że ​​po prostu widzisz normalne skrypty podatności, które każdy adres IP w Internecie zobaczy, jeśli nasłuchuje na porcie 80. Możesz dosłownie zainstalować nową maszynę, uruchomić pusty Apache, w ciągu kilku godzin zaczniesz widzieć te wiersze w dzienniku dostępu.

Jon Watte
źródło
wielkie dzięki - szukam dodatkowych filtrów, chociaż ochrona serwera i witryny jest tak wysoka, że ​​czasami legalny użytkownik już trafia na zabronioną stronę. W odpowiedzi na „Tylko 404 zwrócone przez roboty Google i być może użytkowników Chrome” muszę dodać, że znalazłem te linki w Narzędziach Google dla webmasterów, więc myślę, że mogę spokojnie założyć, że są one indeksowane ...
tattvamasi
Musisz dowiedzieć się, dlaczego Google dociera do tych nieistniejących stron. Na przykład, jeśli wpuścisz podmioty zewnętrzne do swoich dzienników dostępu, będzie to dla Google sposób na uzyskanie do nich dostępu. Nie należy wpuszczać do nich stron zewnętrznych. Ponadto bezpieczeństwo to znacznie więcej niż dobrze wymuszona poprawność, a nie heurystyczna „ochrona”, którą dodajesz na zewnątrz. Sceptycznie patrzę na „wtyczki bezpieczeństwa” innych firm. Gdy strona robi dokładnie to, co chcę i tylko to, jest (z definicji) bezpieczna.
Jon Watte
3

To prawdopodobnie nie jest atak, ale skan lub sonda.

W zależności od skanera / sondy może być łagodny, co oznacza, że ​​po prostu szuka problemów w pewnego rodzaju zdolności badawczej lub może mieć funkcję automatycznego ataku, jeśli znajdzie otwór.

Przeglądarki internetowe umieszczają prawidłowe informacje o polecających, ale inne programy mogą po prostu wymyślić dowolne polecające.

Strona odsyłająca jest po prostu informacją, która jest opcjonalnie dostarczana przez programy uzyskujące dostęp do Twojej witryny. Mogą to być dowolne ustawienia, takie jak totally.melub random.yu. Może to być nawet prawdziwa strona internetowa, którą właśnie wybrali.

Naprawdę nie możesz tego naprawić ani temu zapobiec. Jeśli spróbujesz zablokować każde żądanie tego typu, będziesz musiał utrzymywać bardzo dużą listę i nie warto.

Tak długo, jak Twój host nadąża za łatkami i zapobiega lukom, nie powinno to powodować żadnych faktycznych problemów.

Grax32
źródło
1
Jeśli 404 pojawiają się w Google WMT, to pochodzi z prawdziwego linku. totally.me to prawdziwa strona.
closetnoc
tak całkowicie.me to prawdziwa strona, a niektóre błędne linki z niej pochodzące były moją winą (literówki w przycisku tweet). Teraz jest ta masa prowadząca do viewtopic.php /? Jakiejkolwiek strony mojej witryny, której przysięgam, nigdy tam nie było. Mogę nawet zidentyfikować użytkownika, który to opublikował na Twitterze (na tej stronie nie ma już nic, ale zakładam, że było dużo). Popularne tagi również miały celowo zły adres URL. Martwi mnie jednak wrażenia użytkownika, wykorzystanie zasobów i fakt, że Google indeksuje fałszywe 404. Z drugiej strony nie mogę zbanować całego świata za brak strony. Nie jestem pewien, co robić.
tattvamasi
3

Rzeczywiście to brzmi jak szaleństwo botów. Trafiły nas również tysiące adresów IP na wielu hostach, najprawdopodobniej nieznanych OP witryny. Zanim zaoferuję kilka pomocnych rozwiązań, jedno pytanie, które mam, to:

P: Jak widzisz 404 z całej witryny w narzędziach Google dla webmasterów? GWT jest wynikiem wyników Googlebotów, a nie wynikami innych botów. Ponadto, te inne boty nie używają JS do analiz ... czy masz jakieś API związane z GWT, gdzie możesz zobaczyć statystyki swojego serwera? Jeśli nie, może to być przyczyną alarmu, ponieważ sam Googlebot znajduje błędy.

  • Jeśli są to TYLKO błędy googlebot, może to oznaczać, że ktoś umieścił linki do Twojej witryny na forach i inne obiekty, które uderzają w nią z powodu szkodliwych botów typu real-human-pc. Pomyśl o harverstor + sadzarce działającej na jakimś wyzyskiwanym serwerze, ustawiając mnóstwo celów dla przyszłych „umów spamowych” do portalu.

  • Jeśli naprawdę wiesz, że raportujesz pełne statystyki serwera, potrzebujesz narzędzi. Kilka aplikacji i usług może pomóc Ci to skrócić. Zakładając, że używasz serwera Linux:

1) Zacznij dodawać obrażające adresy IP do czarnej listy htaccess. Wygląda to jak „zaprzeczaj z 192.168.1.1” i 403 zabroni ich. Nie daj się ponieść emocjom, po prostu zablokuj Biggens. Sprawdź je na stronach w kroku 4), aby upewnić się, że nie są prawdziwymi usługodawcami internetowymi. Możesz skopiować ten plik i przykleić go na dowolnym koncie / aplikacji poza zaporą ogniową.

2) Zainstaluj APF. jego zarządzanie firewallem przez SSH w systemie Linux jest naprawdę łatwe. Gdy budujesz ht, dodaj je w APF, tak jak „apf -d 192.168.1.1”. Ht wydaje się zbędny z powodu APF, ale Ht jest przenośny.

3) Zainstaluj cPanel Hulk i upewnij się, że umieściłeś na białej liście adresy IP, aby nigdy nie blokował cię, jeśli zapomnisz przepustkę. Będzie to również miłe źródło adresów IP do dodania do ht + apf. Ma kilka inteligentnych rozwiązań, dzięki czemu może inteligentnie złagodzić brutalne próby logowania.

4) Połącz się ze stopforumspam.com i projecthoneypot.org i uruchom ich moduły. Oba pomagają w wielu odrzucać znane żądania i identyfikować + zgłaszać nowe bestie / sieci / chinaspam. Są też filtry e-mail, których możesz użyć, ale Gmail jest ich właścicielem, jeśli chodzi o filtr spamu.

5) Ponieważ boty nigdy się nie poddają, chroń swoje ścieżki administracyjne. Jeśli uruchomisz Wordpress, zmień ścieżkę administratora, dodaj captcha itp. Jeśli używasz SSH, zmień port logowania na nieużywany, a następnie wyłącz logowanie do katalogu głównego SSH. Utwórz „radmin”, z którego najpierw musisz się zalogować, a następnie su w celu rootowania.

  • Uwaga na temat captcha, jeśli uruchomisz własną captcha na stronie o dużej objętości i nie zaprzeczysz szaleństwu botowi na poziomie firewall / ht, mogą one hamować twoje cykle procesora z powodu generowania obrazu we wszystkich tych widżetach „antyspamowych”.

  • Uwaga na temat obciążenia, jeśli uruchamiasz CentOS na serwerze i masz zdolności VPS, CloudLinux jest fantastyczny do hartowania i kontroli obciążenia. Powiedzmy, że bot się przedostaje, CageFS ma na celu ograniczenie go do konta. Powiedzmy, że zdecydowali się na DDoS ... LVE jest po to, aby utrzymać obciążenie konta (witryny) ograniczone, aby nie zawiesić serwera. To dobry dodatek do akcentowania całego systemu „zarządzania podmiotami wprowadzającymi w błąd” :)

Tylko kilka myśli, mam nadzieję, że to ci pomoże

dhaupin
źródło
dzięki. Fakt, że widzę te błędy w Google Webmasterach, sprawia, że ​​myślę - jak słusznie zauważyłeś - że istnieje jakaś technika „NSEO” (umieszczenie setek linków do mojej witryny, których nigdy tam nie było). Strona jest bezpieczna, ponieważ tego rodzaju ataki nic nie robią. Nie jestem pewien, czy jestem bezpieczny dla SEO / doświadczenia użytkownika (jeśli Google zacznie indeksować nieistniejące strony, jestem w kontakcie. Błędy spowodowały już spadek pozycji strony, btw). Dzięki jeszcze raz.
tattvamasi
1
Gbot nie zaindeksuje 404 stron, więc naprawdę nie wpłynie to na Twoje SEO. Może buforować inne strony wysyłające ruch, ale nie twój. Jeśli stanie się to problemem dla prawdziwych ludzi, stwórz ogromny przekierowanie dla linków piętrowych, takich jak wp-admin, spraw, by wszyscy wylądowali w miłym piśmie dla ludzi o tym, dlaczego widzą tę stronę. Daj im kupon „przepraszam za 404”, jeśli jesteś ecom. Pamiętaj tylko, aby oznaczyć je wszystkie jako naprawione w GWT, aby zindeksować + buforować nowy lądownik. Opcjonalnie umieść na nim blackhole dla badbotów. Niezależnie od tego, bądź przygotowany na bezpośrednie trafienia, jeśli ten spam zawiera linki do Ciebie.
dhaupin
dzięki. Na razie staram się sprawdzić, czy miękki 404 w przypadku wygenerowanych błędów łagodzi nieco bałagan. Strona 404 jest już niestandardowa i zawiera przydatne linki powiązane (jeśli można je znaleźć). W przypadku mojej błędnej pisowni, rzucam przekierowanie 301 na właściwą stronę (myślę, że Google uważa je za miękkie 404). W przypadku tego śmieci /RK=0/RS=YkUQ9t4mR3PP_qt7IW8Y2L36PFo-/, /blog/wp-login.php/, /user/create_form/, /m/, /RK=0/RS=lznPhspsSDFHMiuIUDmmo01LA7w-/(etc ...) Ja zalogowaniu użytkownika i powrocie 404. nadzieję, że robię to dobrze
tattvamasi
1

Wyjaśnienie problemu

Przede wszystkim nie tylko ty masz ten problem - wszyscy są. To, co widziałeś, jest wynikiem zautomatyzowanych botów indeksujących każde IP i szukających typowych luk. Więc w zasadzie próbują znaleźć to, czego używasz, a jeśli użyjesz phpmyadmin, spróbują później użyć zestawu standardowych kombinacji haseł dla nazw użytkowników.

Jestem zaskoczony, że tego rodzaju rzeczy właśnie znalazłeś (być może właśnie uruchomiłeś swój serwer). Problem polega na tym, że nie można zablokować ich adresu IP na zawsze (najprawdopodobniej jest to zainfekowany komputer, a jego rzeczywisty użytkownik nie wie, co robi, istnieje również wiele takich adresów IP).

Efekt SEO

To nie ma żadnego efektu. Oznacza to po prostu, że ktoś próbował uzyskać dostęp do czegoś na twoim komputerze i nie było go tam

Czy to naprawdę ma znaczenie?

Jasne, ci ludzie próbują cię sondować pod kątem pewnych problemów. Ponadto marnują zasoby (serwer musi w jakiś sposób zareagować) i zanieczyszczają plik dziennika

Jak mam to naprawić?

Miałem ten sam problem, który próbowałem naprawić, a najlepszym narzędziem (prostota użycia w porównaniu z tym, co mogę z tym zrobić) udało mi się znaleźć, to fail2ban

Masz również szczęście, ponieważ już znalazłem sposób na rozwiązanie tego samego problemu, a nawet udokumentowałem go tutaj (więc nie musisz szukać sposobu instalacji i sposobu działania). Sprawdź moje pytanie na ServerFault . Ale proszę przeczytać trochę o fail2ban, aby wiedzieć, czy to działa.

Salvador Dali
źródło
1

Jak wielu już powiedziało, nie jest to atak, ale próba sondowania lub skanowania aplikacji witryny i / lub możliwości serwera. Najlepszym sposobem na odfiltrowanie całego tego niepotrzebnego ruchu i potencjalnie niebezpiecznych skanowań jest zaimplementowanie WAF (Web Application Firewall). Spowoduje to złapanie wszystkich różnych prób i oflagowanie ich, a dopiero potem wyśle ​​prawdziwy uzasadniony czysty ruch na twoje serwery i aplikację internetową.

Możesz używać opartej na chmurze usługi DNS WAF lub dedykowanych urządzeń. Osobiście używam Incapsula i F5 ASM do różnych witryn klienckich. Koszty są tak niskie, jak 500 USD miesięcznie i ogromnie pomagają. Daje to również lepszą ochronę Twoim klientom i zmniejsza zasoby na samych serwerach internetowych, co pozwoli Ci zaoszczędzić pieniądze i przyspieszyć, a ponadto urządzenia te zapewniają zgodność z PCI 6.6 i przeglądają raporty.

Mam nadzieję że to pomoże.

Tony-Caffe
źródło
Jeśli to była po prostu „próba sondowania”, to jak wyjaśnisz fakt, że te 404 były najwyraźniej zgłaszane w GWT?
MrWhite