Mam dość dużą starą witrynę z dosłownie tysiącami plików PDF, które czasem stanowią dane w bazie danych, ale często są tylko linkami na stronie i są przechowywane w prawie każdym katalogu na stronie.
Napisałem przeszukiwacz php, aby śledził wszystkie linki w mojej witrynie, a następnie porównuję to ze zrzutem struktury katalogów, ale czy jest coś łatwiejszego?
site-maintenance
web-crawlers
dead-links
MrChrister
źródło
źródło
Odpowiedzi:
Użyłem Xenu's Link Sleuth . Działa całkiem nieźle, pamiętaj tylko, aby sam nie DOS!
źródło
Jeśli korzystasz z systemu Windows 7 najlepszym narzędziem jest SEO Toolkit IIS7 1.0. Jest bezpłatny i można go pobrać za darmo.
Narzędzie skanuje każdą witrynę i informuje, gdzie znajdują się wszystkie martwe linki, jakie strony długo się ładują, które strony mają brakujące tytuły, duplikaty tytułów, to samo dla słów kluczowych i opisów oraz jakie strony mają uszkodzony HTML.
źródło
Wypróbuj narzędzie do sprawdzania łączy W3C Link Checker . Możesz użyć go online lub zainstalować lokalnie
źródło
Jestem wielkim fanem linklint do sprawdzania linków w dużych statycznych witrynach, jeśli masz wokół siebie linię poleceń unix (korzystałem z Linuksa, MacOS i FreeBSD). Zobacz instrukcje instalacji na ich stronie. Po zainstalowaniu tworzę plik o nazwie
check.ll
i wykonuję:Oto jak wygląda mój plik check.ll
To indeksuje
www.example.com
i generuje pliki HTML z odsyłaczami do raportów o tym, co jest zepsute, brakujące itp.źródło
Istnieje kilka produktów firmy Microsys , w szczególności ich generator map witryn A1 i analizator witryn A1, które będą indeksować Twoją witrynę i zgłaszać wszystko, co możesz sobie wyobrazić.
Obejmuje to uszkodzone linki, ale także widok tabeli wszystkich stron, dzięki czemu można porównać takie same elementy, jak tagi <title> i meta opisu, linki nofollow, meta noindex na stronach internetowych i wiele chorób, które wymagają jedynie uważnego spojrzenia i szybka ręka do naprawienia.
źródło
Link Examiner jest naprawdę dobrym darmowym oprogramowaniem dla twoich potrzeb.
źródło