Rozumiem, że rel="nofollow"
to bezpieczny sposób na linkowanie do zewnętrznych stron, ale dlaczego Wikipedia miałaby odmawiać linkowania do innych stron bez nofollow?
Czy to kwestia zaufania do społeczności?
Czy nie byłoby czegoś dobrego w SEO dla Wikipedii, gdyby użyli linków do zaufanych źródeł?
Odpowiedzi:
Jednym ze sposobów, w jakie wyszukiwarki określają to, co Google nazywa „PageRank”, jest liczba przychodzących linków, przy czym większą wagę przypisuje się stronom o wysokiej pozycji w rankingu stron (NB: użyję tego terminu jako ogólnego słowa oznaczającego, jak wyszukiwarka ustala priorytet wyświetlania wyników).
Doprowadziło to do tak zwanego „spamu linkowego”, w ramach którego utworzono wiele witryn w celu łączenia się z nimi w celu zwiększenia pozycji strony w linkowanej witrynie.
Ponieważ Wikipedia jest jedną z najwyżej ocenianych witryn w Internecie i pozwala każdemu tworzyć linki stamtąd, byłoby to idealne miejsce dla ludzi do tworzenia stron i linków wyłącznie w celu zwiększenia pozycji strony w rankingu.
Wymuszając tagi „nofollow”, informuje wyszukiwarki, że linki te są bezwartościowe, jeśli chodzi o rozważenie ich wartości w połączonej witrynie. Oznacza to, że bodziec do wypełnienia Wikipedii spamem linkowym został w zasadzie wyeliminowany.
źródło
Istnieje kilka powodów, dla których każda strona internetowa (w tym Wikipedia), która przyjmuje dziś treści użytkowników, umieszczałaby linki jako niepotrzebne.
Odsyłacze mogą stać się nieaktualne, a nawet mogą zwracać użytkownikowi strony błędów (na przykład: błąd 404). Strona internetowa zawierająca co najmniej jeden link do strony błędu nie jest dobrą stroną do indeksowania w Internecie.
Jak ktoś wspomniał, strony internetowe, które pozwalają użytkownikom na publikowanie treści, mogą potencjalnie manipulować rankingiem witryny i / lub innych stron poprzez reklamowanie linków do dowolnej strony internetowej (w zależności od tego, jakie filtry ma strona internetowa używana przez gościa). Jako konkretny przykład, jeśli użytkownik opublikuje setki linków do wulgarnych i / lub seksu, gdy strona nie ma z tym żadnego związku, może przynajmniej pomylić roboty wyszukiwarek z przekonaniem, że witryna ma więcej do ukrycia i że może „ Zaufaj, aby zapewnić wysokiej jakości wyniki, których użytkownicy oczekują.
Aby webmasterzy uchronili się przed oszukaniem robotów wyszukiwarek, będą (lub przynajmniej powinni) wykonać jedną z następujących czynności, publikując treści użytkowników w celu ich obejrzenia:
Zawiesią treść, gdy faktyczna osoba sprawdzi ją, aby sprawdzić, czy jest akceptowalna dla witryny, a następnie opublikuje ją ręcznie. Jest to najlepsza opcja, jednak jesteśmy na świecie, gdzie ludzie nie mają czasu, aby sprawdzić tysiące akapitów treści.
Pozwolą one od razu opublikować treść, ale sprawią, że każdy pojedynczy link nie będzie śledzony, przynajmniej do momentu ręcznej weryfikacji linków.
Będą używać automatycznych filtrów, aby sprawdzić, czy treść pasuje do niektórych słów lub wyrażeń, a jeśli tak (lub nie), to treść zostanie odrzucona.
W każdym razie, jeśli link nie wnosi żadnej wartości do żadnego użytkownika lub nie jest w żaden sposób powiązany ze stroną internetową, powinien zostać dodany jako „nie śledź” lub jeszcze lepiej, link nie powinien być w ogóle dostępny.
źródło