Podobnie jak niektóre inne strony internetowe, staram się zachować równowagę słów kluczowych w porównaniu do innych słów. Przeprowadziłem testy mojej (zoptymalizowanej) strony internetowej, a także strony konkurencyjnej (wypchanej słowami kluczowymi) za pomocą tego narzędzia SEO / analizatora słów kluczowych .
Jeszcze bardziej szalone jest to, że dokładna fraza, której szukają ludzie („ facet i czwarty ”), zawiera wyszukiwarki słów, które ignorują. Spójrz na wyniki .
i...
Jak widać, na stronie, która zajmuje wyższą pozycję, są dołączone możliwe wskaźniki spamu, których nie ma moja strona.
Dlaczego więc jedna witryna z wieloma wskaźnikami spamu może być wyżej niż strona bez wskaźników spamu? Czy Google faktycznie zaczyna teraz promować upychanie słów kluczowych wraz ze wszystkimi zmianami, jakie wprowadzają na swoich stronach?
Odpowiedzi:
To jest proste. Gęstość słów kluczowych jest mitem. Przynajmniej tak jest teraz.
Należy zauważyć, w jaki sposób są używane warunki, a nie ile razy są one używane. SEO lubią celowo mylić ten problem, abyś był od nich zależny i płacił za narzędzia i porady. PT Barnum mawiał, że co minutę rodzi się frajer . W SEO pokazem bocznym wydaje się być cała rada online. Co smutniejsze, SEO poruszają się wolniej niż PageRank, który jest znacznie wolniejszy niż trawa rosnąca na Saharze. Nie wychodzą łatwo ze starych koncepcji, nawet jeśli na początku byli w błędzie.
To jest mini-samouczek dotyczący ważenia warunków w witrynie. Nie jest to pełne wyjaśnienie jakiegokolwiek fragmentu, ale ilustracja. Warto wybrać się na wycieczkę, aby lepiej zrozumieć, jak działa SEO.
Przed ważeniem terminów i tematów witryny za pomocą semantyki ważenie słów kluczowych miało kilka wskaźników, w tym użycie i umieszczanie terminów w tagach, takich jak
title
tagi, tagi nagłówka,description
meta-tagi, a także bliskość siebie i ważne tagi oraz inne oznaczenia ważności itp. Jednym z elementów wskazujących na znaczenie było użycie terminów, synonimów, dopełniających się terminów oraz to, jak ważne były te terminy. Wynika to nieco z gęstości słowa kluczowego i pamiętaj, że do określenia tematu strony zastosowano współczynniki terminów, jednak nie były to wysokie lub niskie stosunki terminów, ale stosunek, który skutecznie usunąłby wspólne terminy, powtarzające się terminy, nienaturalne stosowanie terminów i terminów, które po prostu nie mają wartości z powodu braku użycia itp. Te współczynniki terminów były automatycznie oceniane na podstawie strony po stronie, a wyniki dopasowywano do obliczeń, które określają, czy wyniki mieszczą się w dziedzinie operacyjnej. Kiedy wszystko zostało powiedziane i zrobione, terminy określiły temat i zakres tematów za pomocą semantyki opisanej później. Ale gęstość nie miała żadnych ograniczeń co do rangi wyszukiwania per se ”, a raczej temat i pasujące zamiary wyszukiwania. Drugi efekt polega na dopasowaniu pod względem pewnej gęstości według zdarzenia, ponieważ te same terminy pasują do profilu określonego poprzez linki semantyczne i zostały użyte do określenia zamiaru wyszukiwania. Było to zgodne z modelem analizatora składni, który częściowo istnieje, ale nie jest całym modelem. Nigdy więcej.Semantyka jest obecnie podstawowym modelem, jednak ponieważ sieć opiera się na tradycyjnym modelu tekstowym, model parsera nie może zostać całkowicie odrzucony. Powód tego jest prosty. Nadal obowiązuje, ma sens i jest bardzo przydatny.
Semantyka może być opisana jako „parowanie relacyjne”, chociaż w przypadku bardziej złożonych modeli semantycznych tak naprawdę mówimy o „łańcuchach relacyjnych”. Nazywa się to linkami semantycznymi, a związek między linkami semantycznymi jest znany jako sieć semantyczna, która nie ma nic wspólnego z siecią, z wyjątkiem tego, że jedno jest przydatne dla drugiego. Dla mojej ilustracji, przestawię to na proste pary, chociaż semantyka dość szybko się komplikuje. Dla mojej ilustracji nadmiernie uproszczę rzeczy.
Parowanie relacyjne to proste pojęcie trojaczków; podmiot, orzeczenie i obiekt. Predykat może być dowolny, o ile reprezentuje podmiot i obiekt.
Przejdę do wczesnego modelu PageRank. Proszę, trzymaj się mnie. Dotyczy to.
Kiedy wymyślono Google, pojęcie rangi strony było dość prostą reprezentacją sieci zaufania wykorzystujących semantykę. Link jest tworzony z jednej strony na drugą. W tym przypadku:
Chociaż wiemy, że powyższa klauzula niekoniecznie musi być prawdziwa, był to wczesny model i nadal jest nieco prawdziwy, choć nie absolutnie prawdziwy. Wiemy, że examplea.com może nie mieć wiedzy o egzaminplec.com i dlatego nie może całkowicie ufać egzaminplec.com. Mimo to istnieje relacja, którą należy uwzględnić.
Wczesne użycie terminu PageRank było obliczane na stronie - strona po linku, ale dotyczyło całej witryny. Na przykładb.com, ile istnieje linków zaufania? PageRank był dość prostym obliczeniem linków do stron witryny. Ale były z tym oczywiste problemy. Można tworzyć linki, aby sztucznie zawyżać znaczenie strony. Obliczenia zawierały dość standardową szybkość rozpadu, która mogłaby to poprawić, jednak sama szybkość rozpadu spowodowała nowe problemy, ponieważ żadna szybkość rozpadu nie może w pełni uwzględnić rzeczywistej wartości, ponieważ jej naturalne nachylenie ma krzywą w obliczeniach.
Używając dalej modelu zaufania, domeny ważono na podstawie czynników wskazujących na zaufanie. Na przykład największym wskaźnikiem zaufania jest wiek witryny. Starszym stronom można ogólnie zaufać. Strony z konsekwentną rejestracją, spójnym adresem IP, rejestratorem jakości, siecią jakości (hostem), nie mają historii spamu, pornografii, phishingu itp. - wszystko wskazuje na zaufanie. Liczę ponad 50 współczynników zaufania do domeny, więc pominę je i nadal będę prostował.
Korzystając z innych obliczeń, można uzyskać pewien poziom zaufania, a nie tylko binarny, że jedna strona ufa drugiej . Tam, gdzie pierwszy przykład przekazał zaufanie, drugi przykład przekazuje wartość zaufania proporcjonalną do sposobu jej obliczania.
Teraz zrozum, że PageRank jest obliczany na podstawie strona po stronie, a TrustRank jest większością części SiteRank, w której linki, jakość linków, wartość linków odgrywają rolę, choć znacznie mniej ważna niż pierwotnie i znacznie mniejsza niż wynik zaufania witryny . Pamiętaj o tym.
Jak to się odnosi do słów kluczowych na stronie?
Wszystkie warunki dotyczące treści są ważone, jednak ważone są tylko niektóre warunki dotyczące tagów. Jednym z głównych przykładów jest
keywords
metatag. Wszyscy wiemy, że w tym tagu nie ma znaczenia dla haseł. W rzeczywistości jest to całkowicie ignorowane. Jednym nieporozumieniem jest to, żedescription
metatag nie ma znaczenia dla SEO. To nie jest prawda. W przypadku terminów w obrębie tego tagu jest waga, jednak jest ona stosunkowo niska. Metatag opisu ma wartość. Zrozumiesz dlaczego za chwilę.Stary model analizatora składni wciąż ma wartość. W ten sposób strona jest odczytywana od góry do dołu, a znaczniki i bloki treści są odczytywane i ważone przy użyciu wartości, które oceniają ważność według modelu od góry do dołu. Niektóre wskaźniki są statyczne. Na przykład,
title
znacznik będzie miał wyższy wskaźnik ważności niżh1
znacznik, który będzie wyższy niż jakikolwiek innyh2
itp.description
Meta-znacznik będzie miał dość wysoki wskaźnik ważności. Dlaczego? Ponieważ wciąż jest ważnym wskaźnikiem tego, o czym jest strona. Jednak terminy znajdujące się w tagu mają niewielką wagę. Odbywa się to, aby dopasowanie zamiaru wyszukiwania nadal pasowało dodescription
metatagu prawie tak łatwo, jaktitle
tag i anh1
tag, ale nie można nim manipulować zbyt mocno, aby zagrać w system. Należy pamiętać, że mogą obowiązywać warunki. Na przykład wyszukiwanie nie będzie pasować dodescription
metatagu bez dopasowania w innym miejscu przede wszystkimtitle
tagu lubh1
tagu lub w treści.Kontynuując model parsera, wyobraź sobie punkt na początku rzeczywistej treści. Bliskość jest miarą używaną na różne sposoby. Jednym z nich jest określenie, znacznik, blok treści itp. W odniesieniu do tego punktu na początku treści. Teraz pomyśl o znacznikach nagłówka jako wskazaniach podtematów i wyobraź sobie punkt na początku treści bezpośrednio po znaczniku nagłówka kończącym się następnym znacznikiem nagłówka. Znów mierzona jest bliskość. Odległość mierzona jest między wyrazami w akapicie, zestawami akapitów,
header
tagi itp. Miary te są obliczane jako waga terminów w sposobie ich użycia i ich pozornego znaczenia. Poza tym terminy, frazy, cytaty i rzeczywiście każda podobna część treści może być mierzona między stronami i witrynami przy użyciu nieco innego, ale wciąż podobnego modelu bliskości.Strony są powiązane za pomocą łączy zarówno między stronami, jak i odległości od strony głównej lub dowolnej innej strony, na której można określić chmurę relacji. Na przykład strona tematu w SEO może zawierać linki do kilku stron z podtematem SEO. Oznaczałoby to, że strona tematyczna dla SEO jest ważna, ponieważ łączy się z kilkoma podobnymi stronami tematycznymi i można określić chmurę relacji. Tak więc dla każdej strony z podtematami SEO bliskość byłaby liczbą linków między stroną z tematem SEO a stroną z podtematami SEO, a także liczbą linków ze strony głównej. W ten sposób można obliczyć ważność stron. Jak ważna jest strona tematyczna SEO? Jest to jeden link z linków nawigacyjnych na stronie głównej i rzeczywiście każda strona - bardzo ważna. Jednak, strony podtematu SEO nie mają linków z nawigacji i dlatego zyskują na znaczeniu z metryki strony tematu SEO. Jest to zgodne z modelem sieci zaufania PageRank Semantic Link Trust.
Wracając do pierwotnego modelu PageRank, możesz doceniać strony pod względem linków do nich, tak jak linki przekazują wartość w sieci WWW. Nazywa się to rzeźbieniem, chociaż nadmierne manipulowanie rzeźbieniem można określić i zignorować, aby było naturalne. Robiąc to, wskazujesz również na znaczenie terminów znalezionych na tych stronach. Tak więc każdy termin na dowolnej stronie jest ważony nie tylko w odniesieniu do tego, gdzie i jak są one używane na tej stronie, ale także pozorne znaczenie strony w tym, jak i gdzie ona istnieje w Twojej witrynie. Czy to zaczyna mieć sens?
W porządku. Dobrze i dobrze, ale w jaki sposób powiązane są terminy i jak pomaga w tym semantyka? Ponownie, utrzymując to bardzo proste.
Mam stronę o samochodach. Jesteś w Wielkiej Brytanii i masz witrynę o samochodach. Jest raczej oczywiste, że samochody i samochody to to samo słowo. Wyszukiwarki używają słownika, aby lepiej zrozumieć związki między słowami i tematami. Google wyróżnił się, tworząc wcześnie samouczący się słownik. Nie wejdę w to, ale nadal dostaniesz zdjęcie. Za pomocą semantyki:
W związku z tym Google może stwierdzić, że moja witryna i Twoja witryna dotyczą tego samego. Idąc o krok dalej.
Zakładając przez chwilę, że istnieją tylko te dwie strony, każde poszukiwanie ciemnoczerwonego samochodu może skutkować bordowym samochodem i ciemnoczerwonym samochodem, mimo że ciemnoczerwony samochód nie istnieje w Internecie.
Na początku SEO zalecano stosowanie synonimów i liczby mnogiej terminów. To było wtedy, gdy semantyka nie była używana lub tak silna. Dzisiaj widać, że nie jest to konieczne, ponieważ relacje między słowami a użyciem są przechowywane w bazie danych semantyki.
Używając tego samego modelu, ale posuwając się naprzód, jeśli napiszę genialny utwór, który jest cytowany na kilku innych stronach internetowych, semantyka może zauważyć to jako cytat i przypisać to z powrotem do mojej oryginalnej pracy, nadając mu znacznie większą wagę nawet bez linków do mojej strona w ogóle. W tym przypadku strona bez linków przychodzących (tylnych) może przewyższać stronę z dużą liczbą linków przychodzących (tylnych) po prostu z powodu cytowania. Cytowania są ważną częścią stosowania sieci semantycznej do sieci światowej. W rzeczywistości, podczas gdy SEO ścigały aluzyjną pozycję AuthorRank, nie było czegoś takiego. To była cała semantyka i dopasowywanie par danych, do których nie wejdę, ale powiem to na przykład przez może oznaczać, że nazwisko autora następuje bezpośrednio po nim, a zatem można zacytować autora, jeśli utwór został zacytowany.
Dlaczego przez to wszystko przeszedłem?
Aby łatwo zobaczyć, że mechanizm wyceny dowolnego terminu na stronie jest o wiele bardziej skomplikowany i nie jest już zależny od gęstości, co i tak nigdy nie było w pełni możliwe. W rzeczywistości gęstość nie jest już wcale efektem wtórnym. Powód tego jest prosty. Łatwo było grać i żadna szybkość zaniku nie mogła zrekompensować gry, tak jak w oryginalnym schemacie PageRank.
Tak jak w przypadku każdej witryny z wypchanymi słowami kluczowymi, jest tylko kwestią czasu, zanim semantyka je ujawni. Panda zaczynała jako okresowe zadanie, które zostało zaprojektowane specjalnie w celu pomiaru tej i innych podobnych rzeczy oraz dostosowania wskaźników, aby obniżyć ocenę skutków obrażającej witryny w SERP. Podczas gdy SiteRank zasadniczo pozostaje taki sam, każda strona znaleziona jako spam straci wynik w rankingu TrustRank, ponieważ doszło do naruszenia, co powoduje obniżenie oceny SiteRank. Uważam, że w tym mechanizmie występuje element dotkliwości, który pozwala na naprawienie drobnych przestępstw bez szkody. To pukanie utrzymuje się, nawet gdy problem zostanie rozwiązany. Wynika to z faktu, że naruszenie zostało zachowane w historii stron. Tak więc dzieje się tak, że umiejscowienie SERP spadnie, dopóki problem nie zostanie rozwiązany, w którym umiejscowienie SERP zacznie ponownie rosnąć, ale nigdy do poziomu, który niegdyś naruszała witryna ze względu na notację naruszenia. Im starsze staje się naruszenie, tym bardziej jest ono wybaczane, pozwalając, by poprzednie przestępstwo straciło z czasem negatywny skutek. Uwaga: chociaż mówi się, że Panda i inni biegają częściej, a ja będę dzisiaj procesem ciągłym, wciąż jednak potrzeba czasu, aby zbudować semantyczną mapę linków, aby dowiedzieć się, czy witryna jest przestępcą. Oznacza to, że witryna będzie miała problem z wypełnianiem przez pewien czas, ale ostatecznie zakończy się niepowodzeniem, gdy łącza semantyczne i metryki zostaną w pełni ustanowione. Jestem również pewien, że istnieje początkowy efekt wypychania, ale jest znacznie zmniejszony przy użyciu modelu semantycznego, a efekt jest raczej powierzchowny jako produkt uboczny. Dzieje się tak, ponieważ po odkryciu strony nie ma wiele do zrobienia, dopóki semantyczne mapy linków nie zostaną wypełnione. Google, zgodnie ze swoją mądrością, pozwala na odrobinę łaski, dzięki czemu strona może zająć wysoką pozycję pod względem haseł w ważnych sygnałach, zanim ustali swoje właściwe miejsce w SERP. Zakładając, że sygnały pasują do semantyki, ponowne obliczenie położenia SERP spowoduje względne przesunięcie w sposobie znalezienia strony. W przeciwnym razie, jeśli sygnały i semantyka się nie zgadzają, umieszczenie w SERP będzie oparte na semantyce i sposób znalezienia strony ulegnie zmianie. Dlatego ważne jest, aby wysyłać właściwe sygnały w pierwszej kolejności, używając słów kluczowych i tagów dokładnie i uczciwie. pozwala na odrobinę łaski, dzięki czemu strona może zająć wysoką pozycję pod względem haseł w ważnych sygnałach, zanim ustabilizuje się we właściwym miejscu w SERP. Zakładając, że sygnały pasują do semantyki, ponowne obliczenie położenia SERP spowoduje względne przesunięcie w sposobie znalezienia strony. W przeciwnym razie, jeśli sygnały i semantyka się nie zgadzają, umieszczenie w SERP będzie oparte na semantyce i sposób znalezienia strony ulegnie zmianie. Dlatego ważne jest, aby wysyłać właściwe sygnały w pierwszej kolejności, używając słów kluczowych i tagów dokładnie i uczciwie. pozwala na odrobinę łaski, dzięki czemu strona może zająć wysoką pozycję pod względem haseł w ważnych sygnałach, zanim ustabilizuje się we właściwym miejscu w SERP. Zakładając, że sygnały pasują do semantyki, ponowne obliczenie położenia SERP spowoduje względne przesunięcie w sposobie znalezienia strony. W przeciwnym razie, jeśli sygnały i semantyka się nie zgadzają, umieszczenie w SERP będzie oparte na semantyce i sposób znalezienia strony ulegnie zmianie. Dlatego ważne jest, aby wysyłać właściwe sygnały w pierwszej kolejności, używając słów kluczowych i tagów dokładnie i uczciwie. ponowne obliczenie miejsca SERP spowoduje względne przesunięcie w sposobie znalezienia strony. W przeciwnym razie, jeśli sygnały i semantyka się nie zgadzają, umieszczenie w SERP będzie oparte na semantyce i sposób znalezienia strony ulegnie zmianie. Dlatego ważne jest, aby wysyłać właściwe sygnały w pierwszej kolejności, używając słów kluczowych i tagów dokładnie i uczciwie. ponowne obliczenie miejsca SERP spowoduje względne przesunięcie w sposobie znalezienia strony. W przeciwnym razie, jeśli sygnały i semantyka się nie zgadzają, umieszczenie w SERP będzie oparte na semantyce i sposób znalezienia strony ulegnie zmianie. Dlatego ważne jest, aby wysyłać właściwe sygnały w pierwszej kolejności, używając słów kluczowych i tagów dokładnie i uczciwie.
[Aktualizacja]
Wytnąłem i wkleiłem tę odpowiedź do TextRazor https://www.textrazor.com/demo i oto przykład. W tabeli zobaczysz względną pozycję do tego urojonego punktu na początku analizy treści i innych analiz lingwistycznych, a także wyniki po prawej stronie. Możesz zrobić to samo, wycinając tekst tej odpowiedzi (powyżej tej aktualizacji) i wklejając go na stronę demonstracyjną i nieco się rozglądając. Zachęcam to. To da ci dobre wyobrażenie o tym, jak treść jest przetwarzana.
źródło