Co więcej wydaje się, że intencją jest "wyrównanie szans" pomiędzy witrynami do tego stopnia, by witryny które dotychczas posiadały ukryte atuty nie tylko je straciły, ale też aby zapłaciły za swoje "niesportowe zachowanie" jeśli nie zechcą z nich zrezygnować.
Czy czas już na Search Engine De-Optimization?
Wygląda na to że po epoce SEO nadchodzi czas na de-optymalizację stron www. Zanegowana została w zasadzie każda technika wcześniej wykorzystywane do wspierania pozycji witryny w wynikach wyszukiwania inaczej niż poprzez dostarczanie wysokiej jakości treści. Z jednej strony bardzo wzrosła zdolność do rozróżniania dobrych i słabych treści przez algorytmy indeksujące Google.
Z drugiej zaś niemal każda mała możliwość aby poprawić naszą pozycję względem konkurencji metodami SEO nie tylko została zneutralizowana,
ale też najczęściej odwróciła się przeciwko nam.
Jak mówiliśmy, intencją jest zapewne "zobiektywizowanie" wyników wyszukiwania, a działania z dziedziny SEO są coraz częściej traktowane jako nakierowane na zakłócanie mechanizmów indeksowania, a więc szkodliwe i dlatego właśnie są zwalczane.
Oznacza to, że jeśli w przeszłości już zatrudnialiśmy kogoś, aby poprawić pozycję witryny w wyszukiwarkach, to jest prawie pewne, że niektóre z podjętych działań przekroczyły próg tego, co Google uznaje za dopuszczalne. A to z kolei oznacza że pilnie potrzebujemy de-optymalizacji, aby wyłączyć potencjalnie niebezpieczne dla naszej witryny elementy które mogą uniemożliwić wykorzystanie jej prawdziwego potencjału.
Mówiąc po prostu, jeśli nie wyłączymy tych niebezpiecznych mechanizmów, jest bardzo prawdopodobne że pozycja naszej strony spadnie bardziej niż wynika to z jakości prezentowanych na naszych stronach treści.
Od czego zacząć?
Pierwszą rzeczą którą należy zrobić aby Google nie uznał jej za "nadmiernie zoptymalizowaną" jest przyjrzenie się treści na każdej stronie pod kątem ewentualnej zmiany zmianę elementów, które mogłyby być postrzegane jako wątpliwe. Istnieje powszechna zgoda, że następujące elementy mogą stanowić przeszkodę w uzyskaniu wysokiego rankingu:
- atrybuty title w tagach href - użycie w tagach title wartości składających się z "nienaturalnie brzmiących" sekwencji słów kluczowych może być traktowane przez Google jako nadużycie
- linki wewnętrzne - należy unikać zgodności fraz, szczególnie ze słowami kluczowymi, opisujących wzajemne linki wewnętrzne
- atrybuty alt w tagach img - w tagach img należy atrybuty alt także wypełniać w sposób naturalny, unikając prostych zestawów słów kluczowych, tekstów promocyjnych, sentencji itp.
- boldowanie słów kluczowych - obecnie Google nie traktuje odrębnie boldowanych elementów dokumentu, ale ich nadmierna ilość w połączeniu z boldowaniem słów kluczowych może być uznana za nadmierną optymalizację.
- tag keywords - właściwie nie używany, ale należy go unikać, bo także ma wpływ na nadmierną optymalizację.
tagi description - Google właściwie nie bierze ich pod uwagę obliczając ranking strony, ale używa ich np. do wyświetlania wyników wyszukwiania.
Oznacza to, iż "zależy mu" na jakości opisów, a szczególnie na to aby były adekwatne, nie przeładowane słowami kluczowymi a co więcej inne dla każdej podstrony, jako
że inaczej nie mają zastosowania. Jak zwykle nieodpowiednie ich użycie może prowadzić do obniżenia rankingów.
Linki
Od samego początku funkcjonowania wyszukiwarek ilość linków do strony była zasadniczym czynnikiem określania jej wartości. Obecnie jednak liczy się nie tylko ilość, ale też jakość linków. Google aktywnie i ostro "prześladuje" strony z linkami słabej jakości.
Co więcej wygląda na to, że sama ilość linków staje się nieco mniej znaczącym elementem oceny strony. Czas gdy zdobywaliśmy linki bez oglądania się na ich wartość bezpowrotnie minął. Co więcej, mimo że w praktyce nie zależy od nas, kto linkuje naszą stronę, to zgodnie z polityką Google, możemy zostać potraktowani jako naruszający zasady bo linki do naszej strony nie są "wystarczająco dobre".
Wydaje się, że głównymi czynnikami źle postrzeganymi przez Google są:
- niska jakość linkującej do nas strony
- brak powiązania pomiędzy tematyką strony linkującej i docelowej
- zbyt wysoki poziom optymalizacji SEO zawartości tytułu w hiperłączach linkujących do naszej strony
Podsumowując można powiedzieć, że obecnie dobry link potrafi być o kilka rzędów wielkości więcej warty od słabego, a co więcej słabe linki szczególnie te silnie zoptymalizowane (np. zawierające nienaturalne frazy i słowa kluczowe w tagach tytułowych) mogą prowadzić do znacznego spadku rankingu.
Najbardziej szkodliwym czynnikiem wydaje się być obecność takich właśnie linków.
Brak komentarzy:
Prześlij komentarz