Jak radzić sobie ze zmianami w algorytmie Google'a
Google od niedawna wprowadza zmiany w algorytmie wyszukiwarki, od końca sierpnia wprowadza rankingu wyszukiwania Helpful Content Update. - Google chce karać tych, którzy piszą dla Google, a nie dla człowieka. Z założenia ukarane mają zostać te domeny, które publikują treści nieprzydatne - mówi Paweł Konopiński, specjalista ds. badań i rozwoju SEO w Grupie Tense.
Niedawno Google zapowiedział zmiany w algorytmie swojej wyszukiwarki. Chce wyżej pozycjonować linki do unikalnych i ważnych dla internautów treści, które mogą wnieść dodatkową wartość dla użytkowników poszukujących informacji na konkretne tematy. Na dalszych pozycjach w wyszukiwarce znajdą się z kolei treści stanowiące według Google clickbait.
- W komunikacyjnym skrócie Google chce karać tych, którzy piszą dla Google, a nie dla człowieka. Z założenia ukarane mają zostać te domeny, które publikują treści nieprzydatne - mówi Paweł Konopiński, specjalista ds. badań i rozwoju SEO w Grupie Tense.
Algorytm zaczął być wdrażany dla języka angielskiego 25 sierpnia, planowano jego wdrożenie na około dwa tygodnie, ale wciąż nie ma oficjalnej informacji o zakończeniu prac. - Choć spływają do nas informacje od zagranicznych specjalistów, że są już widoczne pierwsze efekty. Wpływ algorytmu na widoczność zgodnie z zapowiedziami o wpływie domenowym bywa spektakularny, co skutkuje utraceniem nawet 90 proc. ruchu w przypadku niektórych anglojęzycznych domen. Pikanterii dodaje fakt, że 12 września pojawiła się zapowiedź aktualizacji rdzenia algorytmu, która również ma trwać ok. dwóch tygodni - dodaje Konopiński.
Jak nie mieć obniżonego ratingu
Grupa Tense przygotowała zbiór wskazówek, jak stworzyć stronę, żeby nie miała obniżonego ratingu. - Strona dla człowieka, a nie bota. Kontent ma być ludzki, a optymalizacja SEO ma ułatwiać proces skanowania robotowi Google i pomóc w maszynowym rozumieniu strony, strona ma być szybka, responsywna, kontent przydatny, użyteczny i wiarygodny (wysoki EAT, szczególnie w tematach YMYL), zakaz publikacji fake newsów lub informacji niepotwierdzonych np. pisanie o premierze filmu, która nie została jeszcze oficjalnie ogłoszona, typ strony dopasowany do oczekiwań użytkownika, wszędzie tam, gdzie na siłę pozycjonowaliśmy inny typ podstrony niż wynikający z zapytania jest duże ryzyko spadku np. produkt w zapytaniu czysto informacyjnym – mówi Konopiński.
I przypomina, że zbieranie danych potrzebnych do analizy jakościowej serwisu (zapewne związane jest to z zachowaniem ludzi) potrzebuje czasu. Google dodatkowo wspomniało w komunikatach o wpływie sitewide, a co za tym idzie odzyskanie pozycji nie będzie możliwe w krótkim czasie i wymagać będzie tygodni lub nawet miesięcy.
- Próby matematycznej analizy algorytmów od dłuższego czasu nie przynoszą skutku, nic z nich nie wynika, zrezygnowali z tego nawet giganci tacy jak Senuto, czy Semrush, a wszelkie informacje sprowadzają się do ciągłego powielania dobrych praktyk. Algorytm jest zbyt zaawansowany, aby tego typu analiza dała sensowne wnioski, zbyt dużo czynników należałoby zweryfikować, tym bardziej że nie ma szans wskazać ich w prosty sposób np. Crawlerem SEO – podkreśla Konopiński.
- Światło mogą rzucać wytyczne dla raterów Google, których praca służy jako podwaliny do zmian w wyszukiwarce, jest to też materiał szkoleniowy algorytmów. Dokument został zaktualizowany pod koniec lipca bieżącego roku, najważniejsze co w nim zaktualizowano: Sekcję dot YMYL, wskazano aby skupić się na tematach, które wymagają wysokiego poziomu dokładności, aby zapobiec szkodom, sekcje low & lowest quality pages, aby podkreślić, że rodzaj i poziom EAT zależy od przeznaczenia strony oraz że strony niskiej jakości i szkodliwe mogą występować na każdym typie witryny – mówi.
Diagnostyka użyteczności stron
Konopiński radzi zadać sobie pytania, by przeprowadzić diagnostykę użyteczności strony. M.in. o współczynnik odrzuceń na stronie czy średni czas pobytu na niej. Warto też sprawdzić, czy ludzie przechodzą na dalsze podstrony, ile z nich jest wyświetlanych podczas jednej sesji (jeśli mniej niż 2-3, może to świadczyć o braku zainteresowania). Czy w artykułach znajduje się realna odpowiedź na zapytanie użytkownika, a nie spekulacje? Czy strona ma linki do innych tematycznie powiązanych źródeł?
Dołącz do dyskusji: Jak radzić sobie ze zmianami w algorytmie Google'a
Najlepiej stworzyć stronę zgodną ze standardami i nie oglądać się na gugla.