Rynek SEO od zawsze charakteryzował się dużą dynamiką zmian – to coś, do czego specjaliści działający w branży od lat zdążyli się przyzwyczaić. Jednak w ostatnim czasie tempo tych zmian wyraźnie przyspieszyło, a ich wpływ na strategie pozycjonowania jest większy niż kiedykolwiek.
Kwestia contentu AI w Google
Rynek SEO na przestrzeni ostatnich lat przeszedł pewnego rodzaju rewolucję w obszarze tworzenia contentu. Rozwój algorytmów językowych od OpenAI znacząco wpłynął na możliwości tworzenia contentu, czyli jednego z najważniejszych obszarów SEO.
Skokowy wzrost jakości takich treści (w stosunku do wcześniejszych modeli) oraz masowe wykorzystywanie tworzonych w ten sposób artykułów, w początkowym etapie dały ogromną przewagę. Agencje zaczęły tworzyć setki tys. znaków treści przy minimalnym nakładzie. My jako agencja podchodziliśmy do tego obszaru z pewnym dystansem. Oczywiste bowiem było, że stanie się to dla Google bardzo poważnym problemem. Już do tej pory jednym z głównych obszarów pracy agencji był crawl budżet i walka o to, aby zaindeksować możliwie dużo wartościowych treści. Nie było to łatwe zadanie, ponieważ pomimo ogromnych zasobów monopolisty, tworzonych było o wiele więcej treści, niż mogli oni skutecznie przetworzyć. Pod tym kątem wykorzystaliśmy chociażby Indexing API czy zbudowaliśmy infrastrukturę przyspieszającą ten proces.
Przy setkach tys. artykułów tworzonych przez niektóre portale, indeksowanie treści stało się jeszcze trudniejsze. Google musiał przetworzyć ogromną liczbę „nadprogramowych treści”, co też odbiło się na indeksowaniu normalnych stron.
Widząc ten problem, Google musiał znaleźć rozwiązanie problemu, chociaż ich postępowanie wskazywało na ignorowanie problemu. Początkowo, przy okazji Google helpful content update we wrześniu 2023, zmianie uległ zapis w wytycznych dla webmasterów. Z wytycznych usunięto zapis, że treści muszą być tworzone przez ludzi – przenosząc ciężar siły na zapis dotyczący tego, że muszą być użyteczne dla użytkowników.
To jeszcze bardziej skłoniło agencje do nadużywania tego rozwiązania. Nie minęło jednak kilka miesięcy i w obszarze stron bazujących na takich treściach rozpoczął się trend spadkowy. Równie dynamiczny, jak wcześniej wzrost.
Przykładem jest chociażby case study, które kiedyś poruszałem na spotkaniu, sugerując, że jest to bardzo ryzykowna strategia:
Jak możemy zaobserwować na powyższym zrzucie ekranu, widoczność domeny drastycznie spadła. Nie jest to widoczne na wykresie, ale poziom aktualny domeny jest zdecydowanie niższy, niż przed wzrostami. Pokazuje to, że domeny nie tylko utraciły uzyskaną wcześniej widoczność, ale także zostały ukarane przez wyszukiwarkę jeszcze większymi spadkami.
Podobny los spotkał niektóre sklepy internetowe, które generowały większość opisów produktów czy kategorii w ten sposób. W przypadku niektórych agencji ucierpiała spora grupa Klientów.
Z obecnej perspektywy optymalnym działaniem okazało się rozwiązanie pośrednie, czyli wykorzystywanie AI jako element wsparcia, a nie głównego źródła tworzenia treści.
Obecnie wiemy już także, że treści generowane przez popularne modele językowe mają elementy powtarzające się. Osoby pracujące codziennie z AI są już w stanie z dużą skutecznością wykrywać treści generowane metodą „kopiuj–wklej”. Z bardzo dużym prawdopodobieństwem Google opracował również mechanizmy wykrywania takich treści, gdyż nawet witryny afiliacyjne, tworzone w sposób zautomatyzowany, mocno ucierpiały. Witryny, gdzie treści tworzone były przez AI, ale przebudowywane przez copywriterów czy budowane w oparciu o bardziej skomplikowane prompty (np. generując oddzielnie akapity i je przerabiając) bardzo dobrze budują widoczność. Bardzo możliwe, że tak już zostanie, ponieważ ocena takich treści jest zdecydowanie bardziej skomplikowana dla algorytmów.
Tutaj warto wspomnieć również o fakcie, że klasyczne odpytanie wyszukiwarki kosztuje 10 x mniej prądu, niż odpytanie AI. Przynajmniej tak wskazuje Electric Power Research Institute.
Można założyć, że analiza treści pod kątem tego, czy jest ona stworzona przez AI, będzie również bardzo kosztowna pod kątem zasobów. Co ponownie skłania mnie w kierunku „odsiewania” tych najbardziej oczywistych przypadków generowania treści. W szczególności w połączeniu z niskim autorytetem domeny oraz ich dużą liczbą.
Kolejną ciekawostką jest fakt, że jeden z kluczowych pracowników Google w zakresie obowiązków dopisał sobie punkt o rozwiązywaniu problemu treści generowanych przez AI. To dodatkowo potwierdza, że coraz większą uwagę przykłada do tego aspektu:
Częstotliwość aktualizacji algorytmów
Kolejnym, ogromnym wyzwaniem pod kątem realizacji strategii, jest inwazyjność algorytmów wyszukiwarki. Doskonale obrazuje to poniższy zrzut ekranu:
Sumarycznie w 2024 mieliśmy prawie 140 dni, gdzie Google był w trakcie aktualizacji algorytmu lub rozwiązywania problemów technicznych. Co ciekawe, pod tym kątem wcześniejsza lata były jeszcze bardziej intensywne. Przykładowo, w 2023 roku było to 180 dni, a w 2022 około 177 dni.
Co ciekawe, to właśnie 2024 był o wiele bardziej intensywny pod kątem wpływu tych zmian na wyniki wyszukiwania. Oczywiście, każda aktualizacja, to szansa na wzrost pozycji, ale również ryzyko utraty widoczności. Z naszej perspektywy aktualizacje te nie wpłynęły w większym stopniu na pozycjonowanych przez nas Klientów. Chociaż w przypadku części projektów widoczne były zmiany trendów.
Podczas aktualizacji, z mojej perspektywy istotny jest jeszcze jeden aspekt. Podczas przeliczania zmian, a także na około tydzień przed ich oficjalnym rozpoczęciem, widoczne jest znaczne spowolnienie indeksowania nowych treści. Wpływa to na same strony, ale również na czas reakcji działań prowadzonych w obszarze link buildingu.
Dodatkowo musimy zwrócić również uwagę na fakt, że w SEO występuje pewnego rodzaju „efekt motyla”. Dla uproszczenia posłużę się tutaj przykładem grafu na dystrybucję PageRank:
Strony linkują wzajemnie do siebie, budując pewną siatkę połączeń. Jest to stosunkowo proste, ale komplikuje się jeżeli uwzględnimy aspekty indeksowania oraz wyindeksowywania poszczególnych linków. Ten proces zachodzi cały czas w wyszukiwarce, ale w przypadku aktualizacji jest o wiele bardziej intensywny. Modyfikacja „preferowanych” parametrów wyszukiwarki może spowodować, że duża liczba linków zostanie zaindeksowanych lub usuniętych z indeksu. Dzieje się tak dlatego, że mogły one wcześniej być ignorowane, gdyż nie spełniały pewnych kryteriów. Po zmianie algorytmu wyszukiwarki zaczęły być np. zliczane.
Jeżeli weźmiemy pod uwagę, że np. zaindeksowany zostanie link oznaczony jako n5, to wpłynie on bezpośrednio na n26 oraz n4. Pośrednio jednak wzmacniając n26 oraz n4 wpłynie również n9 i n29. Rozpoczynając w pewnym sensie lawinę zdarzeń, którą można myślę nazwać wspomnianym „efektem motyla”. Uwzględniając hipotetyczną sytuację, że np. dodatkowa „moc SEO” doprowadzona do n9 spowoduje, że przekroczony zostanie minimalny PageRank do zindeksowania, rozpocznie się jeszcze silniejsza reakcja.
Co jeszcze ciekawsze, część bardzo mocnych linków może być niezaindeksowana z innych powodów np. problemy techniczne strony, na której zostały opublikowane.
Złożoność tego zagadnienia oraz uwzględnienie faktu, że część witryn może mieć np. nałożone filtry, jest o tyle ciekawa i płynna jednocześnie, że realizowanie jakichkolwiek testów bezpośrednio w klasycznych wynikach wyszukiwania jest praktycznie nierealna. Zwłaszcza jeżeli uwzględnimy fakt, że obok dystrybucji zewnętrznej page rank, musimy również uwzględnić wewnętrzną dystrybucję. Każda zmiana w obrębie menu, dodanie nowego wpisu czy dodatkowe linkowanie z artykułów do innych publikacji, wymaga ponownego przeliczenia danych.
Zmiana podejścia w kontekście tematyczności
Kolejna zmiana podejścia wyszukiwarki dotyczy tematyczności (klastrów tematycznych) czy nadużywania autorytetu domeny.
W ciągu ostatniego roku mieliśmy okazję obserwować ciekawe historie związane z dużymi witrynami. Takimi, które jeszcze kilka lat temu można byłoby sklasyfikować jako „nie do ruszenia”. Myślę, że warto jest tutaj podać przykład forbes.com:
Według estymacji Ahrefs stracili oni kilkadziesiąt milionów ruchu miesięcznego. Główną przyczyną było tutaj nadużywanie reputacji domeny. W dużym uproszczeniu Forbes w ramach serwisu monetyzował treści związane z kuponami rabatowymi itp. Była to doskonała forma monetyzacji, ale treści odbiegające od core contentu spowodowały nałożenie kary przez wyszukiwarkę. Oczywiście nie wiemy, czy to jedyna przyczyna, czy nawet główna przyczyna, ale tak duże spadki są zaskakujące.
Innym przykładem, którym żyła branża, jest blog hubspot.
Mamy tutaj do czynienia z utratą większości roku. Tutaj przyczyna spadków jest zdecydowanie trudniejsza do określenia. Pojawią się różne hipotezy, takie jak chociażby wpisy odbiegające od głównej tematyczności czy duża liczba linków wychodzących. Są również hipotezy, że duża część treści mogła być tworzona przez AI. Najciekawsze jest jednak to, że Hubspot wielokrotnie przedstawiany był jako przykład wzorowo prowadzonej strategii link buildingu.
Na Linkedin pojawił się również komentarz byłej pracownicy zespołu SEO Hubspot. Pokazuje on bardzo dobrze, jak skomplikowany i czasochłonny jest proces dostosowywania się do zmian zachodzących w wyszukiwarce Google.
Z mojej perspektywy kluczowy jest następujący fragment:
„What I do know is this: HubSpot has been actively working on this long before these traffic declines became more publicly known.”
Pełna wypowiedź:
W tym przypadku również mieliśmy do czynienia z bardzo dobrym zespołem SEO. Dużym budżetem marketingowym, ale mimo tego nie udało uniknąć się spadków.
Rosnące budżety w link buildingu
Można przyjąć, że w SEO istotne są 3 kluczowe obszary. Optymalizacja techniczna, treści oraz link building. Obszar techniczny całkiem dobrze zagospodarowany jest już w przypadku wielu witryn. Oczywiście, zawsze można znaleźć elementy do poprawy, ale kluczowe aspekty w większości przypadków są rozwiązane poprawnie. Trudno jest więc zbudować kluczową przewagę w tej materii. Analogicznie w przypadku contentu – większość witryn ma już stworzone opisy dla kluczowych podstron. Różni się długość, nasycenie słowami kluczowymi czy umiejscowienie contentu. Przewaga konkurencyjna możliwa do zbudowania w tym obszarze jest jednak bardzo ograniczona.
Kluczowy jest więc obszar link buildingu, gdyż nie ma on „sufitu”. Możliwości wzmacniania profilu linkowego bezpośrednio czy nawet pośrednio (linkując do linków) są praktycznie nieograniczone. Jest to więc główny obszar walki witryn.
Obecnie na rynku głównym źródłem pozyskiwania linków są publikacje sponsorowane oraz w przypadku agencji SEO – linki z własnych stron wsparcia. Zapewne właściciele platform, takich jak Whitepress czy Linkhouse dysponują lepszymi danymi, ale szacuję, że średni koszt zakupu pojedynczego linka to kilkaset zł. Według prezentacji z SEO Festiwalu 2024 średnia cena linku zakupionego na Whitepress to 610 zł. Jest to bardzo interesujące, zwłaszcza w kontekście budżetów SEO, z jakimi pracują agencje.
Osobiście zgadzam się jednak, że w przypadku publicznych źródeł zakupu linków warto zdecydować się na te nieco droższe. W ich przypadku jest bowiem mniejsze prawdopodobieństwo, że domena będzie „oflagowana” negatywnie. Innymi słowy, link z takiej domeny może być ignorowany przez wyszukiwarkę czy nawet szkodzić. Problemem jest jednak fakt, że jako specjaliści nie wiemy, które linki szkodzą.
Stosunkowo niedawno na grupach branżowych pojawiła się informacja od jednego ze specjalistów, że otrzymał on bardzo dużą liczbę powiadomień o nadużywaniu reputacji w Google. Były to strony, na których dochodziło do sprzedaży linków (raczej masowej):
Takie powiadomienia dotyczyły nie tylko rynku polskiego, ale podobne informacje pojawiały się również na zagranicznych grupach.
W kontekście działań związanych z link buildingiem myślę, że warto wspomnieć o budżetach na ten obszar. Ostatnie dane z tego zakresu udało mi się znaleźć na blogu Linkhouse:
https://linkhouse.pl/artykul/link-building-w-polsce-2022-wyniki-badania/
Według zawartych w nim danych, średni budżet na sam obszar link buildingu to 2807 zł:
Warto tutaj zwrócić również uwagę na skalę przyrostu budżetów, gdyż w 2022 roku budżet ten wynosił niecałe 1900 zł. Jest to ogromna dynamika, która z naszej perspektywy utrzymywała się również w kolejnych latach.
Warto mieć to na uwadze decydując się na realizację strategii SEO. W obszarze link buildingu jest to pewnego rodzaju forma wyścigu. Zarówno w obszarze jakości, jak i budżetów. Inwestycje w pozyskiwanie linków rosną, a to z każdym miesiącem buduje coraz większy dług wśród firm bez odpowiedniej strategii.
Wymienione tutaj aspekty stanowią zaledwie małą część wyzwań, z którymi muszą mierzyć się agencje SEO. Zarówno w obszarze strategii, jak i nawet zbierania danych. Można tutaj przytoczyć chociażby kwestię wyświetlania wyników wyszukiwania. Miesiąc temu wyszukiwarka Google zaczęła wymagać włączenia JS do pobierania danych, co spowodowało konieczność przebudowy funkcjonowania niemal wszystkich platform do monitorowania pozycji. To pozornie mało istotny element, ale pokazuje, że branża SEO wymaga adaptacji w wielu obszarach.