Kwestia estymacji przy zlecaniu usługi pozycjonowania jest częstym przedmiotem „sporu” między potencjalnym Klientem a agencją SEO. Z jednej strony Klient ma prawo oczekiwać oszacowania, jakie efekty agencja będzie w stanie osiągnąć i w jakim czasie. Z drugiej strony, mało kto zdaje sobie sprawę, jak złożony jest to proces. Opracowanie wiarygodnej estymacji wymaga najczęściej kilkadziesiąt roboczogodzin. Co więcej, nawet taka estymacja nie gwarantuje spełnienia założeń w tak zmiennym środowisku, jakim jest Google.
Z tego powodu wiele estymacji agencji SEO odpowiada raczej na pytanie: „Jakie liczby podać, aby potencjalny Klient podpisał umowę?” niż: „Co realnie jesteśmy w stanie osiągnąć przy konkretnych założeniach?”.
Przykłady problemów z estymowaniem efektów SEO
Estymowanie efektów w SEO często prowadzi do problemów z komunikacją między agencją a klientem, ponieważ nie uwzględnia dynamicznego charakteru tej dziedziny. Aby lepiej zrozumieć te trudności, warto przytoczyć konkretne przykłady:
Przykład 1: Aktualizacja algorytmów Google
W 2021 roku Google wprowadził aktualizację „Core Web Vitals”, która skupiła się na poprawie doświadczeń użytkowników (UX) i szybkości ładowania stron. Przed tą zmianą wiele stron internetowych opierało swoje wyniki SEO na treściach i linkach zwrotnych, zaniedbując techniczne aspekty wydajności.
W tym przypadku nasz klient, który prowadził sklep internetowy z elektroniką, zauważył nagły spadek ruchu organicznego o 20% po wprowadzeniu tej aktualizacji, mimo że wcześniej osiągał świetne wyniki. Powód? Strona miała długi czas ładowania na urządzeniach mobilnych, co obniżyło jej pozycję w wynikach wyszukiwania. Ten przypadek pokazuje, jak trudne jest przewidzenie wpływu czynników zewnętrznych na efekty SEO.
Przykład 2: Sezonowość branżowa
Klientka NPROFIT prowadząca sklep z produktami ogrodniczymi zauważyła, że liczba odwiedzin jej strony internetowej gwałtownie wzrasta wiosną i latem, ale spada niemal do zera w okresie zimowym. Nawet najbardziej agresywna strategia SEO nie była w stanie przezwyciężyć tej tendencji, ponieważ była ona naturalnym odzwierciedleniem zachowań konsumentów. Tego rodzaju sezonowe wahania są jednym z powodów, dla których estymowanie efektów SEO na dłuższy okres może być bardzo trudne.
W jaki sposób agencje SEO zaczynają analizę witryny?
Na samym początku należy oprzeć się na tzw. trendach widoczności.
1. Trend widoczności
Agencja SEO praktycznie każdą analizę zaczyna od zweryfikowania trendu domeny. Możemy w tym przypadku wyróżnić:
- Trend spadkowy
- Trend wzrostowy
Agencja, widząc powyższe przykłady, łatwo może wpaść w pułapkę zbyt szybkiej oceny sytuacji. Problem w tym, że pobieżna analiza często okazuje się złudna.
- Trend boczny
Przykładowo domena pokazana jako wzrost to w rzeczywistości efekt przeprowadzonej operacji łączenia serwisów satelit z głównym serwisem. Oczywiście operacja ta została przeprowadzona poprawnie i w praktyce udało się uzyskać skumulowany wzrost większy niż suma widoczności poszczególnych serwisów. Jest to więc w największym stopniu kwestia konsolidacji, a nie realizacji klasycznej strategii SEO.
Dla porównania serwis przedstawiony jako trend boczny, w rzeczywistości traci sprzedaż. Za wzrost odpowiadają treści blogowe, a podstrony dotyczące sklepu spadają.
Aby dostrzec takie „szczegóły”, konieczna jest analiza. W przypadku serwisu ze spadkowym trendem widoczności przyczyny są zwykle jeszcze trudniejsze do wykrycia.
W praktyce jest to wykres jednej z naszych witryn afiliacyjnych, czyli domen zbudowanych w bardzo konkretnym celu: osiągnięciu możliwie wysokich zarobków z programów partnerskich przy najniższych kosztach.
Ciekawostka!
Leady pochodzące z organicznych wyników wyszukiwania mają wskaźnik zamknięć na poziomie 14,6%, podczas gdy leady z działań outbound osiągają jedynie 1,7%.
Przy takich projektach bardzo często wykorzystuje się agresywne techniki pozycjonowania. To, że dana domena straci na widoczności jest kwestią czasu. Chociażby ze względu na sam jej charakter i podejście Google do takich domen.
Przykładowymi elementami, przez które domena mogła zostać ukarana są np.:
- duża liczba treści tworzona w sposób częściowo zautomatyzowany,
- bardzo duża liczba reklam (aktualnie mocno ograniczona),
- agresywne techniki optymalizacji jak np. pokazywanie aktualnego miesiąca jako miesiąca stworzenia rankingu – w ten sposób z perspektywy Google mogły być postrzegane jako cały czas aktualne,
- duża liczba linków afiliacyjnych,
- dodawanie wersji językowych z wykorzystaniem prostych tłumaczeń,
- link building realizowany w bardzo budżetowy sposób,
- agresywne linkowanie wewnętrzne.
O ile specjalista oceniający serwis może dojść do pewnych wniosków, to niemal pewnym jest, że nie będzie w stanie wyizolować historycznych zmian zachodzących w serwisie na przestrzeni czasu. Oczywiście można posłużyć się w tym celu serwisem web.archive.org, ale w praktyce to tylko promil danych. Dosyć powiedzieć, że w obrębie tego projektu zmiany były wprowadzane praktycznie co miesiąc. Historia zmian nie jest dostępna dla specjalisty, który będzie ten serwis oceniał.
Działanie Web Archive. Źródło: web.archive.org/
W praktyce im więcej czasu specjalista poświeci na taką analizę, tym jego ocena może być trafniejsza. To jednak zadanie na godziny, często bardzo długie godziny. Zwłaszcza jeżeli specjalista będzie chciał ocenić jak wyglądał przyrost nowych treści w czasie oraz jak zachowywały się poszczególne frazy w czasie.
2. Optymalizacja techniczna serwisu
Zagadnienie optymalizacji jest w praktyce jeszcze bardziej złożoną kwestią niż ocena trendu widoczności. W praktyce istnieją pewne kluczowe elementy optymalizacji, na które zwraca uwagę większość specjalistów, ale jak to bywa w SEO, diabeł tkwi w szczegółach.
Istotnym elementem jest chociażby dystrybucja „mocy SEO” za pośrednictwem linkowania wewnętrznego oraz samo dostosowanie struktury strony. Agencje SEO często rekomendują utworzenie nowych kategorii, zbudowanie dodatkowych modułów linkowania wewnętrznego czy częściowo usunięcie/wyindeksowanie treści, które mogą być zbędne (marnując crawl budżet).
Warto w tym przypadku zapoznać się z pojęciem „limit wydajności indeksowania” o którym wspominają deweloperzy Google:
Limit wydajności indeksowania w praktyce. Źródło: developers.google.com/search/docs/crawling-indexing/large-site-managing-crawl-budget?hl=pl
Ocena potencjału optymalizacji strony jest więc bardzo złożonym procesem, który w zasadzie wymaga gotowego audytu i strategii. W jaki sposób agencja miałaby ocenić, jakie efekty jest w stanie uzyskać po 6 czy 9 miesiącach bez dogłębnej analizy oraz ułożenia planu contentowego czy planu rozbudowy drzewa kategorii? Na tym etapie agencja nie jest też w stanie określić, które elementy strategii zostaną zaakceptowane przez Klienta, a które nie. Nie jest też w stanie oszacować czasu potrzebnego na wdrożenie pełnego audytu, gdyż w praktyce nie został on jeszcze stworzony.
Kolejną trudnością okazuje się fakt, że nawet zakładając zgodę Klienta na wszystkie zmiany to w dużym stopniu potencjał wzrostu będzie opierał się na elementach, które na tym etapie nie istnieją.
Żeby to zobrazować, łatwiej jest estymować czy dodanie treści spowoduje wzrost z pozycji 5 na 3 na pojedynczych frazach niż oszacować jaki będzie ruch z treści, które jeszcze nie istnieją. Nie wiemy więc jakie będą ich bazowe pozycje po zaindeksowaniu, nie wiemy również jak dużo potencjału da nam każda nowa treść.
Tego dowiemy się w momencie stworzenia szczegółowych content planów.
To kolejny czasochłonny element, wymagający kooperacji z Klientem. W większości przypadków jest realizowany cyklicznie w trakcie współpracy.
Przykładowy content plan na jeden miesiąc dla firmy B2B. Źródło: Opracowanie własne.
3. Linki kierujące do domeny
Kolejnym obszarem o kluczowym znaczeniu są linki kierujące do domeny. Odpowiadają one w największym stopniu za zaufanie wyszukiwarki do domeny.
Niestety w tym obszarze agencje również poruszają się w ograniczonej przestrzeni.
Widzimy linki widoczne w specjalistycznych narzędziach takich jak np. Ahrefs czy też Ubersuggest. Niezależnie jak głęboko wejdziemy w taką analizę, zawsze musimy mieć jednak świadomość, że nie widzimy wszystkiego.
Liczba linków kierujących do domeny NPROFIT. Źródło: app.neilpatel.com.
Agencje SEO często ukrywają linki kierowane do Klientów, utrudniając w ten sposób ich wykrycie. Sami również tak robimy. Oczywiście można szukać takich linków z wykorzystaniem operatorów zaawansowanych Google, ale wymaga to dodatkowego czasu na analizy. Zwłaszcza jeżeli jest to bardzo duży projekt i linków są tysiące.
Kwestia jest nieco łatwiejsza, gdy agencja ma dostęp do Google Search Console, ale trzeba pamiętać, że to dalej tylko część danych. Google niestety nie pokazuje wszystkiego. Zresztą, nawet jeżeli przyjmiemy, że dane udostępnione przez Google są pełne, to pojawia się dodatkowy problem. Jest nim zmienność środowiska Google.
Jednym z większych wyzwań, z jakim mierzą się aktualnie agencje SEO jest indeksacja. Zarówno na poziomie samej strony internetowej Klienta, jak i w obszarze pozyskanych linków.
Nieco to obrazując, publikując artykuł sponsorowany w praktyce nie mamy pewności kiedy (oraz czy) zostanie on uwzględniony w rankingu wyszukiwarki.
Przyczyn może być tutaj kilka:
- portal z którego ten link został pozyskany ma niską reputację w Google.
- portal mógł być ukarany przez Google np. za publikację zbyt dużej liczby artykułów sponsorowanych.
- nie zostanie on zaindeksowany.
Spora liczba niezaindeksowanych podstron w GSC ze względu na nieprawidłową strategię SEO (w tym odpowiadającą za link building). Źródło: search.google.com.
W tym miejscu przechodzimy do sedna problemu. W praktyce na etapie analizy takiej strony nie wiemy, czy zaindeksowane jest 10, 30 czy 80% pozyskanych przez dotychczasowe agencje linków.
Jeszcze większym utrudnieniem jest fakt, że potencjalny Klient nie dostarcza wcześniejszych raportów agencji z link buildingu. Największa trudnością jest jednak fakt, że nawet gdyby to zrobił, to z dużym prawdopodobieństwem niewiele by to dało. Większość agencji nie raportuje pozyskanych linków lub robi to bardzo selektywnie (pokazując tylko “te ładne”).
Właśnie dlatego w NPROFIT regularnie dostarczamy wszelkie wyniki naszym klientom, aby w razie zakończenia współpracy, mieli oni pełny wgląd w nasze dotychczasowe działania.
Regularne raporty sporządzane przez specjalistów, których zatrudniamy obejmują:
- zmiany w ruchu organicznym (liczba użytkowników, liczba sesji).
- zmiany w pozycjach kluczowych słów w wynikach wyszukiwania.
- wykonane działania, np. optymalizacja treści, budowa linków czy poprawa techniczna strony.
- wnioski i rekomendacje na kolejne miesiące.
Jeśli chodzi o wnioski i rekomendacje, mamy prosty przykład: „W ostatnim miesiącu wzrost ruchu wyniósł 12%, głównie dzięki optymalizacji pod kątem frazy X. W kolejnych tygodniach planujemy zwiększyć widoczność dla fraz Y i Z”.
Konkretne frazy i działania weryfikujemy w różnych narzędziach. Przykładowy wykres analityczny wygląda następująco:
Wykres pozycjonowanych fraz kluczowych. Źródło: app.neilpatel.com.
Musimy mieć również na uwadze fakt, że środowisko Google jest bardzo dynamiczne. Oznacza to, że część linków może zostać zaindeksowana nawet po miesiącach czy w skrajnych przypadkach po latach.
Część linków będzie też znikała w miarę upływu czasu, gdyż np. strony na których były opublikowane zostaną usunięte. Jeszcze inna grupa będzie istniała, ale zostanie usunięta z indeksu wyszukiwarki. Takie sytuacje niestety mają miejsce.
Bardzo mocno to upraszczając, agencja dokonująca estymacji nie jest w stanie przewidzieć jak zmieni się “moc domeny” wynikająca z wcześniejszych działań prowadzonych na domenie. Warto tutaj wspomnieć, że ta historia mogła być budowana przez wiele lat.
Niestety zmieniając agencję SEO nie odcinamy się od tej historii, ona dalej rzutuje na pracę kolejnej agencji (pozytywnie lub negatywnie). Dodatkowo część agencji po zakończeniu współpracy z Klientem usuwa wszystkie pozyskane przez nich linki.
Warto dodatkowo przytoczyć tutaj statystyki Ahrefs, które podają, iż witryny z większą liczbą backlinków, odnotowują zazwyczaj więcej ruchu.
Statystyki Ahrefs. Źródło: www.ahrefs.com/blog/seo-statistics/
Etap wstępnej analizy
Na etapie wstępnej analizy nie mamy takiej informacji, a tym bardziej nie jesteśmy w stanie przewidzieć jak to wpłynie na domenę. Zwłaszcza, że jeżeli takie linki dominowały w ogólnym profilu, to ich natychmiastowe usunięcie może również spowodować nałożenie kary na stronę. Są to oczywiście skrajne sytuacje, ale w takim przypadku podstawowym zadaniem agencji w początkowym etapie jest “zastąpienie” utraconej mocy oraz bardzo szczegółowy audyt linków.
4. Doświadczenie specjalisty
Ocena wszystkich powyższych elementów, a w zasadzie ich wiarygodność bardzo mocno zależy od umiejętności i doświadczenia specjalisty. To jego doświadczenie oraz zdolność do „łączenia kropek” pozwala możliwie skutecznie diagnozować serwisy internetowe. Zaryzykuję więc stwierdzenie, że jest to zadanie dla seniorów z wieloletnim doświadczeniem.
Tym samym specjalistów, którzy kosztują najwięcej agencje SEO i paradoksalnie są najtrudniej dostępni na rynku.
5. Zmiany algorytmów
Kolejnym istotnym elementem, który rzutuje na wiarygodność estymacji jest zmienność algorytmów wyszukiwarki. Na przestrzeni lat Google mocno zmieniał punkty nacisku, zmieniał też wymagania stawiane stronom internetowym. O ile plusem jest to, że algorytmy obejmują też witryny konkurencji, tak na poziomie estymowania efektów mogą one znacznie wpłynąć na wyniki.
Tutaj możesz zobaczyć liczbę najważniejszych zmian algorytmów Google:
Najważniejsze zmiany algorytmów Google na przestrzeni lat. Źródło: status.search.google.com/products/rGHU1u87FJnkP6W2GwMi/history
Należy jednak zwrócić uwagę na fakt, iż wyżej przedstawione są wyłącznie główne zmiany algorytmów. Tych pobocznych jest zdecydowanie więcej, niż się spodziewasz. Jak podaje serwis Search Engine Land, standardy Google zmieniają się nawet do 13 razy dziennie.
Zmienne standardy Google. Źródło: searchengineland.com/library/platforms/google/google-algorithm-updates
Znamiennym przykładem jest dostosowanie wyników do intencji, które Google uznał za właściwe dla danego zapytania. W dużym uproszczeniu Google dla danego zapytania może wyświetlać raz same wpisy blogowe, a po pewnym czasie praktycznie tylko strony kategorii.
Przykłady takiego dostosowania poruszałem w case study opisywanym na naszym blogu: https://nprofit.net/pl/case-study-branzy-erotycznej-swiat-doznan/. Zachęcam do przeczytania.
O ile agencja może się dostosować do takich zmian, to taka zmiana charakteru wyników wyszukiwania mocno wpływa na zaplanowane efekty oraz wymaga dodatkowych nakładów roboczogodzin.
6. Dotychczasowe działania konkurencji
Ze względu na długość wpisu, bardzo pobieżnie poruszę kwestię oceny działań konkurencji. Mimo że jest to najbardziej czasochłonny element tworzenia estymacji SEO.
Musimy mieć świadomość, że analogiczną analizę jak powyższa, powinniśmy wykonać dla przynajmniej kilku głównych konkurentów. Tych, z którymi będziemy wchodzili w bezpośrednią rywalizację. Żeby chociaż w przybliżeniu ocenić, na jakie efekty możemy liczyć po 6, 9 czy 12 miesiącach musimy ocenić jak dużą przewagę nad nami ma konkurencja. Jest to oczywiście dalej subiektywna ocena, a ilość czasu poświęcona na analizę każdej z domen zwiększa skuteczność naszej estymacji.
Przebieg analizy działań konkurencji – jak wygląda w praktyce?
Wykonując taką analizę staramy się między innymi oszacować nakłady na link building poniesione przez konkurenta. W tym celu staramy się wyizolować wszystkie linki, które historycznie zostały pozyskane do serwisu, a następnie je wycenić. Przykładowo zestawiając koszt artykułów sponsorowanych z cenami na platformach pośredniczących. W ten sposób przynajmniej mniej więcej wiemy, jak duże nakłady na to konkretne źródło zostały poniesione.
Niestety większość źródeł jest bardzo trudna do wyceny. Nie jesteśmy w stanie obiektywnie ocenić siły linków pozyskanych z infrastruktury agencji, a tym bardziej ich wycenić. Podobnie bardzo trudno jest wycenić linki pozyskane za pośrednictwem kampanii PR. Nie wiemy też realnie jak dużo linków jest niewidocznych dla narzędzi i jak dużo nie jest zaindeksowane przez Google.
7. Strategia SEO konkurencji
O ile w jakimś stopniu jesteśmy w stanie ocenić aktualny stan domeny, link buildingu konkurencji i oszacować jak dużo mamy do nadrobienia w tych aspektach, tak wiedza o przyszłych działaniach konkurencji jest niedostępna dla agencji.
Nie wiemy jak dużym budżetem dysponuje konkurencja oraz jakie mają plany w zakresie optymalizacji. Nie wiemy też w jaki sposób te budżety będą się zmieniały na przestrzeni czasu. Oczywiście możemy wykonać analizę linków pozyskanych np. w ciągu ostatnich 30 dni i oszacować jak duże mogły być na nie nakłady. Podobnie w przypadku np. ilości nowych wpisów blogowych, które pojawiają się na stronie. Trudniej jest jednak ocenić jak dużo np. opisów kategorii publikuje konkurencja miesięcznie. Dotyczy to w zasadzie każdej treści, która nie jest opisana konkretnymi datami.
Kilka słów na sam koniec
W mojej ocenie wykonanie rzetelnej analizy, która pozwoli na stworzenie estymacji opartej o dane to kilkadziesiąt godzin pracy specjalisty. Specjalisty z bardzo dużym doświadczeniem i jest to główny powód, dla których agencje unikają tworzenia takich estymacji na etapie nawiązywania współpracy. Warto tutaj podkreślić fakt, że koszt roboczogodziny takiego specjalisty to między 200-500 zł. Rynkowo taka analiza może więc kosztować kilkanaście tys. zł.
Brak takich analiz po stronie agencji na etapie sprzedaży nie jest kwestią braku chęci, braku pewności siebie, ale po prostu świadomość jak złożony i kosztowny jest to proces. Świadomości, że nawet pomimo możliwe najlepszego przeanalizowania danych pozostaje dalej bardzo dużo niewiadomych czy czynników, które mogą zaburzyć ostateczne wyniki.
Oczywiście bardzo doświadczony specjalista na bazie swojej wiedzy o konkretnej branży jest w stanie podzielić się swoją OPINIĄ o potencjalnych efektach, często nawet z dobrą skutecznością. Nie możemy tego działania nazwać estymacją.
Podobnie jak większości estymacji wykonywanych przez agencje przy użyciu prostych algorytmów jak np. aktualny ruch + określony % wzrostu r/r czy na bazie szybkiej i bardzo pobieżnej analizy.
Zdecydowana większość estymacji, które widziałem niestety nie miały z nimi zbyt wiele wspólnego. Prognozowane wyniki były ekstremalnie wysokie i często niemożliwe do zrealizowania w danym projekcie, ale dobrze wyglądały w oczach Klienta i skutecznie przekonywały go do oferty.
Jeśli interesuje Cię współpraca z rzetelną agencją SEO, napisz do nas maila lub zadzwoń – chętnie porozmawiamy o zwiększeniu widoczności Twojej firmy w Google!