Przychód firmy Google plasuje ją powyżej 142 państw na świecie. Aktualnie w jej portfolio mieni się nie tylko Google.pl i pozostałe wersje językowe wyszukiwarki, ale również poczta Gmail, serwis YouTube, przeglądarka Chrome, system Android, a także najpopularniejsze mapy, translator, analityka i inne usługi. Źródłem sukcesu i nadal aktualną osią przychodów pozostaje wyszukiwarka, której używa ponad 2 miliardy ludzi na świecie, co czyni z niej jeden z największych nośników reklam na Ziemi. To dosłowne centrum internetu, obok którego nie może przejść obojętnie nikt, kto operuje stronami. Osoby i firmy zainteresowane potencjałem reklamowym Google wspiera cała branża wyspecjalizowana w reklamach w wyszukiwarce – branża SEM (ang. search engine marketing, pol. marketing w wyszukiwarkach).
Internet to projekt, który powstał na styku pracowników naukowych i wojskowych, potrzebujących medium do przesyłania między sobą cyfrowych informacji. Początkowo opierał się na sieciach połączonych komputerów, a jego główną funkcją było przekazywanie wiadomości, plików i dostępu do urządzeń przeprowadzających obliczenia. Pierwszy wyjątek od tej reguły – strona internetowa z treścią i linkami – powstał dopiero w 1991 roku na komputerze w słynnym CERNie. Dalszemu, błyskawicznemu rozwojowi internetu towarzyszył boom na wyszukiwarki: w ciągu kilku lat powstało wiele narzędzi, które w szczycie bańki dot.com były przejmowane w kwotach sięgających miliardy dolarów. Po latach pamięć o nich przykryła gruba warstwa kurzu (kto pamięta na przykład Excite przejęte za 6,5 miliarda dolarów?), a globalny rynek zdominowała wyszukiwarka Google. Jedynym światowym konkurentem pozostaje wyszukiwarka Bing, jednak mimo potężnego wsparcia Microsoftu, przez kilkanaście lat działania doszła do zaledwie kilku procent globalnego rynku.
Ponad 4/5 wyszukań na świecie jest wykonywanych w wyszukiwarce Google. W niektórych krajach lokalnie działają bardziej popularne usługi – Czesi są przywiązani do Seznam.cz, w Rosji funkcjonuje Yandex.ru, natomiast w Chinach istnieje cenzurowany Baidu.com.
W Polsce mamy do czynienia z praktycznym monopolem wyszukiwarki Google, a jej udział wynosi 98%.
Zespół powyższych i wielu innych czynników sprawił, że googlowanie stało się synonimem wyszukiwania w internecie. W obliczu braku realnych konkurentów, zwykli użytkownicy wyszukiwarki Google dosłownie wierzą w wysoką jakość wyników wyszukiwania. Jeśli ktoś zobaczy Twoją stronę wyżej niż stronę konkurencji, prawdopodobnie obdarzy Cię większym zaufaniem. Stwierdzają to badania naukowe opublikowane w prestiżowym PNAS (Epstein i Robertson 2015), które zdążyły już ukuć termin: „efekt manipulacji wyszukiwarką„. Badacze na podstawie wielu rygorystycznych, potwierdzonych statystycznie prób szacują, że kolejność w wyszukiwarce wpływa nawet na wyniki wyborów politycznych. Abstrahując jednak od tak szerokich konsekwencji, użytkownicy w codziennych decyzjach dotyczących zakupów czy spędzania czasu, również sugerują się kolejnością wyników wyszukiwania.
Współcześnie za wyszukiwarkę Google odpowiada spółka, która jest zależna od holdingu Alphabet, stworzonego przez założycieli wyszukiwarki w celu finansowania innowacyjnych projektów, takich jak autonomiczne samochody, precyzyjna medycyna czy dostarczanie internetu w odległe miejsca. Przychody całej korporacji przekraczają 100 miliardów dolarów, z czego blisko nadal 85% dostarczają reklamy obecne w produktach Google.
2 miliardy użytkowników w każdym miesiącu wpisuje w formularz wyszukiwania ponad 100 miliardów zapytań (zapytanie jest tym samym co frazy lub słowa kluczowe – od ang. keyword). Do najczęściej wyszukiwanych, realnych zapytań można dotrzeć za pomocą narzędzia firmy Google (Planner, Search Console), a także niezależne zewnętrzne narzędzia (Ahrefs, Senuto i liczne pozostałe). Podstawowa udostępniana przez nie metryka to miesięczna ilość wyszukań, która dość ściśle koreluje z ilością kliknięć w wyniki:
100 miliardów różnych zapytań przekłada się na potężny gąszcz słów kluczowych niemal w każdej niszy. Jak zrozumieć co jest istotne, co może być celem, nad czym warto pracować w SEM? Z pomocą przychodzi klasyfikacja słów kluczowych.
Najbardziej klasyczny podział, powstały już w 2003, opiera się o dwie główne grupy:
Podział obrazuje słynny wykres, który można spotkać w wielu ofertach pozycjonowania:
Wyszukanie i ustalenie właściwych słów kluczowych jest pierwszym, bardzo ważnym etapem w większości działań SEM (ang. keyword research).
Po odpytaniu wyszukiwarki użytkownik otrzymuje ekran, który zazwyczaj składa się z reklam (aktualnie do 4 reklam, inaczej: linki sponsorowane, płatne wyniki) oraz wyników wyszukiwania (do 10 wyników, inaczej: organiczne wyniki, bezpłatne wyniki). W komputerowej wersji wyszukiwarki możliwe jest przejście na dalsze strony wyników wyszukiwania, gdzie można przejrzeć kolejne organiczne wyniki. W mobilnej wersji paginacja została zastąpiona dynamicznym doczytywaniem po wciśnięciu przycisku „więcej wyników”.
Dla części zapytań obok reklam i organicznych wyników wyświetlane są dodatkowe boksy: bezpośrednie odpowiedzi, mapy, panele wiedzy, wiadomości, obrazki. Decyzja o ich wyświetlaniu jest podejmowana przez wyszukiwarkę Google na podstawie interpretacji słów kluczowych, potrzeb użytkowników, a także pomiarów zaangażowania użytkownika.
Liczne dane wskazują, że zdecydowana większość odbiorców poświęca uwagę wyłącznie wynikom, które znajdują się najwyżej w kolejności (inaczej: wysokie pozycje, pierwsza pozycja, TOP1, pierwsze trzy pozycje, TOP3). Przewijanie ekranu czy przechodzenie na dalsze strony to rzadkość. W większości użytkownicy ograniczają się do kliknięcia w obrębie 2 najwyższych reklam, a także 6 najwyższych wyników wyszukiwania. Bezpośrednim dowodem na znaczenie wysokich pozycji jest konkurencja o kolejność w 4 pozycjach reklamowych nad wynikami wyszukiwania. O umiejscowieniu w płatnych reklamach decyduje mechanizm licytacji, który najwyżej umieszcza firmy zdolne do zapłacenia najwyższej kwoty za kliknięcie. Zależnie od branży, licytacja o najwyższą pozycję potrafi wywindować koszt nawet do kilkudziesięciu złotych za jedno kliknięcie:
Tego typu kwoty za pojedyncze wejścia są wliczone w model biznesowy firm konkurujących w płatnych reklamach. Warto jednak zauważyć, że potencjalni Klienci korzystają również ze zwykłych, bezpłatnych wyników wyszukiwania. Co więcej, obecność zarówno w reklamach jak i organicznych wynikach działa synergistycznie, wzajemnie wspierając realizację celów:
Budowa ekranu wyszukiwania bezpośrednio dyktuje budowę branży SEM. Działania są podzielone na część pracującą nad reklamami (PPC – ang. pay per click, pol. płatność za kliknięcie, znane również jako Google Ads – wcześniej Google AdWords) oraz nad wynikami wyszukiwania (SEO – ang. search engine optimization, pol. optymalizacja pod kątem wyszukiwarek, w Polsce znane również jako pozycjonowanie).
Dygresja: Część blogów forsuje opinię, według której SEO i pozycjonowanie to dwa osobne zagadnienia. Według niepoprawnego tłumaczenia słowa „optimization”, SEO miałoby dotyczyć wyłącznie zmian w kodzie i treści strony. W rzeczywistości autorzy terminu SEO i cała zachodnia branża SEM jasno i powszechnie stwierdza, że SEO dotyczy wszystkich zagadnień pozycjonerskich, a „optimization” porusza nie tylko zmiany na stronie, ale również linki, autorytet, markę, pozycje, widoczność i wszystkie pozostałe elementy definiujące sytuację w wyszukiwarce. Nawet jeśli interpretacja akronimu SEO, odmienna od jego autorów, miałaby być wyłącznie polską specyfiką, należy zauważyć, że polska wersja supportu firmy Google również konsekwentnie określa wszystkie działania pozycjonerskie jako „SEO” (również te dotyczące prac poza kodem i treścią).
Definicje pozycjonowania różnią się w zależności od działań podejmowanych przez osoby pracujące nad stronami. Z pewnością warto zapoznać się z definicją SEO podaną przez samą firmę Google:
SEO – optymalizacja witryn pod kątem wyszukiwarek, czyli proces ulepszania witryn na potrzeby wyszukiwarek. To także nazwa stanowiska osoby, która zajmuje się tym zawodowo.
Niezależnie od szczegółów semantycznych, zawsze celem pozycjonowania jest osiągnięcie najwyższej ekspozycji w wynikach wyszukiwania.
Pomiar ekspozycji, czyli postępu w pozycjonowaniu następuje za pomocą poniższych parametrów:
Podane parametry wynikają wzajemnie z siebie: widoczność pozwala na osiąganie wysokich pozycji, wysokie pozycje agregują ruch, odpowiedniej jakości ruch przekłada się na konwersje. Dawniej pozycjonowanie – jak jego nazwa wskazuje – skupiało się wyłącznie na pozycjach, jednak współcześnie wyewoluowało w kierunku bardziej kompleksowych usług, których celem jest wzrost nie tylko pozycji, ale również widoczności i ruchu, a w konsekwencji wzrost konwersji.
Wysoka jakość wyników wyszukiwania jest w najwyższym interesie autorów wyszukiwarki. Ich przydatność dla użytkownika stanowi o tym czy będzie zadowolony z produktu firmy Google, czy do niego wróci, czy będzie mu ufał na tyle by klikać w reklamy obecne na najwyższych pozycjach. Głównym narzędziem determinującym jakość wyszukiwarki jest ustalanie kolejności wyników wyszukiwania. Od samego początku istnienia wyszukiwarka Google kładzie na to zagadnienie ogromny nacisk. Dekady pracy kilkunastu tysięcy inżynierów przyniosły liczne algorytmy, które dają odpowiedź na pytanie: kto powinien być wyżej?
Branża SEO próbuje rozgryźć te algorytmy by móc wpłynąć na kolejność w wyszukiwarce. Proponowane są całe listy czynników rankingowych (inaczej: sygnałów) przetwarzanych przez algorytmy wyszukiwarki, które próbują doprecyzować wszystkie uwzględniane elementy. Są to jednak zawsze niezależne listy, będące miksem doświadczeń, testów i prywatnych opinii, które nie muszą być zgodne z rzeczywistością. Sama firma Google nie tylko nigdy nie ujawniła takiej listy, ale wręcz ściśle skrywa ją, podobnie jak korporacja Coca Cola skrywa przepis na swój flagowy napój.
W praktyce pracownicy firmy Google wymieniają tylko dwa najważniejsze czynniki: treść oraz linki.
Dygresja: Czasem pada twierdzenie o 200 czynnikach zdefiniowanych przez pracowników firmy Google. W rzeczywistości wypowiedź o „ponad dwustu czynnikach” padła bardzo dawno temu, w 2006 roku. Od tego czasu została wielokrotnie podważona, a szef działu wyszukiwarek oświadczył o nawet 50-krotnie wyższej liczbie wariantów czynników (10 tysięcy). Oficjalnie firma Google odmawia odpowiedzi na temat czynników rankingowych, a stwierdzenie o treściach i linkach było jedynym wyjątkiem od tej reguły.
Treść i linki to bardzo szerokie obszary, adresowane przez algorytmy determinujące wiele ich cech. W kontekście wyszukiwarki Google, słowo „algorytm” ma wieloletnie konotacje historyczne – od samych początków „algorytm” funkcjonuje jako podstawowy składnik wyszukiwarki, który ma decydować o przewadze nad pozostałymi wyszukiwarkami, dzięki zapewnianiu wysokiej jakości wyników wyszukiwania. O ile jednak w pierwszej dekadzie funkcjonowania Google, algorytmy były pocztem sztandarowym jakości, o tyle w ostatnich latach polityka uległa odwróceniu o 180 stopni i aktualnie pracownicy firmy Google radzą:
Po prostu skup się na tworzeniu jakości i dużej wartości dla użytkownika.
W zasadzie tworzysz stronę wysokiej jakości zgodnie z naszymi wytycznymi dla webmasterów, skupiasz się na użytkowniku, odpowiadasz na jego pytania, satysfakcjonujesz go i wszystko będzie dobrze.
To konsekwencja skomplikowanych relacji między firmą Google, a branżą SEO, która w dalszej części jest bardziej szczegółowo eksplorowana.
Porady typu „miej świetną treść” są cenne i przynoszą efekty. Wysoka jakość strony wspiera nie tylko obecność w wyszukiwarce, ale także pozwala na skuteczne zaangażowanie użytkowników trafiających z wyników wyszukiwania do naszego serwisu. Pracownicy firmy Google idą jednak o krok dalej i deklarują:
W firmie Google raz po raz powtarzamy, i widzimy, że wystarczy stworzyć wysokiej jakości treść która jest wartościowa dla użytkowników i czytelników, którzy cię znajdą i nie musisz już martwić się o nic innego.
Trudno zgodzić się z opinią, według której samo przygotowanie wysokiej jakości treści pozwala na osiągnięcie sukcesu w wyszukiwarce. Podważają ją twarde dane:
Zupełnie subiektywnie, bez problemu można podać setki przykładów stron z doskonałą treścią, które nie osiągnęły sukcesu w wyszukiwarkach. Nie istnieje powszechne, samoistne pozycjonowanie się, w którym wystarczy tylko stworzyć stronę o wysokiej jakości.
Miliardy dolarów są wydawane na tysiące inżynierów – więc dlaczego wyszukiwarki nie mogą znaleźć dobrego kompromisu między zarabianiem i wyszukiwaniem? Mój punkt widzenia może być zniekształcony, ponieważ pracuję w branży i od razu rozpoznaję kiepskie treści. Akceptowałbym je, gdyby nie można było znaleźć lepszych. Ale w praktyce internet jest pełny lepszych strony z lepszą treścią od tych prezentowanych przez Google. Ale do tych stron zazwyczaj prowadzi tylko kilka linków, zazwyczaj nie są popularne w mediach społecznościowych, zazwyczaj nie używają popularnych słów kluczowych w tytułach, zazwyczaj nie są profesjonalnie i idealnie zbudowane.
Taki stan nie jest wyjątkowy – wręcz przeciwnie, jest regułą na wielu rynkach poza wynikami wyszukiwania. Przykładowo na rynku wydawniczym nie wystarczy utworzenie książki o wysokiej jakości by osiągnąć wysoką sprzedaż, natomiast na rynku aplikacji mobilnych nie wystarczy stworzyć świetną grę by osiągnęła chociaż kilka procent sukcesu Angry Birds. Dobry produkt, jak w każdej innej sytuacji biznesowej, jest korzystnym fundamentem działań, ale też zaledwie fundamentem. Podobnie jak na każdym innym rynku, na przeciwko tego problemu wychodzi marketing, a w przypadku organicznych wyników wyszukiwarek – optymalizacja pod kątem wyszukiwarek (SEO).
Wyszukiwarka prezentuje wyniki na podstawie utworzonego przez nią indeksu. Można go porównać do spisu treści wszystkich adresów w internecie. By pojawić się w wynikach wyszukiwania, musimy najpierw znaleźć się w indeksie, do czego dochodzi za pośrednictwem robotów indeksujących – programów firmy Google, które poruszają się po sieci, odczytują właściwości i zawartość adresów, a następnie dodają wartościowe adresy do puli wszystkich dostępnych w trakcie wyszukiwania (dodają do indeksu, inaczej: indeksują).
Najbardziej elementarne działania pozycjonerskie zaczynają się od przystosowania strony do robotów indeksujących Google – określane najczęściej jako optymalizacja onsite (a także: optymalizacja onpage, optymalizacja strony, podstawowa optymalizacja, techniczne SEO). Indeksowanie może być usprawnione za pomocą kontroli ich zachowania, przez wdrożenia takie jak:
Zmiana tych elementów jest podstawą każdej kampanii pozycjonującej i następuje zazwyczaj na początku prac. Dobór rozwiązań powinien dostosowany indywidualnie do każdej domeny i jej sekcji, a także możliwości programistycznych w zakresie implementacji.
Świetnych zasobów na temat powyższych wdrożeń dostarcza support firmy Google – szczegółowo omawia zdecydowaną większość możliwych rozwiązań, a także polecane implementacje.
Większość stron posiadających opiekę firmy pozycjonującej zazwyczaj ma dokładnie wdrożoną podstawową optymalizację. Pierwsze wdrożenie powyższej listy jest również tylko pierwszym krokiem na drodze do dogonienia konkurencji. Postawienie kolejnych kroków, osiągnięcie wysokich pozycji i w końcu wyprzedzenie konkurencji wymaga dalszych, licznych kroków, które muszą być przeprowadzane w cyklicznym trybie.
Skuteczne pozycjonowanie to co najmniej pośrednia praca nad eksploatacją algorytmów wyszukiwarki Google. Jak każdy model matematyczny, również modele ustalające kolejność wyników są podatne na nieświadomą oraz świadomą manipulację, co jest clue działań pozycjonerskich wykraczających poza najbardziej elementarne wdrożenia.
Dygresja: Warto mieć na uwadze, że pojęcie „eksploatacji algorytmów” jest stosunkowo kontrowersyjne zarówno pomiędzy firmami pozycjonującymi jak i w stosunku do firmy Google. Od wielu lat trwa tu złożone przeciąganie liny między mniej i bardziej agresywnymi metodami. Perspektywa firmy Google jest jasna, ponieważ jej model biznesowy zakłada uzyskiwanie przychodów tylko za pomocą jednego kanału – reklam nad wynikami wyszukiwania. Firmy budżetujące działania marketingowe w oczywisty sposób zubażają ten model, jeśli poświęcają pieniądze na SEO zamiast na Google Ads. W wyniku tych relacji, wszelkie działania SEO wykraczające poza podstawowe są nie tylko negatywnie komentowane przez pracowników firmy Google, ale nawet dochodzi do działań bezpośrednio uderzających w firmy pozycjonujące oraz pozycjonowane strony (w postaci nakładania „kar ręcznych” oraz „algorytmicznych filtrów”, które obniżają pozycje w wyszukiwarce). Na podstawie ryzyka obniżenia pozycji, część działań pozycjonujących można określić jako bardziej niebezpieczne, a część jako bardziej bezpieczne. Dawniej zaowocowało to podziałem branży SEO na „white hat” (pol. biały kapelusz – bezpieczne, ale kosztowne i/lub czasochłonne działania, bliższe klasycznym kampaniom marketingowym) oraz „black hat” (pol. czarny kapelusz – niebezpieczne, ale szybsze i tańsze działania, bliższe hackingowi). Współcześnie większość pozycjonerów operuje na pograniczu obu tych obszarów, implementując kampanie marketingowe połączone z trickami SEO. Część firm nadal buduje swój wizerunek mówiąc o całkowicie bezpiecznych działaniach, jednak nawet one są narażone na kary i filtry. Autorzy wyszukiwarki Google negatywnie traktują wszystkie działania pozycjonujące, które wykraczają poza podstawową optymalizację onsite.
Zgodnie z oceną dwóch najważniejszych czynników, działania pozycjonerów można podzielić na frakcję dotyczącą treści (onsite SEO, onpage SEO – na stronie, razem z podstawową optymalizacją) oraz frakcję dotyczącą linków (offsite SEO, offpage SEO – poza stroną).
Wszystkie treści obecne na stronie – tytuły, nagłówki, treści artykułów, opisy produktów, tekstowe oceny, komentarze – są brane pod uwagę przez algorytmy wyszukiwarki Google pod kątem dwóch aspektów: ich trafności względem zapytania użytkownika oraz ich jakości względem standardów wyników. Im wyższa trafność oraz jakość treści, tym wyższą pozycję uzyskuje podstrona z tą treścią w wynikach wyszukiwania.
Typowe wdrożenia dotyczące treści to:
Szczegóły powyższych zmian są zależne od specyfiki niszy, a także od aktualnej oceny wyszukiwarki. Ich użycie ma stosunkowo długą i burzliwą historię:
Treści są oceniane zarówno na poziomie pojedynczych adresów, sekcji agregujących wiele podstron, jak i w kontekście całych domen. Ich optymalizacja jest dość miękkim tematem, ponieważ język polski podlega złożonej ocenie, w którą włączone są algorytmy uczenia maszynowego (ang. machine learning). Istnieje wiele poradników, które proponują optymalizację treści często według sprzecznych zasad, sugerują różnorodne czynniki, a także zalecają zwykłe, intuicyjne podejście do pisania. W praktyce najważniejsze jest powiązanie treści z rzeczywistymi zapytaniami, które wpisują użytkownicy w wyszukiwarkę – zarówno od strony klasycznego umieszczania właściwych słów w treści, jak i od strony odpowiadania na potrzeby i intencje użytkownika.
Linki od początku istnienia internetu, wtedy jeszcze znane jako hiperłącza, były sednem tej technologii. To co odróżniało zwykłe pliki i maile od stron internetowych to właśnie możliwość przechodzenia do różnych miejsc za pomocą jednego kliknięcia. Założyciele firmy Google w połowie lat 90 dostrzegli ogromne znaczenie linków i ocenili, że mogą być potraktowane jako głosy popularności: im więcej linków z różnych domen wskazuje do danej strony, tym bardziej jest popularna. Sposób obliczania tej wartości opracowali na Uniwersytecie Stanforda i opublikowali w 1998 jako algorytm PageRank (PR). Przez krótki czas próbowali zainteresować nim istniejące ówcześnie wyszukiwarki – doszło nawet do propozycji sprzedaży licencji na PageRank – ale w obliczu negatywnego odbioru założyli własną wyszukiwarkę, dzisiaj znaną jako Google. Została zbudowana wokół algorytmu PageRank, który do dzisiejszych czasów pozostaje jej bardzo ważnym elementem, choć współcześnie działa w zmodyfikowanej wersji, a także jest wspierany przez wiele innych algorytmów.
Firma Google przyjmuje linki jako głosy popularności, wiarygodności i jakości w internecie. Im większa popularność (aktualnie mierzona liczbą linków z różnych domen) tym wyższe pozycje osiąga strona.
Dygresja: W oryginalnej publikacji pada stwierdzenie:
Te rodzaje spersonalizowanych algorytmów PageRank są praktycznie odporne na manipulację w celach komercyjnych. Dla osiągnięcia wysokiego PageRank, musi dojść do przekonania do linkowania innej strony z wysokim PR lub wielu stron z niskim PR. W najgorszym przypadku, może dojść do manipulacji w formie zakupu reklam (linków) na stronach z wysokim PR. Ale to wydaje się być ograniczone, ponieważ jest kosztowne.
Rzadko można trafić na równie spektakularnie nietrafioną prognozę.
Specyficzne wdrożenia istotnie zmieniają się w czasie, pomiędzy branżami, a także w odniesieniu do poszczególnych stron. Jako najpopularniejsze można wymienić kampanie artykułów sponsorowanych z linkami prowadzącymi do docelowej strony, tworzenie dedykowanych stron linkujących, a także naturalne i/lub wspierane linkowanie w miejscach tworzonych przez użytkowników (fora, komentarze, serwisy społecznościowe). Większość z nich sprowadza się do oficjalnie odradzanego przez firmę Google kupowania linków – najczęściej kupowane linki są upodabniane do naturalnych lub są elementem większych kampanii, jednak nie ujmuje to im faktu fizycznego zakupu odnośnika.
Działania skupione wokół linków są najbardziej skutecznymi i często najbardziej ekonomicznymi wdrożeniami w pozycjonowaniu. Z tego powodu, od wielu lat to właśnie przeciwko linkowaniu wytoczone są najcięższe działa w sporze między pozycjonerami, a pracownikami firmy Google:
Linki są oceniane zarówno na poziomie pojedynczych adresów, sekcji agregujących wiele podstron, jak i w kontekście całych domen. Oprócz linków, możliwą miarą popularności strony są opinie w internecie, nielinkowane odniesienia do strony, ilość wyszukań brandu, występowanie w mediach społecznościowych, a także wiele innych parametrów. Część z nich jest proponowana jako funkcjonujące czynniki, które miałyby zmieniać kolejność wyników wyszukiwania. W rzeczywistości, aktualnie decydującą rolę w pozycjonowaniu pełnią linki. Może to ulec zmianie w przyszłości, co sugeruje m.in. patent firmy Google na ocenę popularności bez odwoływania się do odnośników, a także ewolucja internetu:
Firma Google ma problem. Jej kluczowi pracownicy od lat głośno mówią o tym, że linki są ważnym czynnikiem rankingowym, bez którego wyniki wyszukiwania miałyby znacznie niższą jakość. Jednocześnie w internecie pojawia się coraz mniej linków tworzonych przez zwykłych ludzi, niezwiązanych z pozycjonowaniem czy jakąkolwiek inną formą marketingu. Facebook, Twitter i kilka innych wielkich portali odciągnęły ludzi od wielu mniejszych for i serwisów web 2.0. A te które nadal prężnie funkcjonują stały się w większości nieprzydatne dla wyszukiwarki Google, ponieważ każą ignorować wszystkie linki atrybutem rel=”nofollow” (np. wykop.pl), stosują wszędzie nieśledzone przekierowania (np. facebook.com), lub nawet unikają linkowania (wiele portali medialno-dziennikarskich). Wyszukiwarka Google jest coraz bardziej odcinana od informacji o tym na co ludzie głosują za pomocą linków.
Ważnym aspektem offsite jest ocena linków na poziomie całych domen. Choć pracownicy firmy Google starają się przekonać, że nie istnieje autorytet domeny, w praktyce duże domeny z wieloma linkami mają zdecydowaną przewagę konkurencyjną nad setkami mniejszych portali. Nietrudno zrozumieć dlaczego ten fakt jest podważany w komunikatach korporacji Google – promowanie dużych podmiotów kosztem mniejszych stawia wyszukiwarkę w złym świetle. Mimo to codzienna praca potwierdza bardzo wysokie korzyści z posiadania znanych domen, które mogą być wykorzystywane do wspomnianej monopolizacji całych nisz w wynikach wyszukiwania:
Mechanizm przejmowania kolejnych nisz jest bardzo prosty i można go prześledzić na przykładzie BestProducts.com. Wydawca Hearst, właściciel m.in. marki Cosmopolitan, zaczął linkować nowo powstałe BestProducts.com ze wszystkich swoich portali. W efekcie nowy serwis w ciągu pół roku osiągnął widoczność na poziomie miliona słów kluczowych – wynik nieosiągalny przez wiele lat dla nowych portali, które nie mogą skorzystać ze wsparcia dużych domen.
Podstawowa praca w pozycjonowaniu z powyższymi oraz wieloma innymi czynnikami przebiega w cyklu:
analiza – działanie – obserwacja – skalowanie/hamowanie działań.
Analiza jest podejmowana w licznych narzędziach, a także z udziałem własnego oraz kolektywnego (firmowego, niszowego) doświadczenia. Decyduje o wyborze najbardziej skutecznych i najbardziej opłacalnych wdrożeń. Po wdrożeniu zestawu odpowiednich działań, dochodzi do etapu oczekiwania za efekty, który może trwać nawet wiele miesięcy – oczywiście w tym czasie podejmowane są inne implementacje. Po właściwym czasie efekt działania jest restrykcyjnie oceniany i przynosi odpowiedź na pytania: czy wdrożenie było opłacalne? czy warto je wyskalować? czy warto je wyhamować lub wyłączyć? Skuteczne wdrożenia są skalowane nie tylko w obrębie jednej domeny, ale zazwyczaj mogą być stosowane przy innych lub kolejnych stronach.
Zarówno na etapie analizy jak i obserwacji kluczowe są narzędzia. Każdy specjalista operuje własnymi zestawami podstawowych narzędzi, stąd niemożliwe jest przedstawienie przystępnej dla początkujących i jednocześnie wyczerpującej listy. W poniższej prezentujemy zaledwie pięć, ale są to jedne z najważniejszych na jakich pracuje każdy pozycjoner (lub na ich odpowiednikach), i od których z pewnością należy zacząć pracę:
Zaawansowane wdrożenia cechuje wysokie bezpieczeństwo, korzystanie z szerokiej wiedzy oraz doświadczenia, a także możliwie najwyższa skuteczność. Nie muszą przebiegać w cyklu analiza – działanie – obserwacja, ponieważ mogą przebiegać według innych procedur wykrystalizowanych przez lata pracy w pozycjonowaniu.
Przykład sprawdzonego, bezpiecznego wdrożenia, które zostało przez nas upublicznione:
W jaki sposób powstają takie metody? Gdzie mogą być sprawdzone? Jak ustala się najbardziej skuteczną formę? Częstym sposobem odpowiedzi na te pytania są własne, testowe domeny, które w procesie eksperymentów (w branży nazywanych zwyczajowo „testami”) dostarczają potwierdzeń lub zaprzeczeń konkretnych hipotez. Testowe sprawdzanie wdrożeń, weryfikacja twierdzeń, a także poszukiwanie czynników rankingowych to częściowo kontrowersyjne zagadnienie. Testy rzadko są zewnętrznie publikowane, a jeśli do tego dochodzi, podlegają zazwyczaj krytyce (często słusznej). Zdecydowana większość wartościowych testów pozostaje w obrębie wewnętrznych zasobów firm i specjalistów, ponieważ ich wartość – w kontekście skalowania pozycjonowania – jest zbyt wysoka by udostępniać wyniki potencjalnej konkurencji, a także samej firmie Google.
Przykład testu o małym znaczeniu finansowym, ale świetnym pod kątem samej pracy z czynnikami rankingowymi, można prześledzić u Reboot Online:
Istotą testów jest zawsze przybliżenie rzeczywistości – w przypadku pozycjonowania to zazwyczaj oszacowanie czynników rankingowych i ich wpływu na kolejność wyników wyszukiwania. Do prawidłowych przybliżeń konieczne jest wykorzystanie szerokich prób (wielu domen), grup kontrolnych (domen niezmienionych), szacunków statystycznych (pewność, błędy pierwszego i drugiego rodzaju), izolacji (kontrolowane słowa kluczowe i pozostałe warunki). Eksperymentami od setek lat zajmuje się nauka, która w tym celu wytworzyła metodologię naukową. W prawidłowych testach wymagane jest pełne wykorzystanie arsenału metodologii naukowej. Jego szczegóły są dość zawiłe i wymagają wstępów matematycznych, stąd ograniczymy się tutaj do wskazania najbardziej wydajnej techniki w warunkach wyszukiwarki – factorial design:
Poza testami, w zaawansowanym pozycjonowaniu dochodzi do wielu manualnych oraz zautomatyzowanych działań, które pozwalają na odkrywanie i eksploatację różnorodnych czynników rankingowych. Przykładem może być możliwość przechwycenia autorytetu obcej domeny za pomocą mapy strony – polecamy wpis o tym odkryciu:
Jak często firma Google przyznaje się do błędów w wyszukiwarce i dlaczego nigdy? Ostatnią część pytania można już wykreślić: w marcu 2018, po raz pierwszy przyznano 5000$ w programie nagradzania łowców błędów za lukę bezpośrednio wpływającą na kolejność wyników wyszukiwania. Jej mechanizm jest naprawdę spektakularny, a dodatkowo potwierdza szerokie znaczenie autorytetu domen w wynikach wyszukiwania.
Jeśli spróbujesz wpisać do wyszukiwarki jakiekolwiek zapytanie związane z pozycjonowaniem, z pewnością otrzymasz całą menażerię artykułów na temat pozycjonowania. To konsekwencja oczywistego sprzężenia zwrotnego: osoby zajmujące się pozycjonowaniem często same również piszą o pozycjonowaniu, a napisane treści próbują pozycjonować. Temu sprzężeniu podlega także czytany przez Ciebie artykuł. Podobnie jak wiele innych tekstów, podejmuje temat już wielokrotnie opisany i zawsze przy czytaniu na ekranie należy zadać sobie pytanie – na ile mogę ufać temu co czytam? Wbrew pozorom, to fascynujące zagadnienie, które sięga do naprawdę głębokich pokładów obsługi internetu, a kończy się nawet na zasadach działania mózgu.
Dłuższa dygresja: Żyjemy w erze przeładowania informacjami. Mamy te same mózgi, które 500 czy 1000 lat temu służyły do przetworzenia trzech rzeczy dziennie (jedzenie, fizyczna praca, relacja z rodziną), dzisiaj służą do setek rzeczy dziennie (zakupy, transport, często umysłowa praca, setki wiadomości, relacje z wieloma znajomymi, hobby, wydarzenia, plany, podatki itd.). Według badaczy pracy ludzkich mózgów, już w XX wieku dotarliśmy do kresu naszych możliwości, a XXI przyniósł tak ewidentne przeciążenie, że gubimy się nawet w najprostszej, krytycznej ocenie rzeczywistości. Odbiciem jest współczesny internet, w którym za główne źródło wiedzy uchodzi Wikipedia, będąca w istocie bardzo zubożoną wersją jakiejkolwiek papierowej encyklopedii.
W niektórych kręgach można się spotkać z oburzeniem na krytykę Wikipedii. Zazwyczaj taka reakcja nie ma żadnego merytorycznego uzasadnienia. W praktyce wolna internetowa encyklopedia bardzo istotnie odbiega od recenzowanych wydawnictw papierowych pod niemal każdym aspektem. Encyklopedie PWN (dostępne również w internecie) prezentują znacznie dokładniejsze i przede wszystkim jasne definicje. Rozwijanie haseł z krótkich form do długich artykułów sprawia, że w tekstach kumulują się liczne błędy, twierdzenia niepoparte źródłami, a same traktowanie o tematach istotnie odbiega od przystępności i poprawności merytorycznej podręczników akademickich (a nawet licealnych). W końcu również, co paradoksalne, Wikipedia jest często znacznie mniej aktualna niż papierowe wydawnictwa, ponieważ te są celowo systematycznie aktualizowane i wydawane na nowo, podczas gdy w Wikipedii wielokrotnie można trafić na nieaktualne źródła wstawione wiele lat temu. Idea stojąca za wolną encyklopedią była świetnym pomysłem, ale niestety zawiodła realizacja.
W tych warunkach zrozumienie wiarygodności czytanego w internecie tekstu jest niestety praco- i czasochłonne – krótko mówiąc: bolesne. Wiedza opisywana w internetowym tekście zazwyczaj jest miksem dwóch źródeł, tj. własnego doświadczenia oraz obcych doświadczeń. Doświadczenie autora można ocenić weryfikując podpis („bio”) pod artykułem, a także sprawdzając czym jest strona, jak długo istnieje, jak opisuje swoje miejsce i cel w zakładce „o nas” (przykład dla tego artykułu – autor jest Head of SEO w agencji SEM istniejącej na rynku od 2011 roku). Obce doświadczenia powinny być podlinkowanymi źródłami (przykład dla tego artykułu – zawsze uźródłowione cytaty), ale stosunkowo często internetowi autorzy stronią od linkowania, a nawet powoływania się na źródła inspiracji. (Nie jest to dziwne w polskim internecie, ponieważ wiele treści to bezpośrednie lub zawoalowane tłumaczenia angielskich tekstów, a ich wskazanie jako źródło byłoby przyznaniem się do pożyczenia cudzej pracy. Zresztą w ten sposób, na tłumaczach, swoją potęgę zbudowała przynajmniej część z największych polskich portali.)
Bardzo przydatne jest również przejrzenie historii publikacji danego autora (przykład dla tego artykułu – ponad 50 wpisów dostępnych na blogu). Ilość i jakość poprzednich artykułów jest zazwyczaj wykładnią aktualnego poziomu, stąd ocenę wiarygodności treści w danej dziedzinie często można nabyć dopiero po wielu godzinach spędzonych na czytaniu różnych autorów i wypracowaniu osobistej opinii na ich temat.
Dodatkową, ważną kwestią jest zwykła weryfikacja faktów przedstawionych w treści. W ten sposób można podważyć m.in. wszystkie listy czynników rankingowych oparte o korelacje. Jedną z nich, firmy Backlinko, zdecydowanie skrytykowaliśmy na łamach bloga z powodów całkowicie matematycznych:
Autorzy wylosowali milion zapytań, pobrali dla nich TOP10 i następnie z tego wylosowali milion podstron do właściwej analizy. Celem miało być znalezienie korelacji. Czy zostały znalezione? Przezornie na samym końcu dokumentu zostały podane współczynniki korelacji Spearmana, być może z nadzieją że nikt do nich nie dotrze. Niestety nawet najwyższy współczynnik, zgodnie z autorami “ekstremalnie ważny” i “silnie skorelowany”, wyniósł 0.20 co statystycznie jest najwyżej słabą korelacją (a w praktyce ciężko tu mówić o jakimkolwiek związku). Dla porównania taka sama korelacja łączy pacjentów szczepiących się przeciw grypie i udających się na badania ginekologiczne.
W kontekście pozycjonowania z pewnością nie można polecić ufania przypadkowym, „pierwszym lepszym” artykułom znalezionym w wyszukiwarce. Według naszego wieloletniego śledzenia branżowych stron, warte uwagi są poniższe serwisy:
Podobnie jak w przypadku każdego innego tekstu w internecie, również w ich przypadku należy weryfikować czytane treści. Nie gwarantujemy utrzymania jakości, ponadto niektóre z tych portali są tworzone przez więcej niż jednego autora, przez co artykuły mogą mieć różną wartość merytoryczną. Tym nie mniej, zainteresowanie pozycjonowaniem warto kultywować z powyższą listą.
Pierwsze firmy SEO powstały jeszcze zanim istniała wyszukiwarka Google – operowały na innych znanych wyszukiwarkach, co ze zdziwieniem stwierdza oryginalna publikacja dotycząca architektury wyszukiwarki Google z 1998 roku:
Istnieje nawet wiele firm, które specjalizują się w manipulacji wyszukiwarek w celu zysku.
Przez lata konkurencji pomiędzy pozycjonowanymi domenami, firmami pozycjonującymi i korporacją Google, doszło do wielu przemian branży SEO. Każda aktualizacja algorytmiczna przedstawiona powyżej w burzliwej historii oceny treści oraz linków, z praktycznej perspektywy oznaczała spadki pozycjonowanych domen, rezygnacje ze współpracy i tym samym zwężanie się grona firm istniejących na rynku. W ostatnich latach towarzyszy temu trend despecjalizacji, w którym firmy pozycjonujące utworzyły działy dotyczące PPC, a także włączyły do oferty inne usługi – dotyczące technicznych (na przykład UX, administracja stronami) i nietechnicznych (na przykład social media, kampanie wizerunkowe) aspektów marketingu.
Prowadzenie pozycjonowania jest całkowicie internetową aktywnością, stąd teoretycznie wystarczą tylko trzy elementy by włączyć się do branży SEO: komputer, internet, strona internetowa. Z tego powodu wielu specjalistów pozycjonowania zaczynało od samodzielnej nauki, zaangażowanego specjalistę cechuje samodzielne doskonalenie po godzinach, a ponadto częstą sytuacją jest wykorzystywanie swoich umiejętności w zakresie prywatnym lub w dodatkowej działalności gospodarczej.
Z perspektywy właściciela strony internetowej, do pozycjonowania można się włączyć na jeden z czterech sposobów:
Organizacja | Zalety | Wady |
Samodzielne pozycjonowanie | + Głównym kosztem jest własny czas pracy. + Pełna odpowiedzialność i kontrola. + Rozwój własnych umiejętności. | – Głównym kosztem jest własny czas pracy. – Niskie tempo rozwoju, brak wymiany doświadczeń. – Niedostępna szersza infrastruktura. |
Kontrakt z freelancerem | + Indywidualna współpraca. + Elastyczność działań. + Różnorodne warunki współpracy. | – Zależność od jednego specjalisty. – Ograniczenia czasowe i infrastrukturalne. – Brak kompleksowej obsługi. |
Usługa agencji | + Wielu specjalistów i ich skumulowane doświadczenie w jednym miejscu. + Skorzystanie z szerszej infrastruktury i wiedzy, a także innych działów (np. PPC). + Wszystkie zalety pełnej współpracy B2B. | – Mniej elastyczne formy współpracy. – Relatywnie wysoki koszt obsługi. – Określona ilość godzin poświęcona na SEO jednej domeny. |
Dział inhouse | + Pełna kontrola nad wyborem specjalistów i ich dzianiami. + Codzienna obecność specjalistów na miejscu. + Dostępność przez pełny zakres etatu. | – Wysoki koszt: zatrudnienia, narzędzi, wdrożeń. – Długi czas budowy działu oraz uzyskania efektów. – Brak wymiany doświadczeń w pracy nad innymi domenami. |
Biorąc pod uwagę wszystkie zalety i wady, najczęstszym sposobem realizacji pozycjonowania jest współpraca z agencją. Aktualnie w Polsce istnieje co najmniej kilkadziesiąt agencji prowadzących usługę pozycjonowania, które udostępniają oferty sięgające od pojedynczych konsultacji przez indywidualizowane procesy aż po ustandaryzowane pakiety pozycjonowania.
SEO jest istotną częścią SEM, a SEM jest istotną częścią marketingu dla stron internetowych. Można to streścić diagramami Venna:
Kluczowe słowo to „część”. Pozycjonowanie nigdy nie powinno stanowić całego marketingu, a tylko i ażjego część – obok PPC, social media, a także klasycznych kampanii marketingowych. Wynika to z wspomnianego efektu synergii, gdzie kanały wzajemnie wspierają pozyskiwanie ruchu na stronę.
Wszelkie działania marketingowe, oprócz korzyści wizerunkowych, zaledwie doprowadzają użytkowników internetu na stronę. Ich dalsze losy zależą nie tylko od estetyki i budowy strony, ale przede wszystkim od jakości usług/treści, cen na tle konkurencji, obsługi potencjalnego klienta, dostępności oferty, rozpoznawalności marki i wielu innych biznesowych parametrów.
Jeśli będziemy na pierwszym miejscu na określone słowo kluczowe, a pod nami będzie wyświetlał się bardziej znany konkurent, to większość użytkowników skorzysta z jego oferty. Użytkownicy, którzy jednak skorzystają z naszej oferty, będą stopniowo budowali naszą markę. W miarę jej wzrostu, klienci coraz mniej będą bali się dokonywać zakupu w naszym sklepie. Procent osób wybierających naszą ofertę będzie więc coraz większy. Ze wzrostem rozpoznawalności marki wzrośnie więc „skuteczność” pozycjonowania. Pomimo, że tak naprawdę strona nadal wyświetla się na tej samej pozycji.
Jeśli nasze ceny, obsługa klienta czy oferta nie będą atrakcyjne na tle konkurencji, to klienci również pomimo wysokich pozycji będą decydowali się na konkurencyjne podmioty. Podejmując więc działania długofalowe, do których niewątpliwie możemy zaliczyć pozycjonowanie, musimy być świadomi, że jego efektywność zależy nie tylko od agencji SEO, ale również od nas samych.
Połączenie wyszukiwarki – strony jest nierozerwalne, istnieje od pierwszych wyszukiwarek internetowych na świecie i będzie istnieć dopóki sercem internetu pozostają strony. Nawet po przeniesieniu się do wyszukiwarek poszczególnych megaportali, takich jak Amazon czy Facebook, można oczekiwać rozwoju pozycjonowania powiązanego z kolejnością wyszukiwania w tych serwisach.
Niniejszy poradnik to zaledwie wstęp do złożonego świata SEO. Przedstawione w nim stanowiska i porady są możliwie najbardziej uniwersalne, choć nie mamy wątpliwości, że będą wymagane coroczne aktualizacje treści. Zachęcamy do dalszego zgłębiania tematu na naszym blogu, wskazanych serwisach z artykułami, a także we współpracy z firmami pozycjonującymi.
Skontaktuj się z doradcą i powierz pozycjonowanie strony specjalistom.