Analiza nowych wytycznych Google

Wydarzenia wokół firmy Google nabrały solidnego tempa. Jeżeli ich nie śledziłeś bądź nie nadążyłeś, oto krótkie uszeregowanie: w maju dowiedzieliśmy się że działem spamu kieruje nowy człowiek, w czerwcu zaczęła się aktualizacja Pandy, w sierpniu wyszukiwarka weszła w skład holdingu Alphabet, we wrześniu padła zapowiedź tegorocznego Pingwina, a w październiku usłyszeliśmy o RankBrain. Tymczasem mamy listopad i Google (po raz pierwszy oficjalnie) opublikowało wytyczne, w których wyjaśnia…

Właśnie, to co zostało wyjaśnione jest już przedmiotem sporu na niektórych grupach facebookowych, blogach i forach. Z pewnością mamy do czynienia z dokumentem, który pochodzi z działu kontroli jakości. Pracownicy zgodnie z tymi wytycznymi oceniają jakość efektów działań firmy Google: wpływ zmian algorytmicznych na jakość wyników wyszukiwania, zgodność oceny algorytmicznej z oceną ludzką, wpływ eksperymentalnych czy jeszcze niewdrożonych zmian na testowe wyniki. Oczywiście nikt nie przeprowadza tego procesu w całości, wytyczne są kierowane do walidatora który jest odpowiedzialny tylko za niezależny ludzki pierwiastek kontroli jakości. Sama ocena walidatora, według słów firmy, nie wprowadza bezpośrednich zmian a jest po prostu miernikiem czy działania podążają w dobrą stronę.

Czy to znaczy, że dokument jest mało wartościowy? Nie! Tak bowiem został streszczony przez pracownika Google na firmowym blogu:

Wytyczne oddają nasze wyobrażenia o tym czego chcą użytkownicy.

Poniżej pierwsze wnioski wraz z opracowaniem najistotniejszych elementów. Wszystko zostało opatrzone klauzulą „poufne i zastrzeżone”, stąd nie pojawią się tutaj żadne zrzuty z oryginału.

Jakich stron Google chce?
Tudzież: co myśli Google na temat tego jakich stron chcą internauci

Pierwsza (i moim zdaniem najważniejsza dla pozycjonerów) część porusza ocenę jakości podstrony. Google symuluje tutaj typowy scenariusz: użytkownik klika w link w wynikach wyszukiwania i trafia na podstronę, a zadaniem walidatora jest ocena podstrony. Zamiast banalnych pytań wylistowanych kilka lat temu przy okazji wprowadzenia algorytmu Panda (tutaj przetłumaczone), mamy konkretny mechanizm oceny w 10-stopniowej skali od najniższej do najwyższej jakości.

Podstawą do oceny jest pytanie: w jakim celu powstała ta podstrona i cała witryna?
Im lepiej realizuje ten cel tym wyższa ocena jakości.

Przykładowe cele:

  • podzielenie się przemyśleniami
  • opis usługi firmowej
  • logowanie do usługi
  • prezentacja danych kontaktowych
  • umożliwienie wyliczenia raty
  • wyświetlanie odnośników do wpisów

Brak celu lub szkodliwy cel oznacza najniższą możliwą ocenę jakości.

Szczególnie traktowane są strony, których cel zahacza o YMYL czyli westernowski „Your Money or Your Life”. To portale, które powinny budzić większe zaufanie niż typowa strona w internecie. Wśród przykładów wymienione są nie tylko sklepy, banki i pośrednicy płatności, ale także witryny o tematyce finansowej, medycznej, prawnej czy poruszające bezpieczeństwo. W ich przypadku recenzenci w Google muszą stosować zaostrzoną ocenę jakości. Sprawdzana jest obecność dokładnych danych kontaktowych i firmowych, a także regulaminów.

Główna treść

Po zrozumieniu celu (w tym miejscu dokument proponuje też zapoznanie się ze wszystkimi podstronami „O nas” i „O portalu”, aby dokładnie to zrozumieć) walidator odnajduje w badanej podstronie główną treść, która ściśle realizuje cel. Przykładowo celem podstrony, na której jesteś jest prezentacja zagadnień związanych z SEO, a główna treść to tytuł wpisu i jego słowa (na jasno w powyższym przykładzie). Może to być też formularz logowania, formularz kontaktowy, kalkulator raty, film, slider z artykułami itd.

W zasadzie nie padają szczegóły na temat samej oceny tego elementu. Firma Google nieprzypadkowo zatrudnia do tego zadania zewnętrznych recenzentów – zależy jej na subiektywnej ocenie jakości tekstów, formularzów i innych. Co udało mi się wysupłać z poszczególnych przykładów, to fakt że preferowane jest patrzenie nie tylko na samą wartość treści, ale też na satysfakcjonującą ilość i długość. Poza tym w przykładach kiepskich tekstów dominują te z widocznymi błędami językowymi, składające się z samych banalnych twierdzeń, niepotrzebnie rozwleczone, a także kopiowane z innych źródeł. Szczególnie ostatni element jest surowo traktowany. Wielokrotnie pada stwierdzenie, że treść skopiowana z zewnątrz prawie zawsze równa się najniższej ocenie jakości – nawet gdy to tylko przedruk z podanym źródłem.

Treść dodatkowa

Obok głównej, zazwyczaj znajdują się dodatkowe treści takie jak nawigacja, stopka, widgety i tym podobne. Nie mają ścisłego związku z realizacją celu. Wytyczne kładą nacisk na to by te dodatki przede wszystkim nie odwracały uwagi od głównej treści. Dokładnie jest napisane, że główna treść powinna być w centrum, widoczna od razu po otworzeniu podstrony. Brak dodatkowych treści jest źle oceniany tylko na stronach z kategorii YMYL, natomiast w pozostałych może być nieobecna lub obecna, a najważniejsze jest by nie przeszkadzała.

Reklamy

Tutaj sprawa jest prosta i raczej zgadzają się z nią wszyscy użytkownicy internetu: reklamy nie wpływają na ocenę jeśli w niczym nie przeszkadzają. Natomiast gdy są rozpraszające, mają zakazane treści lub jest ich bardzo dużo, obniżają ocenę podstrony.

Cała witryna

Google nakazuje oceniać podstronę w kontekście całej witryny. Sprawdzane są trzy elementy.

1. EAT (tak, w Google uwielbiają akronimy) czyli ocena pod kątem znajomości tematu, autorytetu i wiarygodności. Zależnie od celu, recenzent stara się zweryfikować czy podmiot podpisany pod treścią lub odpowiedzialny za całą stronę ma odpowiednie kwalifikacje do poruszania danego tematu. Wytyczne podchodzą do tego dość ostrożnie, argumentując że nawet przeciętny człowiek może być ekspertem od raka jeżeli obcował z osobą, która na to chorowała i dzieli się takimi informacjami jak długość życia czy rodzaje stosowanej terapii. Dlatego to dość subiektywna ocena, która wnosi najważniejszy pierwiastek ludzki, zaraz obok oceny głównej treści.

2. Reputacja, opinie o firmie, autorze lub samej stronie w internecie. Zazwyczaj tylko przy większych markach czy szerzej działających firmach. W większości przypadków walidator nie znajduje odpowiedniej ilości opinii i wtedy ten punkt jest pomijany.

3. Ogólna dbałość o stronę. Strony porzucone lub zaniedbane są niżej oceniane. Wytyczne radzą by rozpoznać to przez przeklikiwanie się po stronie: powinny działać wszystkie linki i grafiki, a jeśli wymaga tego formuła strony to treści muszą być aktualne/uzupełniane. Pada wyraźne stwierdzenie, że w portalach informacyjnych stare wiadomości są normalne i nie szkodzą, ale już brak aktualności na stronie głównej jest negatywnie odbierany – to szpilka w oko tych, którzy uważają że usuwanie starych treści jest dobrą praktyką.

Co ważne, w wytycznych zakazana jest ocena samego wyglądu strony. Dla firmy Google, przynajmniej w tym dokumencie, nie ma on najmniejszego znaczenia jeśli jest funkcjonalny. Nawet strony składające się wyłącznie z tekstu pisanego dwunastką w Times New Roman mogą otrzymać najwyższą ocenę jakości.

Przykład strony, która zgodnie z wytycznymi ma funkcjonalny i poprawny wygląd:

Jakich wyników Google chce?
Tudzież: co myśli Google na temat tego jakich wyników chcą internauci

Druga część dokumentu omawia jak Google chce rozumieć zapytania. Dzieli je na wiedzowe, zakupowe, produktowe, nawigacyjne i inne. Zgodnie z wykładnią firmy, wyświetlane wyniki powinny spełniać wyrażony w zapytaniu zamiar. Na pierwszych miejscach mają znaleźć się strony nie tylko najwyżej ocenione jakościowo, ale też najbliższe spełnieniu potrzeb użytkownika. Nie da się ukryć, że ta część jest dość banalna i rozumie to niemal każdy kto użył wyszukiwarki więcej niż kilka razy i słyszał o pojęciu konwersji. Zatem po szczegóły odsyłam do oryginału.

Co nowego?

Wytyczne wypływały już w poprzednich latach, więc sama ich obecność w sieci nie jest nowością. Nowa jest natomiast próba współpracy z twórcami stron i oficjalnie publiczne opublikowanie dokumentu na serwerach Google. Natomiast co zmieniło się w samej treści w stosunku do poprzednich wersji?

Przede wszystkim nastąpił zwrot w kierunku mobilności. Powstał nowy, dość duży rozdział o ocenie stron i wyników z urządzeń mobilnych. Większość przykładów ocen dotyczy tych z uwzględnieniem platform mniejszych od komputera. Wymieniane są typowe elementy takie jak łatwość wprowadzania danych czy rozmiary przycisków.

W kwestii zapytań pojawiły się dwa nowe rodzaje: proste zapytania wiedzowe i zapytania o specyficzną treść. W nich walidatorzy są proszeni by oceniać przede wszystkim boxy wyświetlane przez Google takie jak poniższy:

Dużo większy nacisk w stosunku do poprzedniej wersji został położony na lokalizację. Wiele przykładów (w tym większość mobilnych) porusza wyszukiwanie usług czy firm z uwzględnieniem lokalizacji szukającego. Pada dość istotne stwierdzenie, że nawet w przypadku ogólnych zapytań o usługi lub miejsca należy przyjąć że użytkownik szuka strony bliskiej firmy, a nie tej która znajduje się kilkaset kilometrów dalej.

To nie jest klucz do algorytmów, ale…

…ale zostaliśmy dość dokładnie, bo aż w 160-stronnicowym dokumencie, poinformowani czego Google chce. To rzadkość. Warto skorzystać z tej okazji, zachęcam do zapoznania się z oryginałem.

Zalinkowane źródła: Google.com, GoogleWebmasterCentral.blogspot.com, Nprofit.net, Seo-theory.com. Grafiki: Google.pl, GoogleWebmasterCentral.blogspot.com, Nprofit.pl, USNO.navy.mil.

Komentarze: 4

  • zeki

    zeki

    Odpowiedz

    Bez dobrej flaszki tego nie rozkmini :/ Szczerze powiem, że jakby człowiek chciał zajmować się wymysłami na bieżąco to by czasu na prowadzenie interesu nie miał. Panda, Pingwin inne bzdury. Mam responsywną stronę, a konkurencja nie – oni są w wynikach na komórkę pierwsi jak na kompie a ja nie. To co mi leszcze z google pierniczyć będą o konieczności posiadania strony mobilnej? Pewnie, że warto mieć RWD, ale nie z uwagi na wyniki bo ich algo działa albo i nie…

    Szczerze powiedziawszy to akurat na tej stronie mam więcej wejść z FB niż z organików google chociaż TOP5 okupuję od dawna. I tu chyba jest sedno tematu – dywersyfikacja źródeł pozyskiwania ruchu. Google w końcu zeżre swój własny ogon, a rynek przejmą inne szukajki (co powoli już się dzieje – klienci z binga już są choć na razie mało). Dobry fanpage wygeneruje nam ruch gdyby nagle jaśnie oświeconym przyszło do łbów wywalić nas z wyników… Do tego porządne zaplecze też generujące ruch i wio. Może z tym jest kupę roboty bo ogarnięcie zaplecza i social nie jest łatwe, ale pozycjonowanie w tej chwili też nie polega na zapuszczaniu automatów i generowaniu tekstów z synonimizatora. Jak już ponosić koszty marketingu to z głową.

  • Mateusz

    Mateusz

    Odpowiedz

    Zgadzam się z przedmówcą. Wytyczne są po to, żeby G miało mniej roboty przy walidacji stron. To jest na tej samej zasadzie jak z pozbywaniem się „złych” linków przez GWT – w sprytny sposób Google przerzuciło całą robotę na webmasterów, którzy utworzyli gigantyczną encyklopedię szkodliwych lokalizacji. Gdyby te całe wytyczne były naprawdę ważne, to połowa stron powinna wylecieć z indeksu.

  • Zgred

    Zgred

    Odpowiedz

    Ale to żadna nowość. Od dawna wiadomo, że jest tak jak piszą – teraz tylko to potwierdzili. Pytanie moje jest inne: jaki cel przyświeca temu że to dali publicznie ?! I co w najbliższym czasie się zmieni.

  • Kamil

    Kamil

    Odpowiedz

    Moim zdaniem publikacja tego dokumentu ma wskazać webmasterom/właścicielom stron, na co mają głównie zwrócić uwagę przy projektowaniu/rozwijaniu stron. Na przykład: mile widziany ” kontakt” „o mnie” czy „o nas” nie stosuje na wszystkich stronach. A jednak, ktoś na to zwraca uwagę.

Skomentuj

Twój email nie zostanie upubliczniony. Wymagane pola zostały oznaczone *
Możesz używać następujących tagów HTML: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>