Dlaczego linki wychodzące podnoszą pozycje, choć John Mueller temu przeczy? Sieci neuronowe w tle...

Pamiętacie test udowadniający, że Google wyżej ceni strony linkujące uczelnie i instytuty? Zapowiedzieliśmy tam replikację testu oraz kolejne etapy. Po miesiącu wewnętrznych prac możemy już potwierdzić: faktycznie, nawet linkowanie do Warszawskiego Uniwersytetu Medycznego daje minimalną przewagę nad stronami, które nie mają linków wychodzących. Potwierdziła to najpewniejsza metoda eksperymentalna czyli „zmień i obserwuj”, której brak zarzucaliśmy autorom oryginalnego badania. W trakcie wewnętrznych testów okazało się, że dodanie linka wychodzącego najczęściej skutkuje wzrostem pozycji od razu po zaindeksowaniu zmiany (świeży cache), oczywiście w izolowanym zapytaniu i względem odpowiedników bez linków wychodzących. Jest to na pewno ciekawy wątek który będziemy rozwijać (gdzie znajduje się granica rzetelności? czy link do Wikipedii jeszcze daje plusa czy już nie? co z nofollow? czy kilka linków daje większego kopa? jak wiele daje to w stosunku do innych elementów optymalizacji? itd.). Zanim jednak ktoś się rozpędzi z zaufaniem już dwóm niezależnym testom, przychodzi pracownik Google John Mueller i stwierdza:

Z naszego punktu widzenia, linki wychodzące nie są dokładnie czynnikiem rankingowym. Ale mogą wnosić wartość do twojej treści i to może się nam przydać w wyszukiwarce.

To jak to w końcu jest?

Drugie zdanie można różnie interpretować, ale wnioski z naszych testów narzucają jednoznaczne spojrzenie. Treść strony ta sama, fragment zdania „Warszawski Uniwersytet Medyczny” został podlinkowany i strona skoczyła z ostatniej pozycji na drugą pozycję w wynikach wyszukiwania na eksperymentalne zapytanie. Ba, widząc wynik podlinkowaliśmy Uniwersytet Adama Mickiewicza na stronie Klienta, który wymienia swoje wykształcenie. Efektem był wzrost z 4 na 3 pozycji – nieistotny gdyby nie fakt, że chodzi tu o zapytanie „adwokat miejscowość”… Czy tu została wniesiona jakakolwiek wartość zgodnie z propozycją Johna Muellera? Absolutnie żadna.

Stąd: John Mueller swoje, a algorytmy wyszukiwarki swoje. Pracownik Google, który na niektórych stronach jest wyrocznią w kwestii algorytmów, de facto nie wie co biorą pod uwagę.

To byłby niewarty artykułu fakt, gdyby nie dość złożona i interesująca przyczyna…

Google rozumie jak RankBrain działa, ale tak naprawdę nie wie co robi.

Zgadzam się, że trudno jest pojąć model składający się z milionów parametrów. Z pewnością nie możemy tego zrozumieć przez kontrolę każdego indywidualnego czynnika.

Okazuje się, że to nie jest kwestia Johna, ale poważna konsekwencja szerokiego stosowania uczących się algorytmów. Google przechodzi na AI, w wyniku czego przestaje rozumieć swoje algorytmy.

Skynet? Nie, raczej self-driving (& crashing) car

Nie dalej jak 2 miesiące temu firma Google po raz pierwszy przyznała się, że ich autonomiczny samochód spowodował wypadek. Zbiegło się to w czasie z ogłoszeniem nowego szefa działu wyszukiwania – został nim John Giannandrea, ekspert od sztucznej inteligencji i uczenia maszynowego. W marcu świat obiegła wiadomość o tym, że pierwszy raz mistrz Go został pokonany przez algorytm – dokonał tego DeepMind ze stajni, a jakże!, Google. To wydarzenia zaledwie z dwóch ostatnich miesięcy. Trend w kierunku AI to mało powiedziane!

Przełożenie na SEO widać już teraz:

  • Google nie kontroluje każdego parametru indywidualnie, dzięki czemu powoli możemy zapominać o listach 200 czy nawet 10 000 czynników. W kontekście uczenia maszynowego nie tylko same czynniki rankingowe są/będą płynne – pracownicy Google potwierdzają, że znaczenie tych czynników jest dynamicznie dostosowywane!
  • W styczniu usłyszeliśmy: Panda została włączona do głównego algorytmu, nie będzie ręcznie uruchamiana. Dokładnie tego można oczekiwać po zwrocie w kierunku algorytmów uczących się, czyli metamorfozy sztywnych czynników na jeden z wielu bardziej autonomicznych i mniej kontrolowanych parametrów.
  • Zamiast emocji związanych z Pingwinem i innymi nazwami, coraz częściej słyszymy o enigmatycznych quality update lub phantom update. Poprawki licznych parametrów czy zmiany w ich ważeniu już ciężko tak ładnie streścić jak jeszcze kilka lat temu Pandę udało się zmieścić w 23 pytaniach. Między innymi dlatego, że inżynierzy Google z założenia nie śledzą każdego pojedynczego punktu w sieciach neuronowych ustalających kolejność wyników wyszukiwania.

Wracając do przykładu autonomicznego samochodu, pierwszy logiczny wniosek jaki się nasuwa to większa nieprzewidywalność pozycjonowania. Wsiadamy do pociągu, który przestaje jeździć według zaprojektowanych przez człowieka rozkładów i tras, a zaczyna być zmiennym, w zamierzeniu uczącym się organizmem.

Algorytmy uczące się vs. rzeczywistość i SEO

W dziedzinie maszynowego uczenia panuje bardzo duże bogactwo metod i sposobów. W zasadzie są tylko dwie ważne cechy wspólne dla wszystkich rozwiązań: konieczność uczenia z udziałem człowieka oraz niepewność wyniku. Nie ma sensu rozwodzić się nad szczegółami działania danych algorytmów czy nawet zrównywania ich z sieciami neuronowymi, ponieważ nie wiemy jak zostało to wdrożone w wyszukiwarce Google. Wiemy jednak, że tak jak w każdym uczonym algorytmie, liczą się otrzymane dane i zwrócony wynik. To co dzieje się pomiędzy nie jest dokładnie śledzone – to w głównej mierze black box (polska „czarna skrzynka” jest znana z lotnictwa, a chodzi tu o zupełnie inne znaczenie: ukryty mechanizm). Zresztą takie jest założenie tego typu algorytmów – nie wiemy co dokładnie dzieje się w środku, nie przeszkadzamy im w stworzeniu tysięcy punktów i połączeń, dzięki czemu są tak skuteczne.

Jednak dzięki temu widzą wzorce tam gdzie ich nie ma:

DeepFace od Facebooka rozpoznaje 97% twarzy. Więcej o nim.

I tutaj można wrócić do przykładu ze wstępu stawiając hipotezę: algorytmy oceniające jakość treści dostrzegły, że na wartościowych stronach często znajdują się linki do innych rzetelnych stron. Podobny mechanizm ma wiele lat, bo z jednej strony analogicznie oceniany jest dorobek naukowców, a z drugiej leży u podstaw PageRanka. Jednak w tym przypadku konsekwencje są odwrotne – to linkujący jest nagradzany.

Czy to logiczny i uzasadniony czynnik, który mógłby wymyślić człowiek? Raczej nie. Najbardziej wartościowe strony często nie linkują ponieważ same są źródłem, wiele dobrej jakości treści podaje poważne źródła pisane a nie linki, poza tym dość łatwo ten czynnik wykorzystać wbrew zamysłowi. Być może mamy więc do czynienia z elementem, które AI uznało za warty premiowania wzorzec.

Harry Potter i insygnia wzorców

O słynnych wzorcach mówi się od wielu lat. W tej chwili zaczyna to nabierać nowego kontekstu. O ile do tej pory mantrą było unikanie powielania schematów i wzorców w linkowaniu, tak teraz do tego powoli dołącza zdecydowanie bardziej finezyjne – ale i ciekawsze! – wirtualne siłowanie się na rękę z Googlowskim AI. Raczej każdy się zgodzi, że gros aktualnego SEO polega na wykorzystywaniu mniej więcej znanych i stałych algorytmów, które uwielbiają linki i treść. Jednak trendy, tendencje i ruchy w korporacji Google wskazują, że kolejność w wynikach wyszukiwania coraz częściej będzie ustalać niewidzialna i nie za bardzo znana sieć neuronowa, zamiast logicznego, przemyślanego algorytmu.

To prawdopodobnie już owocuje różnymi kwiatkami. Jak chociażby wspomniany we wstępie bonus za linkowanie do uczelni. Na razie ten bonus jest niewielki, ale przecież rola algorytmów uczących się ma rosnąć. Czy SEO ze sztuki wykorzystywania znanych od dłuższego czasu czynników zacznie ewoluować w ciągłe poszukiwania bocznych ścieżek w sieciach neuronowych?

Wiele osób mówi, że Google zmieniło reguły. To prawda, z pewnością trzeba delikatniej niż kilka lat temu obchodzić się z linkami i nie przesadzać z optymalizacją. Jednak istotne zmiany dopiero przed nami. Być może już niedługo, w końcu od 60 dni szefem działu wyszukiwarki Google jest człowiek, który całą swoją karierę dedykuje rozwijaniu AI.

Inspiracja merytoryczna: New Scientist. Zalinkowane źródła: Seroundtable.com, Twitter.com, Norvig.com, NewScientist.com, TheSemPost.com, Research.facebook.com, Searengineland.com, Seo-theory.com. Źródła grafik: Foxnews.com, Seroundtable.com, CBSNews.com, Oddee.com, Shockwaveriderblog.wordpress.com.

Komentarze: 8

  • DMati

    DMati

    Odpowiedz

    Czyli koniec twardych reguł i słuchania dotąd nieomylnej wyroczni, czas na kreatywność i trzymanie kciuków? ;D

  • Damian

    Damian

    Odpowiedz

    Jedna jaskółka wiosny nie czyni.
    Dobrze by było wykonać test z większą ilością linków wychodzących na kilku podstronach do różnych witryn i sprawdzić efekty. Jeden link wychodzący do uczelni to chyba trochę mało. Skok o jedną pozycję niekoniecznie musi oznaczać wzrost naszej witryny, może to być równie dobrze spadek kogoś kto był przed nami.

    • Rafał Grochala

      Rafał Grochala

      Odpowiedz

      Oczywiście, przykład adwokata sam w sobie nie jest żadnym eksperymentem czy dowodem, ponieważ nie eksperymentujemy na Klientach. To przykład wdrożenia tego co wynieśliśmy z testów. W samych testach istotność statystyczna jest nomen omen niezwykle istotna. Dlatego przeprowadzamy je na kilku grupach, wielu domenach, różnych niezależnych zapytaniach jednocześnie i dwoma metodami (bierna i aktywna obserwacja). W tym przypadku jest jeszcze dostęp do niezależnego testu firmy Reboot. Tu nie dzielimy się „jedną jaskółką” tylko ciekawą, wielokrotnie potwierdzoną regułą.

  • kreatiad

    kreatiad

    Odpowiedz

    Bardzo ciekawe tezy i wnioski. Fakt, że Google zmierza ku AI jest niezaprzeczalny, to widać choćby nawet w ustalaniu kontekstu zapytania użytkownika. Nie wnikam w kwestie czy to zmierza w dobrym kierunku, jednakże od kilku lat wyniki Google są naprawdę dobre, pozbawione niskiej jakości treści na jakie jeszcze wcześniej można było się natknąć.

  • Paweł

    Paweł

    Odpowiedz

    To znaczy ze w końcu z branży seo wyskoczą ci wszyscy „znafcy” algorytmu i czarodzieje? Ciekaw jestem ile stron teraz będzie sie prześcigać w linkowaniu do uczelni…:)

  • Matt

    Matt

    Odpowiedz

    Samo linkowanie zewnętrzne ma sens, jakiś tekst oparty o mocne źródło lub odwołanie do niego wzbudza autentyczność u czytelnika a więc i u robota

  • Zgred

    Zgred

    Odpowiedz

    Ciekawe podejście. Tym bardziej pokazuje że warto dywersyfikowac podejście do serwisu

  • Kamil

    Kamil

    Odpowiedz

    To dopiero początek, taki Tay od Microsoft pokazał na Twitterze, że jeszcze za wcześnie na AI

Skomentuj

Twój email nie zostanie upubliczniony. Wymagane pola zostały oznaczone *
Możesz używać następujących tagów HTML: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>