Gorąco zachęcam do zapoznania się z oryginałem: Study: Outgoing links used as ranking signal (Badanie: Linki wychodzące są czynnikiem rankingowym).
Z uwagi na niecierpliwą naturę internetu (TLDR!), zacznę od końca czyli od wniosków. Test klarownie wykazał, że linkowanie do stron wysokiej jakości jest wyżej oceniane niż brak linków wychodzących. Specyficzniej rzecz biorąc, jeśli linkujesz do Uniwersytetu w Oxfordzie, Uniwersystetu w Cambridge i Instytutu Badań nad Ludzkim Genomem to ucieczka ciurkiem PageRanka (słynny PageRank link juice) nie następuje lub jest równoważona. Najprawdopodobniej ma to związek z wielokrotnie anonsowaną oceną jakości i wiarygodności treści. Skoro ktoś linkuje do porządnych źródeł, jego artykuł jest bardziej wiarygodny niż niczym nie poparty tekst – brzmi to logicznie i było sugerowane przez wiele osób. Pracownicy Reboot potwierdzili to twardymi danymi.
Po szczegółowe szczegóły odsyłam do oryginału. Tutaj pochwalę i zreferuję całkiem zgrabną metodę. Eksperyment oparł się o 10 nowych domen, na których pojawiły się podobne teksty z dwoma wymyślonymi słowami brzmiącymi jak nazwy leków (Phylandocic i Ancludixis). Wcześniej nie było najmniejszej wzmianki o tych wyrazach w internecie. Domeny zostały podzielone na dwie grupy, które różniły się tylko jednym elementem: linki wychodzące były obecne lub nie były obecne. Następnie w tym samym momencie domeny zostały dodane do indeksowania i po kilku tygodniach wynik był jasny – w wynikach wyszukiwania na oba wymyślone słowa wyżej znalazły się domeny linkujące do stron wysokiej jakości.
Jakość metody docenia się dopiero próbując ją podważyć. Więc spróbujmy:
- Różnice w historii domen? Nie, domeny były kupione w tym samym momencie, składają się z 10 losowych znaków, a każda ma tą samą końcówkę co.uk.
- Wpływ tych samych IP? Nie, każda domena kierowała do innego IP.
- Wpływ zewnętrznych stron? Nie, nikt inny nie był obecny na te zapytania.
- Wpływ CTR i tym podobnych? Nie, autorzy twierdzą że nie klikali w te wyniki wyszukiwania.
- Wpływ aktualizacji algorytmów? Nie, test trwał aż 21 tygodni.
- Różnice w wyglądzie i kodzie? Nie, kod był niemal ten sam pod każdą domeną, a wygląd podobny w każdej.
- Różnice w tekstach? Nie, każdy miał taką samą ilość wyrazów i był pisany przez zewnętrznego copywritera.
- Różnice w anchorach? Nie, jeden z wyrazów nie był anchorem linku wychodzącego i wynik był taki sam jak dla tego, który był anchorem.
- Różnice w wymienianiu źródeł? Nie, w tekstach bez linków wychodzących uniwersytety i instytut również są wymienione.
- Chęć ustawienia wyników? Nie, tu można przytoczyć wiele zabezpieczeń, chociażby tworzenie i indeksowanie stron w kolejności pierwsza grupa – druga grupa – pierwsza grupa – druga grupa itd.
- Utajnione dane? Nie, wyrazy i domeny są dostępne dla każdego (wpiszcie „Phylandocic” w Google!).
- Przypadek? Nie, każda grupa to 5 domen, test był prowadzony dla dwóch zapytań, a wyniki wszędzie są zgodne z grupami i postawioną hipotezą.
Mamy tu izolację, działanie i interpretację typową dla dobrego eksperymentu. Zabrakło tylko jednego: powtarzalności. Eksperyment ma klarowny wynik, ale w tych warunkach aż żal, że autorzy nie pokusili się (po ustabilizowaniu pozycji) o próbę usunięcia linków z części domen na górze oraz dodania linków do części domen na dole. To klasyka, wręcz synonim eksperymentowania, który zamknąłby temat wiarygodności na cztery spusty. Bez tego – cóż, musimy jeszcze sami powtórzyć ten test dla całkowitej pewności…
…oraz dlatego, że użyta tu metoda jest obciążona jedną dużą wadą. Element został oceniony wyłącznie w kategoriach: wpływa lub nie wpływa. Udowodnił, że wpływa. Ale nie pokazał jaki ma stosunek jakościowy. Czy daje więcej niż …? A w miejsce trzech kropek można wstawić title, link przychodzący, H1, HTTPS i wiele innych czynników.
Źródło grafiki: rebootonline.com.



