Rozpoczynając karierę zawodową w branży SEO nie zawsze mamy świadomość tego, jak bardzo jest ona angażująca. Choć wydawałoby się, że główne składowe pozycjonowania: treści, linki i optymalizacja strony pozostają niezmienne, w dłuższej perspektywie okazuje się, że sprawa jest o wiele bardziej skomplikowana.
Owszem, linki, treści oraz optymalizacja strony pozostają niezmienne, natomiast na te elementy składają się inne czynniki, które co pewien czas powodują zamieszanie w świecie SEO. To z kolei zmusza nas do ciągłej analizy zmian, wykonywania testów i śledzenia nowinek udostępnianych zarówno przez innych specjalistów, jak i u źródła – pracowników firmy Google.
Jedną z takich osób jest John Mueller, Webmaster Trends Analyst w Google, który pełni również rolę „rzecznika” Google. To właśnie jego wypowiedzi najczęściej pojawiają się na Twitterze czy Hangoutach. Śledzenie ich powinno wejść w krew SEOwcom, ponieważ mogą okazać się dla nich cennym źródłem wiedzy. W ciągu ostatnich 12 miesięcy (marzec 2020 – marzec 2021) pojawiło się naprawdę wiele ciekawych nowinek, spośród których wybraliśmy kilkanaście najciekawszych i krótko omówiliśmy je w tym wpisie. Zostały podzielone na 3 sekcje: linki, treści oraz inne kwestie mogące mieć wpływ na pozycjonowanie.
Linki
1. Całkowita liczba linków i domen zwrotnych nie ma znaczenia
„I don’t think we differentiate like that in our systems. From my point of view, I would tend not to focus on the total number of links to your site, or the total number of domain links to your website, because we look at links in a very different way.”
John Mueller sugeruje, że zarówno liczba linków zwrotnych, jak i linków z unikalnych domen nie ma znaczenia, a sam profil linkowy oceniany jest pod kątem jakości tych linków. Co więcej, algorytmy mogą ignorować niektóre linki zwrotne.
„We try to understand what is relevant for a website, how much should we weigh these individual links, and the total number of links doesn’t matter at all. Because you could go off and create millions of links across millions of websites if you wanted to, and we could just ignore them all.”
Oczywiście zdajemy sobie sprawę, że 100 linków ze słabej jakości katalogu powinno przynieść gorszy efekt niż jeden link z popularnego serwisu informacyjnego, natomiast jak rozumieć kwestie „ignorowania linków”? Jakie linki powinniśmy pozyskiwać dla danej strony, aby nie były one pomijane podczas oceny? Na te pytania nie da się udzielić jednej odpowiedzi – każda strona jest traktowana indywidualnie i tylko dzięki testom na „żywym organizmie” możemy próbować wyciągać wnioski.
Źródło: https://www.youtube.com/watch?v=zCV6tEt3w0k&t=1629s
2. Kiedy link zwrotny zaczyna działać?
„The way that we process links is something that is continuous. So it’s not that we have to wait for a specific time frame to see the new effect of the links.
But rather when we see links on the web we can take them into account essentially immediately.”
Zgodnie z powyższym efekty pozyskania linków zwrotnych możemy zauważyć już w momencie odnalezienia ich przez roboty. Nasze doświadczenie pokazuje jednak, że na efekt, nawet po zaindeksowaniu odnośnika, trzeba poczekać. To dowodzi, że każde stanowisko prezentowane przez pracowników Google trzeba brać z „przymrużeniem oka”, o czym piszemy w podsumowaniu.
Źródło: https://www.youtube.com/watch?v=AK_lSVA6bcY&t=1284s
3. Czy link z czasem traci swoją wartość?
„So it’s not so much that the link itself is aging, but rather that the website where that link was has evolved. And over time that place where the link was is no longer as relevant as it used to be.”
W tym przypadku John Mueller jasno wypowiada się na temat wartości linków w czasie. Podkreśla, że nie wiek odnośnika decyduje o jego wartości, a sama kondycja strony odsyłającej. To prawda, że wraz z biegiem czasu artykuł z linkiem do naszej witryny może tracić wartość, może również zdarzyć się odwrotna sytuacja – odnośnik niegdyś niedoceniany, w pewnym momencie okaże się jednym z najbardziej wartościowych.
Wniosek, jaki powinniśmy wyciągnąć z tej lekcji, jest na pewno taki, że samo pozyskanie odnośnika nie wystarczy – istotne jest dalsze dbanie o to, aby strona, na której taki link się znajduje, była wartościowa dla użytkowników, a tym samym dla robotów indeksujących.
Źródło: https://www.youtube.com/watch?v=mc2cvOh-GGU&t=608s
4. Jak Google traktuje odnośniki, w których anchor tekstem jest adres url?
„So, in that situation we treat that URL as the anchor text.
From what I understand, our systems do try to recognize this and say well, this is just a URL that is linked, it’s not that there’s a valuable anchor here.
So we can take this into account as a link but we can’t really use that anchor text for anything in particular.
So from that point of view it’s a normal link but we don’t have any context there.”
Z wypowiedzi Johna Muellera wynika, że stosowanie tzw. nagich linków jest zdecydowanie mniej klarowne dla googlebota niż wykorzystanie słowa kluczowego. Na pytanie, czy tekst otaczający odnośnik jest w stanie pomóc robotom Google lepiej określić kontekst linku, odpowiedział, że oczywiście jest to możliwe, natomiast jest to słaby sygnał. Po raz kolejny jednak podkreślił, jak duże znaczenie ma ściśle określony anchor text:
„Sure. But that’s more kind of secondary. Like that really strong piece of context from the anchor text that’s missing in that case.”
Czy w takim razie linkowanie za pomocą adresów url mija się z celem? Niekoniecznie. W tym przypadku John Mueller wyjaśnił nam, jak Google rozumie takie linki, a nie jaką wartość reprezentują. Można jednak wnioskować, że dla tego rodzaju odnośników efekt w postaci poprawy pozycji w rankingu będzie słabszy.
Żródło: https://www.youtube.com/watch?v=aEE8wfC-7gA&t=944s
Treści
1. Dlaczego strona ze skopiowaną treścią jest wyżej od oryginału?
„The other thing that I would also keep in mind is that if you’re regularly seeing other people with copied content ranking above you content, then to me that points at a situation where maybe the overall perceived quality of your website is something that our algorithms are having trouble with.”
John Mueller problemu upatruje w jakości witryny, z której pochodzi oryginalna treść. Wyższe pozycje stron ze skopiowanymi treściami powinny zmusić nas do podjęcia kroków w celu poprawy oceny naszej witryny. Moim zdaniem sytuacja, z którą mamy do czynienia nie zawsze będzie wiązać się z niską jakością naszej witryny. Jeśli sklep istnieje w Internecie od 3 miesięcy, a nasze treści skopiował znany sklep internetowy, prawdopodobnie to on będzie wyświetlał się wyżej. Czy musi być to wynik niskiej jakości naszej witryny? Nie. W skrócie – dłużej prosperujący, cieszący się dużym autorytetem sklep, posiadający dużą liczbę wartościowych linków zwrotnych będzie oczywiście bardziej zaufanym źródłem w oczach Google.
Źródło: https://www.youtube.com/watch?v=kzM7fi43cMc&t=1192s
2. Czy usunięcie komentarzy ze strony może wpłynąć na pozycje?
„From our point of view we do see comments as a part of the content. We do also, in many cases, recognize that this is actually the comment section so we need to treat it slightly differently. But ultimately if people are finding your pages based on the comments there then, if you delete those comments, then obviously we wouldn’t be able to find your pages based on that.”
Odpowiadając na pytanie: może wpłynąć. John Mueller potwierdza, że komentarze są częścią strony, treści, więc mają swój udział w budowaniu pozycji. Co ciekawe, roboty Google są w stanie rozpoznać sekcję komentarzy na stronie i jest ona przez nie inaczej traktowana. Wykorzystywanie komentarzy jako dodatkowe źródło treści nie jest niczym nowym, natomiast zastanawiające jest, co miał na myśli John Muller mówiąc „…so we need to treat it slightly differently”.
Źródło: https://www.youtube.com/watch?v=wsrL6l2Fxvo&t=260s
3. Czy duplikacja treści może negatywnie wpłynąć na ranking w Google?
„With that kind of duplicate content it’s not so much that there’s a negative score associated with it. It’s more that, if we find exactly the same information on multiple pages on the web, and someone searches specifically for that piece of information, then we’ll try to find the best matching page.
So if you have the same content on multiple pages then we won’t show all of these pages. We’ll try to pick one of them and show that. So it’s not that there’s any negative signal associated with that. In a lot of cases that’s kind of normal that you have some amount of shared content across some of the pages.”
John Mueller tą wypowiedzią dał jasny sygnał, że zduplikowana treść nie wpływa negatywnie na pozycje strony w wynikach wyszukiwania. Jest to dość zaskakujące stwierdzenie, gdyż od dawna mówi się o unikaniu duplicate content oraz zastosowaniu oryginalnych treści w obrębie witryny. Również we wskazówkach dla webmasterów pojawia się fragment sugerujący zupełnie odwrotne stanowisko od tego, jakie przedstawił John Mueller:
„W rzadkich przypadkach, gdy Google uzna, że powielanie treści może mieć na celu zmodyfikowanie pozycji witryny w naszych rankingach i oszukanie użytkowników, możemy wprowadzić zmiany w sposobie indeksowania i ustalania pozycji tych witryn na listach wyników wyszukiwania. Może to niekorzystnie wpłynąć na pozycję witryny w rankingu. Witryna może też zostać całkowicie usunięta z indeksu Google i nie będzie się pojawiać w wynikach wyszukiwania.”
Źródło: https://developers.google.com/search/docs/advanced/guidelines/duplicate-content?hl=pl
Nawet jeśli duplikacja treści nie wpływa bezpośrednio na ranking, może oddziaływać na pozycje pośrednio. W związku z tym, mimo słów Johna Muellera, w dalszym ciągu zalecam różnicowanie treści, jeśli jest to tylko możliwe.
Źródło: https://www.youtube.com/watch?v=wsrL6l2Fxvo&t=260s
Pozostałe
1. Jakie problemy może generować noindex?
„In general, I think this fluctuation between indexed and non-indexed is something that can throw us off a little bit.
Because if we see a page that is noindexed for a longer period of time we will assume that this is kind of like a 404 page and we don’t have to crawl it that frequently.
So that’s something where probably what is happening there is that we see these pages as noindex and we decide not to crawl them as frequently anymore, regardless of what you submit in the site map file.”
Jest to odpowiedź na pytanie zadane przez właściciela witryny, który dla niedostępnych produktów dodawał tag noindex, a kiedy były z powrotem dostępne, wracał do indeksowania podstron. Mimo wdrożenia tagu index nie udało mu się zaindeksować podstron. John Mueller wyjaśnia, że strony zabraniające indeksowania przez dłuższy czas, mogą zostać potraktowane jako 404. To z kolei prowadzi do ich rzadszego crawlowania, nawet jeśli znajdują się w sitemap.xml. Taka informacja jest istotna dla właścicieli witryn, którzy postępują podobnie do pytającego.
Źródło: https://www.youtube.com/watch?v=JV7egfF29pI&t=1519s
2. Google może decydować o duplikacji na podstawie podobieństwa adresów url
„What tends to happen on our side is we have multiple levels of trying to understand when there is duplicate content on a site. And one is when we look at the page’s content directly and we kind of see, well, this page has this content, this page has different content, we should treat them as separate pages.
The other thing is kind of a broader predictive approach that we have where we look at the URL structure of a website where we see, well, in the past, when we’ve looked at URLs that look like this, we’ve seen they have the same content as URLs like this. And then we’ll essentially learn that pattern and say, URLs that look like this are the same as URLs that look like this.”
Zgodnie z tym, co powiedział John Mueller, treści umieszczone na stronie nie zawsze są głównym wyznacznikiem duplikacji. Zadecydować o tym może także adres url. John Mueller wyjaśnia, że działa to na zasadzie predykcji, np. Google sprawdzając 10 podstron o podobnej strukturze adresu url i znajdując zduplikowane treści zakłada, że również pozostałe podstrony będą duplikatami. Dlaczego to robi? Aby zaoszczędzić zasoby związane z pobieraniem i indeksowaniem strony.
Źródło: https://www.youtube.com/watch?v=8UBSEiO87GM&t=2641s
3. Czy tworzenie meta title z dużą liczbą fraz jest sprzeczne ze wskazówkami dla webmasterów?
„It’s not against our webmaster guidelines. It’s not something that we would say is problematic. I think, at most, it’s something where you could improve things if you had a better fitting title because we understand the relevance a little bit better.”
John Mueller zdecydowanie odpowiada, że taka praktyka nie jest sprzeczna ze wskazówkami dla webmasterów. Co więcej, nie jest to w żaden sposób problematyczne. Mimo to nie zaleca takiego rozwiązania, gdyż utrudnia to wyszukiwarce oraz użytkownikom zrozumienie strony.
Źródło: https://www.youtube.com/watch?v=lTIR8hM5pbw&t=3360s
4. Czy słowo kluczowe w nazwie domeny wpłynie na pozycję strony dla tej frazy?
„Just because a website has a keyword in its domain name doesn’t mean that it’s more relevant than others for that keyword.
In short, you don’t need to put keywords in the domain name.”
Słowo kluczowe w nazwie domeny nie wpływa na lepszą pozycję strony dla tej frazy – taką informację przekazał John Mueller. Jest to coś, z czym Google walczył już w 2012, kiedy takie domeny mogły znajdować się wyżej w wynikach wyszukiwania. Aktualnie algorytmy Google są na tyle zaawansowane, że radzą sobie z EMD (Exact Match Domain).
Źródło: https://www.youtube.com/watch?v=nSAVmUvMU_0
5. Czy wykorzystanie Disavow Tool daje sygnał Google, że witryna nie jest zaufana?
„No, no, the disavow tool is purely a technical thing, essentially, that tells our systems to ignore these links.
It’s not an admission of guilt or any kind of bad thing to use a disavow tool.”
John Mueller uspokaja i utwierdza w przekonaniu, że Disavow Tool jest traktowane, jako zwykłe techniczne narzędzie i wykorzystanie go nie przesyła negatywnych sygnałów do wyszukiwarki.
Źródło: https://www.youtube.com/watch?v=BMoR5eVIVFs&t=2189s
John Mueller – prawda/fałsz
Powyższe wskazówki to tylko niewielka część tego, co w ciągu roku John Mueller przekazał w ogólnodostępnych kanałach. Należy również wziąć pod uwagę komunikaty, które są przekazywane przez innych pracowników Google – są to kolejne źródła informacji o tym, jak działa algorytm wyszukiwarki. Czy w takim razie wszystko, co zostało powiedziane przez Johna Muellera i innych inżynierów Google powinniśmy brać sobie do serca i wprowadzać zmiany na swoich stronach? Logika podpowiada, że tak, w końcu dlaczego mieliby wprowadzać nas w błąd? My jednak nie będziemy polegać tylko i wyłącznie na stanowisku Google, gdyż wielokrotnie wypowiedzi pracowników nie znajdowały odzwierciedlenia w zachowaniu algorytmów. Pytanie pozostawiam jednak otwarte i zachęcam do przemyśleń oraz przeprowadzania testów.
O wypowiedziach pracowników Google pisaliśmy już w innym artykule, do którego lektury zachęcam:
-> Wypowiedzi pracowników firmy Google w świecie SEO