Screaming Frog SEO Spider – co zyskaliśmy na październikowej (2019) aktualizacji?

Screaming Frog SEO Spider to narzędzie doskonale znane każdej agencji SEO, pozycjonerowi, a niejednokrotnie i właścicielowi strony. Dlaczego? Ze względu na charakterystyczną nazwę? Otóż nie. W wolnym tłumaczeniu “krzycząca żaba” to narzędzie, które pozwala nam uzyskać wiele informacji o witrynie, a tym samym przeprowadzić jej analizę pod kątem onsite.

W tym artykule skupimy się na aktualizacji, która w dużym stopniu zwiększyła już i tak szerokie możliwości jakie dawał nam Screaming Frog. Pozwolimy sobie jednak wymienić kilka tych najważniejszych, jakie dawał nam crawler jeszcze przed aktualizacją:

  1. Title, description, H1, H2 – te i wiele innych elementów strony zwraca nam crawler, dzięki czemu wszystkie dane mamy w jednym miejscu, a ich analiza jest znacznie prostsza.
  2. Kod odpowiedzi HTTP – narzędzie zwraca nam kody odpowiedzi dla każdej podstrony.
  3. Linki wychodzące – crawl podąża nie tylko za linkami wewnętrznymi, zwraca nam także listę linków wychodzących wraz z informacją na jakich podstronach się znajdują, a także jaki jest ich anchor.
  4. Sitemap.xml – Screaming Frog daje także możliwość wygenerowania pliku sitemap.xml.

 

Screaming Frog SEO Spider 12.0 – aktualizacja

Wersja 12.0 zaskoczyła licznymi rozwiązaniami, które skutecznie ułatwiają analizę danych. Poniższa lista to tak naprawdę tylko kilka udogodnień jakimi zadziwił nas Screaming Frog.

1. Integracja z PageSpeed Insights

Dzięki temu połączeniu Screaming Frog ma możliwość pobierania danych dla każdej podstrony danej witryny. Co to oznacza? Za pomocą jednego kliknięcia otrzymujesz dane, które w normalnych warunkach zdobywałbyś przeklikując się pomiędzy wszystkimi podstronami analizowanej witryny, a dedykowanym narzędziem od Google, jakim jest PageSpeed Insights. Jak zacząć korzystać z tego udogodnienia?

» Najpierw musimy wybrać interesujące nas metryki i skonfigurować dostęp do API:

Configuration -> API Access -> PageSpeed Insights

 

» W celu uzyskania darmowego klucza API klikamy w link dostępny pod “here”:

 

» Logujemy się do konta Google i tworzymy dane logowania:

 

» Następnie w oknie wyszukiwania wpisujemy nazwę usługi, dla której chcemy włączyć API i klikamy “Włącz”:

 

Teraz możemy wrócić już do naszego narzędzia i wkleić wygenerowany klucz w wyznaczone do tego miejsce. Następnie przechodzimy do zakładki “Metrics” i wybieramy interesujące nas grupy danych: Overview, CrUX Metrics, Lighthouse Metrics, Opportunities, Diagnostics. Dla każdej z nich możemy indywidualnie określić potrzebne nam metryki:

 

Pozostaje tylko przecrawlowanie wybranej witryny i zagłębienie się w wyniki. Na oficjalnej stronie narzędzia dostępny jest przewodnik, w którym znajdziesz szczegółowe informacje dotyczące także ogólnych ustawień (w tym instalacji narzędzia), opcji konfiguracji poszczególnych danych czy informacje na temat dostępnych zakładek. W sekcji “How to” znajdziesz również najczęściej zadawane pytania.

2. Automatyczne zapisywanie crawla

Wyczekiwany “dodatek” od października 2019 zagościł na stałe w crawlerze i choć dla niektórych może wydawać się niczym wyjątkowym zakładamy, że dla większości to stumilowy krok do przodu. Ile razy zdarzyło Ci się włączyć crawla dużej strony, zostawić na dłuższy czas i po powrocie zastać czarny ekran lub błąd związany np. z brakiem pamięci? Kiedy Ty załamywałeś ręce, zespół Screaming Froga pracował nad wdrożeniem automatycznego zapisywania pobranej bazy danych.

Jeżeli chcesz uniknąć takich sytuacji w przyszłości, skorzystaj z poniższego poradnika.

Automatyczny zapis jest możliwy tylko w przypadku wykorzystywania dysku do zapisania crawla, dlatego w pierwszym kroku zmień sposób przechowywania danych:

Configuration -> System -> Storage -> Mode: Database Storage

Aby ustawienia zostały włączone, należy ponownie uruchomić Screaming Froga.

Od tego momentu każdy wykonany crawl zostanie zapisany automatycznie na dysku, a dostęp do niego będzie możliwy poprzez wejście w zakładkę “Crawls”:

File -> Crawls

Pamiętaj: usuń nieużywane/niepotrzebne crawle, gdyż automatyczne zapisywanie powoduje zapełnianie się dysku.

3. Konfiguracja zakładek

Kolejne udogodnienie, dzięki któremu w szybki sposób posortujemy i wybierzemy istotne dla nas dane. Wystarczy kliknąć prawym przyciskiem myszy w wybraną zakładkę i usunąć ją z widoku.

4. Konfiguracja wykluczeń

Używając standardowych ustawień otrzymywaliśmy ogromną bazę danych, które niekoniecznie były nam potrzebne. A gdyby tak móc wybrać tylko to, co dla nas istotne, zaoszczędzając przy tym miejsce? I na to rozwiązanie wpadła załoga Screaming Froga.

Dzięki aktualizacji możemy wykluczyć crawlowanie obrazów, plików css, js, a także elementów strony takich jak tytuł, słowa kluczowe, nagłówki i wiele innych.

Konfigurację znajdziesz w:

Configuration -> Spider -> Zakładka Crawl oraz Extraction

 

Dlaczego warto korzystać z narzędzi do crawlowania stron? Powyższy tekst powinien odpowiedzieć na to pytanie i zachęcić do korzystania z udogodnień, jakie zaoferował nam Screaming Frog. Sami intensywnie korzystamy z płatnej wersji tego narzędzia, dlatego zapraszamy także do zadawania pytań w komentarzach.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *