Kompendium wiedzy o robots.txt w SEO

Plik robots.txt zarządza dostępem robotów indeksujących do strony. Wykorzystuje protokół Robots Exclusion Protocol, powstały już w 1994 roku, który jest standardowo interpretowany przez większość botów. Podstawowy cel zastosowania robots.txt to ograniczenie zużycia zasobów po stronie serwera oraz po stronie robota, dzięki wskazaniu sekcji, których odpytywanie nie jest wartościowe – przykładowo sekcji z wynikami wewnętrznej wyszukiwarki.


Chcesz zwiększyć ruch
na swojej stronie internetowej?




Skontaktuj się z doradcą
i powierz pozycjonowanie specjalistom w branży SEO




* - Pole wymagane

Skomentuj

Twój email nie zostanie upubliczniony. Wymagane pola zostały oznaczone *

Możesz używać następujących tagów HTML: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>