A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
R
S
T
U
V
W
Z
Ś
Semcore Słownik Robots.txt

Czym jest plik Robots.txt?

Plik robots.txt ma zdecydowana większość stron internetowych. Wcale nie oznacza to jednak, że większość administratorów witryn go rozumie. W tym artykule dowiesz się, czym jest ten plik, jakie ma ograniczenia, a także, w jaki sposób możesz go stworzyć dla swojej strony internetowej. Ten niepozorny i niewielki plik na stronie internetowej ma spory wpływ na pozycję witryny w wynikach wyszukiwania.

Robots.txt – czym jest? Definicja

Robots.txt to plik tworzony w celu informowania robotów wyszukiwarek, np. robotów Google, o tym, czego nie powinny robić na Twojej stronie internetowej. Używa się go głównie po to, aby strona internetowa nie stała się przeciążona żądaniami. Zarządzanie ruchem robotów indeksujących ma bowiem spore znaczenie.

Innymi słowy, jest to tak zwany katalog główny domeny. Plik robots.txt jest, jak widać, plikiem tekstowym, który wskazuje, czy określone oprogramowanie do indeksowania witryn ma zindeksować stronę, czy nie. Może on zatem blokować indeksację lub na nią zezwalać. Łatwo więc zauważyć, że robots.txt jest istotne z punktu widzenia SEO.

Proces wyszukiwania nowych materiałów, które mogą znaleźć się w wyszukiwarce Google to praca, którą wykonują roboty wyszukiwarki. Podążają one za linkami, a następnie indeksują całą zawartość stron internetowych do katalogu Google. Praca robota Google polega zatem na przeglądaniu, a także analizowaniu stron internetowych po to, aby dodać następnie o nich informację do wyszukiwarki. Jeżeli jakaś strona nie powinna być w indeksie wyszukiwarki, należy umieścić ją w pliku robots.txt. Taki zabieg jest stosowany np. przez specjalistów SEO, którzy optymalizują witrynę podczas pozycjonowania. Należy zablokować te strony, których obecność w wyszukiwarce jest zbędna (np. koszyk zakupowy w e-commerce).

Zobacz:  Optymalizacja Konwersji

Plik robots.txt jest najbardziej potrzebny na dużych i skomplikowanych stronach internetowych. Zwróć uwagę na to, że skanowanie witryny, która zawiera tysiące podstron, może zajmować wiele miesięcy. Dzięki plikowi robots.txt proces ten przebiega znacznie szybciej. Nie na każdą podstronę Twojej witryny muszą przecież zaglądać roboty wyszukiwarki.  Plik robots.txt ustawia się także podczas realizacji strategii SXO, której elementami składowymi są SEO oraz UX.

Robots.txt

Jakie ograniczenia ma plik robots.txt?

Trzeba pamiętać o tym, że blokowanie robota Google nie zawsze jest skuteczne. Plik robots.txt nie może bowiem zmusić automatu do przestrzegania jego zasad. Tym sposobem boty mogą zignorować zalecenia z pliku robots.txt i mimo wszystko zindeksować witrynę do wyszukiwarki. Z zasady jednak wyszukiwarki przestrzegają ustawionych przez administratorów stron internetowych reguł, a co za tym idzie, warto zadbać o plik robots.txt.

Pamiętaj również o tym, że strona, która jest blokowana przez plik robots.txt nadal może być indeksowana. Wystarczy bowiem, że prowadzą do niej linki z innych witryn. Jeżeli chcesz całkowicie wykluczyć konkretny adres URL z wyników wyszukiwania Google, stwórz metatag noindex albo całkowicie usuń stronę.

Jak stworzyć plik robots.txt?

Jest parę sposobów na stworzenie pliku robots.txt. Wiele zależy od sytuacji, a także Twoich potrzeb. Jedną z możliwości jest skorzystania z generatorów pliku robots.txt. Dzięki ich istnieniu nie musisz znać składni pliku. Konieczne jest jedynie posiadanie wiedzy, jakie adresy chcesz zablokować. Drugim wariantem jest tworzenie pliku ręcznie. To najpopularniejsza metoda. Wymaga ona jednak znajomości wszystkich elementów związanych z działaniem pliku. Trzecim sposobem jest stworzenie dynamicznego pliku za pomocą aplikacji bądź też strony, której plik dotyczy. Dla przykładu można go wygenerować z poziomu systemu zarządzania treścią, na przykład w CMS typu WordPress.

Semcore

Zobacz powiązane frazy

Oceń tekst

Średnia ocen 5 / 5. Liczba głosów: 1

Brak głosów - oceń jako pierwszy!