Crawl depth — czym jest głębokość indeksowania w SEO?
Na skróty
Crawl depth to jedno z najważniejszych pojęć związanych z indeksowaniem stron w Google (i innych wyszukiwarkach). Do czego odnosi się głębokość indeksowania i jaki ma wpływ na SEO? O tym przeczytasz poniżej.
Crawl depth — co to?
Crawl depth określa, na ile poziomów „w głąb” strony internetowej musi zejść robot wyszukiwarki podczas indeksowania danego adresu WWW. A mówiąc inaczej — jest to liczba kliknięć, jaka dzieli stronę główną witryny i docelowy adres wewnątrz domeny.
Prosty przykład. Aby Googlebot (lub crawler innej wyszukiwarki) mógł zaindeksować tekst, który właśnie czytasz, musiał pokonać dwa kroki. Najpierw znaleźć na stronie głównej naszej agencji link do Słownika — a następnie, odnośnik do wpisu o crawl depth. A więc głębokość indeksowania (przeszukiwania) dla tej podstrony wynosi 2.
Crawl depth można odnieść do praktycznie każdego elementu znajdującego się na stronie — nie tylko głównych podstron czy wpisów blogowych, ale też niektórych multimediów, wyświetlanych po zaindeksowaniu w Google Grafika.
Jakie znaczenie ma głębokość indeksowania?
Każdemu, kto ma swoją stronę WWW powinno zależeć na tym, aby roboty wyszukiwarek zaindeksowały jak najwięcej znajdujących się na niej treści. Kłopot w tym, że im głębiej dana podstrona znajduje się w strukturze witryny, tym mniejsza szansa, że Googlebot do niej dotrze.
Podstrony o niskim crawl depth — czyli znajdujące się w bliższej odległości od strony głównej — są co do zasady uznawane przez crawlery za bardziej istotne. To oznacza, że zostaną szybciej zaindeksowane, a roboty wyszukiwarki częściej będą do nich wracać w celu poszukiwania nowych informacji. Znajdujące się pod tymi adresami treści również będą miały większe znaczenie przy ocenie tematyki oraz wartości merytorycznej strony.
Z drugiej strony, to właśnie treści „ukryte” na głębszych poziomach przeszukiwania często są najcenniejsze, jeśli chodzi o pozycjonowanie. Mówimy np. opisach produktów w sklepach internetowych czy dłuższych formach contentowych (choćby case studies), które mają spory potencjał, aby rankować na dobrych pozycjach pod unikalnymi słowami kluczowymi.
Wniosek jest taki, że głębokość struktury strony ma ogromne znaczenie. Jeśli chcemy, aby roboty Google dotarły do wszystkich istotnych dla SEO treści, trzeba albo postarać się o „wypłaszczenie” struktury i zmniejszenie głębokości przeszukiwania — albo, jeśli nie jest to w danym przypadku możliwe, wytyczyć crawlerowi jak najprostszą ścieżkę przez kolejne poziomy domeny.
Przy okazji, prostsza struktura witryny z łatwiejszym dostępem do informacji oznacza też lepsze doświadczenie użytkownika. Warto o tym pamiętać, bo dobry UX również wpływa (pośrednio) na pozycję w SERP-ach, a jednocześnie może przełożyć się na wzrost konwersji na stronie.
Dobre praktyki — na co trzeba zwrócić uwagę?
Jak zatem zadbać o to, by indeksowanie strony było dla robotów wyszukiwarek jak najprostszym zadaniem? Najważniejsze, naszym zdaniem, są trzy kwestie.
- Staraj się, aby głębokość indeksowania była stosunkowo niska — im mniej kliknięć do pokonania na drodze pod dany adres, tym lepiej. Przyjmuje się, że większość kluczowych dla SEO podstron powinna znajdować się w odległości co najwyżej trzech kliknięć od strony głównej. Ciekawostka — udało się to nawet Amazonowi, na którego platformie crawlery znajdą przecież kilkaset (!) milionów produktów.
- Korzystaj z zalet linkowania wewnętrznego — każdy odnośnik to dodatkowa informacja dla robotów, jak znaczeniowo powiązane są ze sobą poszczególne podstrony… i swego rodzaju skrót pod linkowane adresy.
- Zadbaj o mapę strony — plik XML ze szczegółowo opisaną strukturą strony powinien być najlepszym drogowskazem dla Googlebota. Pamiętaj tylko, aby go regularnie aktualizować.
Oczywiście, crawl depth nie jest jedynym zagadnieniem, które warto poznać, zanim zaczniemy optymalizować stronę pod wymagania robotów indeksujących. Zachęcamy do lektury kolejnych wpisów w naszym słowniku — na przykład tych poświęconych crawl budget czy crawl rate limit!