Nie zawsze indeksacja domen przez Google jest dla nas korzystna. Są sytuacje, w których nie chcemy, aby strona internetowa pojawiała się w wynikach wyszukiwania. Blokowanie indeksowania witryny w wyszukiwarce odbywa się poprzez plik robots.txt lub komendę z wartością noindex. Na czym polegają obydwie metody? Czy warto używać ich jednocześnie, aby wstrzymać pozycjonowanie witryny w wynikach wyszukiwania?
Zdj. 1 Blokowanie indeksacji strony odbywa się przez polecenia w kodzie strony lub określonych plikach
Źródło: https://kiwilab.pl/wp-content/uploads/2023/08/Noindex-768×509.png.webp
jest najpopularniejszym dziś rozwiązaniem marketingowym. Odpowiednie pozycjonowanie strony internetowej pozwoli Ci dotrzeć do konkretnej grupy odbiorców, zainteresowanych tematyką Twojej witryny.
Optymalizacja pod kątem wyników wyszukiwarek odbywa się poprzez publikowanie merytorycznych tekstów ze słowami kluczowymi (spełniających kryteria SXO) czy przygotowanie techniczne witryny, oparte na wytycznych Google. Po pewnym czasie strona pojawi się w wynikach wyszukiwania, czyli zostanie zaindeksowana. Co ciekawe jednak nie zawsze indeksowanie jest wskazane. Dlaczego?
Noindex, robots.txt…Po co blokuje się strony przed indeksowaniem w Google?
Niekiedy pozycjonowanie strony internetowej wymaga blokowania całej witryny lub konkretnych podstron. Dlaczego specjaliści od SEO uniemożliwiają indeksowanie strony internetowej w Google?
- Budowanie strony internetowej od podstaw – niekompletna strona w trakcie budowy, zaindeksowana przez Google negatywnie wpływa na wizerunek firmy i późniejszą historię pozycjonowania. Pozycjoner blokuje indeksowanie witryny, póki ta nie zostanie ukończona.
- Naprawy błędów krytycznych na stronie www – jeżeli na stronie pojawiają się krytyczne błędy uniemożliwiające normalne funkcjonowanie, warto wyłączyć indeksację domeny w Google. W ten sposób użytkownicy nie trafią na nią i nie zrażą się ewentualnymi problemami z funkcjonowaniem strony.
- Realizacja diagnozy pozycjonerskiej (np. audyt SEO) – niekiedy specjaliści od SEO wyłączają indeksowanie domeny na czas realizacji przygotowania pod optymalizację. W ten sposób unikają konfliktów
- Wyłączenie podstron, które nie są przydatne dla użytkowników czy duplikatów – blokowanie indeksowania może dotyczyć nie tylko całej strony, ale też konkretnych podstron. Te usuwa się z wyników wyszukiwania Google np., gdy są to duplikaty lub gdy nie mają one wartości dla użytkowników (strona logowania do panelu CMS, podstrona techniczna itd.).
- Zbyt duża liczba podstron na jednej stronie – w przypadku witryn o bardzo rozbudowanej liczbie podstron, te blokuje się ze względu na ograniczone możliwości indeksacyjne Google. Stare podstrony są najczęściej blokowane, aby w ich miejsce mogły pojawić się nowe.
Czym jest robots i noindex?
Blokada indeksowania witryny odbywa się poprzez robots.txt oraz komendę noindex. Co warto wiedzieć o tych sposobach? Robots.txt to plik do zarządzania robotami indeksującymi. To drogowskaz dla algorytmów Google, w jaki sposób skutecznie pozycjonować określoną stronę lub podstronę. W pliku znajduje się informacja, jakie elementy roboty powinny indeksować, jak interpretować treści opublikowane na podstronach oraz jaki jest katalog podstron do indeksacji.
Z kolei reguła noindex to komenda, którą zamieszcza się w strukturze kodu strony lub podstrony, aby całkowicie uniemożliwić pełną identyfikację danej części domeny w wyszukiwarce Google. Robot indeksujący, który natrafi na ten element nie będzie brał jej pod uwagę, badając parametry witryny i pozycjonując ją w wynikach wyszukiwania. Podstrona nie będzie wtedy wpływać na wynik ani pozytywnie, ani też negatywnie. Polecenie noindex przekazuje się poprzez meta tag <meta name=”googlebot” content=”noindex”>. Możne je też dodać jako nagłówek odpowiedzi HTTP.
Zdj 2. Niekiedy warto wstrzymać procesy SEO, aby nie utrudniać sobie później optymalizacji strony.
Źródło: https://pixabay.com/photos/search-engine-optimization-seo-4111000/
Zacznijmy od tego, że blokada indeksacji przez robots.txt nie jest do końca skuteczna. Google wskazuje, że zablokowanie witryny w pliku dla robotów indeksujących sprawia, że strona może nadal pojawiać się w wynikach wyszukiwania. Witryna nie będzie miała w takim przypadku opisu, ale cały czas będzie oddziaływać na odbiór użytkowników. Polecenia uniemożliwiające indeksację poprzez robots.txt ułatwią z kolei blokadę pod materiały wideo, pliki graficzne czy materiały dźwiękowe i linki.
Nie ma jednak możliwości zablokowania indeksowania przez robots.txt oraz noindex jednocześnie. Wynika to z faktu, że ewentualne uniemożliwienie indeksacji przez plik tekstowy, roboty nie znajdą polecenia noindex. W takiej sytuacji witryna nadal będzie wyświetlać się w Google. Jeżeli zależy Ci więc na zablokowaniu całej domeny albo danej podstrony, zamiast modyfikować robots.txt, w kod strony zaimplementuj polecenie noindex. W przypadku chęci zablokowania konkretnych elementów możesz posłużyć się plikiem indeksującym.
FAQ – najczęstsze pytania o to, czy blokować stronę jednocześnie w robots.txt i noindex?
1. Czy można jednocześnie blokować stronę w pliku robots.txt i za pomocą tagu noindex?
Nie zaleca się blokowania tej samej strony jednocześnie w pliku robots.txt i za pomocą tagu noindex. Jeśli zablokujesz stronę w robots.txt, roboty Google nie będą miały do niej dostępu, więc nie zobaczą tagu meta name=”robots” content=”noindex” i nie wykluczą jej z indeksu Google.
2. Jak skutecznie wykluczyć stronę z indeksu Google?
Aby skutecznie wykluczyć stronę z indeksu Google, należy umożliwić robotom dostęp do strony (nie blokować jej w robots.txt), a następnie dodać w sekcji <head> tag:
<meta name=”robots” content=”noindex”>
Dzięki temu Googlebot odwiedzi stronę i zastosuje się do dyrektywy noindex, wykluczając adres URL z wyników wyszukiwania.
3. Jak sprawdzić, czy strona została wykluczona z indeksu Google?
Możesz użyć Google Search Console, aby sprawdzić status indeksowania konkretnego adresu URL. W narzędziu tym znajdziesz informacje, czy strona jest widoczna w indeksie Google oraz czy zastosowane zostały odpowiednie dyrektywy meta robots content.
4. Jak wykluczyć konkretne adresy URL z indeksu Google?
- Dodaj tag <meta name=”robots” content=”noindex”> do kodu strony.
- Nie blokuj strony w robots.txt, jeśli chcesz, by dyrektywa noindex zadziałała.
- Możesz również skorzystać z narzędzia „Usunięcia” w Google Search Console, aby tymczasowo wykluczyć adres URL z wyników wyszukiwania.
5. Czy blokada w robots.txt całkowicie wyklucza stronę z Google?
Nie. Blokada w robots.txt uniemożliwia robotom dostęp do strony, ale jeśli adres URL był już wcześniej zindeksowany, może nadal pojawiać się w wynikach wyszukiwania (np. bez opisu). Aby trwale usunąć stronę z indeksu, należy zastosować tag noindex lub usunąć stronę z serwera.
6. Jakie są najczęstsze błędy przy wykluczaniu stron z indeksu Google?
- Jednoczesne blokowanie strony w robots.txt i dodanie tagu noindex – w takim przypadku dyrektywa noindex nie zostanie odczytana przez Googlebota.
- Nieprawidłowa konfiguracja parametrów adresów URL w Google Search Console, co może prowadzić do przypadkowego wykluczenia ważnych stron z indeksu.