Wyciek danych i algorytmów Google — czego można się z tego nauczyć?
2 min
2 min
Na skróty
27 marca 2024 roku świat SEO zaskoczył ogromny wyciek danych, który ujawnił wewnętrzną dokumentację Google. Dokumentacja ta zawierała szczegółowe informacje na temat algorytmów wyszukiwarki. Przez ponad miesiąc pliki te były dostępne publicznie na GitHubie, a usunięte zostały dopiero 7 maja 2024 roku.
Wyciek pozwolił na zweryfikowanie ogólnej wiedzy na temat mechanizmów działania wyszukiwarki. Czego się z niego dowiedzieliśmy?
W marcu 2024 roku wyciek danych związanych z Google wywołał niemałe poruszenie w branży SEO. Dostępne publicznie przez ponad miesiąc pliki zawierały dokumentację API Google Search’s Content Warehouse, czyli systemu zarządzającego treściami w wyszukiwarce.
W przeciwieństwie do wcześniejszych spekulacji, ujawnione dane nie obejmowały kodu źródłowego ani algorytmów w ich pierwotnej postaci. Mimo to pozwalały lepiej zrozumieć, jakie funkcje i czynniki Google bierze pod uwagę przy ustalaniu pozycji stron w wynikach wyszukiwania.
Wyciek ujawnił ponad 14 000 czynników rankingowych – parametrów, które mogą wpływać na widoczność stron internetowych. Niestety, dokumentacja nie zawierała informacji o wadze poszczególnych czynników ani o ich wzajemnych relacjach. Można więc było dostrzec ogólny zarys działania algorytmów, ale pełny obraz dalej pozostaje tajemnicą. Co ciekawe, algorytmy Google są stale aktualizowane, więc niektóre z ujawnionych funkcji mogą być już przestarzałe.
Pomimo tych ograniczeń, wyciek pozwolił na potwierdzenie wielu domysłów, które od dawna funkcjonowały w środowisku SEO. Aspekty dotyczące znaczenia autorytetu domeny, wskaźnika klikalności czy konieczność aktualizacji treści były znane, ale wyciek dostarczył dowodów na ich istnienie.
Wyciek danych Google potwierdził znaczenie niektórych znanych działań SEO. Rzucił również nowe światło na inne, wcześniej pomijane aspekty. Trudno omówić każdy, z tysięcy ujawnionych czynników, dlatego przyjrzyjmy się tym (subiektywnie) najważniejszym.
Parametr „siteAuthority” jednoznacznie wskazuje, że strony cieszące się większym zaufaniem użytkowników mają lepsze wyniki. Choć nie wiadomo, jak dokładnie Google mierzy ten parametr, teraz już mamy pewność, że wpływa on na pozycjonowanie.
Dane potwierdzają, że Google bierze pod uwagę sygnały klikalności, ale stosuje funkcję „squashing”, która zapobiega manipulacjom. Oznacza to, że masowe klikanie w linki nie poprawi pozycji strony.
Algorytmy Google oceniają także autorów tekstów, skupiając się na transparentności w publikacjach. Im większa reputacja autora, tym większe szanse na dobrą pozycję strony.
Linki znajdujące się na stronie głównej lub na wysoko ocenianych podstronach mają większą wartość. To dowód na znaczenie odpowiedniej struktury linkowania wewnętrznego.
Google zwraca uwagę na daty publikacji, adresów URL i zawartości tekstu. Aktualność informacji jest jednym z głównych czynników wpływających na pozycjonowanie.
Algorytmy analizują również średnią wielkość czcionki, która ma wpływ na czytelność. Co ciekawe, dotyczy to także czcionek stosowanych w anchor text.
Funkcja „Quality Authority Topic Embeddings Versioned Item” ocenia, czy treści są zgodne z główną tematyką strony. Publikowanie zbyt odległych tematycznie materiałów może negatywnie wpłynąć na widoczność witryny.
Wyciek danych Google wzbudził wiele emocji, ale większość ujawnionych informacji nie była zaskoczeniem dla doświadczonych specjalistów SEO. Wiele obecnych praktyk optymalizacyjnych opiera się na analizie i obserwacjach. Ujawnione dane jedynie potwierdziły, że najważniejsze jest dostarczanie wartościowych treści i dbałość o jakość strony.
Autor wpisu: Anna Sarysz