Twoja widoczność w wynikach wyszukiwania zależy od wielu czynników. Optymalizacja i pozycjonowanie pozwalają na uzyskanie wyższych wyników rankingowych, jednak zawsze pojawia się jedno pytanie: jak Google bardzo lubi Twoją stronę? Odpowiedź nie jest wielką tajemnicą. Pozwala odkryć ją crawl budget. Czym on jest i czy istnieją strategie pozwalające na zwiększenie jego poziomu? Czas się tego dowiedzieć.
Zacznijmy od początku, czyli od zrozumienia trzech podstawowych terminów: crawling, indeksowanie i ranking.
W tym wszystkim szczególnie ważny jest crawl budget, czyli czas, w jakim Google bądź inna wyszukiwarka decyduje się na indeksowanie oraz przeszukanie naszej strony internetowej. To właśnie Googleboty są odpowiedzialne za analizowanie witryny, które mogą się tym zajmować codziennie (fresh crawl) lub raz w miesiącu (deep crawl).
Należy pamiętać, że wyszukiwarka zawiera w swoich zasobach miliony witryn i stara się je odwiedzać najczęściej jak tylko może. Każdy komputer czy program ma jednak ograniczone zasoby i nie inaczej jest w tym przypadku. Crawl budget pozwala więc na rozdysponowanie mocy przerobowych robotów. Im lepsza optymalizacja strony, tym bardziej Google jest nią zainteresowany. W innym przypadku nie będzie tracić na nią czasu, a zajmie się inną witryną.
Mając już podstawy wiedzy teoretycznej, czas dowiedzieć się, jakim crawl budgetem dysponujesz. Jednym z najlepszych narzędzi jest w tym przypadku Google Search Console. Dzięki niemu sprawdzisz statystyki indeksowania z ostatnich 90 dni. Wystarczy, że wejdziesz w zakładkę “Otwórz raport” w lewym górnym rogu, w sekcję “Statystyki indeksowania”. Tam znajdziesz takie informacje, jak:
Co z tego wynika i jak czytać otrzymane wykresy? W przypadku żądań robota indeksującego lepszy jest wyższy wynik, jednak w przypadku pozostałych dwóch wartości jest odwrotnie.
Jeśli okaże się, że Twój wynik nie jest satysfakcjonujący, możesz, za pomocą pewnych technik, zachęcić Googlebota do crawlowania.
Treści na stronie podlegają regularnym aktualizacjom. Za każdym razem, gdy robot natrafi na odświeżony content, zwiększy się Twój crawl budget. Pamiętaj jednak, aby unikać podobnych treści. Google może uznać je za duplikat – zostaniesz wówczas ukarany rzadszym skanowaniem. Treść jest podstawą każdej strony internetowej, a w sieci jest nią wszystko, na co natrafi odbiorca. Masz więc szerokie pole do popisu.
Są to wszystkie linki umieszczone w obrębie pozycjonowanej domeny, pomagające dodatkowo w nawigacji. Dla lepszego pozycjonowania powinno się je umieszczać również w materiałach multimedialnych. Dużą pomocą w tym kontekście może okazać się menu okruszkowe, jako jedna z metod wsparcia wewnętrznego linkowania. Jest to dodatkowy sygnał dla robotów indeksujących, które otrzymują informację o czytelności strony.
Mapa to plik zawierający listę podstron danej witryny internetowej wraz z jej aktualizacjami i modyfikacjami. Jest to spis wartościowych adresów, na które zwracają uwagę roboty wyszukiwarek podczas procesu indeksowania. Mapa jest niewidoczna dla użytkowników. Korzystają z niej tylko roboty. Dodatkowo na serwerze w katalogu publicznym powinien znajdować się plik robots.txt.
Twoją nadrzędną zasadą musi stać się hasło: „jakość, nie ilość”. Oczywiście, im więcej linków przychodzących, tym wyższa pozycja rankingowa oraz lepsza widoczność. Aby jednak mogła utrzymać się w strategii długoterminowej, linki muszą cechować się odpowiednią jakością, czyli pochodzić z popularnych, zaufanych i autorytatywnych witryn. Roboty zwracają na nie uwagę, dlatego nie bez przyczyny są jednym z czynników rankingowych.
Zdarza się, że dany link nie działa poprawnie. Wówczas odbiorca, który chce z niego skorzystać, otrzymuje informację o błędzie 404. To komunikat podający, że dana strona nie istnieje. Uszkodzony bądź martwy link to odnośnik prowadzący donikąd. Robot, podobnie jak użytkownik, nie przepada za nimi i nakłada karę na stronę, która posiada wiele takich linków.
Problem ten z reguły wynika z braku zastosowania przekierowań 301 w przypadku aktualizacji witryny, wdrożenia nowej wersji językowej, duplikatu pierwszej strony paginacji lub kopiowania opisów i tekstów. Często są to nieświadome działania, bez odpowiedniej optymalizacji.
Serwer stanowi podstawę ciągłego działania witryny internetowej, dzięki czemu użytkownicy i roboty mogą korzystać z jej zasobów o dowolnej porze. Hosting jest więc niczym innym, jak serwerem, na którym zainstalowana jest dana witryna, aby była zawsze dostępna i funkcjonalna.
Google stawia przede wszystkim na wrażenia użytkowników, stąd prędkość ładowania strony stała się jednym z kluczowych czynników rankingowych w kontekście pozycjonowania i optymalizacji. Z pewnością wiesz, jak trudno utrzymać zainteresowanie odbiorców w miarę upływu czasu. Google również zdaje sobie z tego sprawę i nie bez powodu postawił na jak najkrótszy czas, aby spełnić oczekiwania użytkowników.
Crawl budget co to? To pytanie mieści w sobie szereg poprawnych odpowiedzi. Aby wzbudzić zainteresowanie Googlebotów, musisz przestrzegać reguł oraz dbać o czynniki rankingowe stworzone przez wyszukiwarkę. Zwiększ swój zasób, popraw komunikację z robotami i ciesz się wysoką pozycją w SERP-ach!
Chcesz zobaczyć o czym jeszcze pisaliśmy?
Rozpocznij
od bezpłatnej
konsultacji SEO
Zainwestuj w szczegółową konsultację SEO i dowiedz się więcej na temat wydajności Twojego sklepu internetowego. Przeprowadzimy dla Ciebie kompleksową analizę, dzięki której uzyskasz jasny obraz tego, co należy poprawić.