Google Search Console jest oficjalnym narzędziem Google służącym właścicielom witryn internetowych do monitorowania stanu swoich serwisów w indeksie wyszukiwarki Google. Zarówno stanu zaindeksowania, jak i częściowo stanu technicznego. Umożliwia wgląd w to, jak roboty sieciowe postrzegają i interpretują dany serwis.
W przypadku podjęcia pewnych działań ręcznych wobec witryny, Google Search Console jest jedynym źródłem informacji o przyczynie zaistniałej sytuacji. Pośród narzędzi takich, jak Ahrefs czy Majestic, to GSC jest najbardziej rzetelnym źródłem informacji o profilu linkowym domeny. Dzięki zakładce “Skuteczność” (wcześniej “Analityka wyszukiwania”) można monitorować widoczności strony w organicznych wynikach wyszukiwania.
Dalsza część artykułu omawia po kolei każdą z sekcji dostępnych w narzędziu Google Search Console.
Zakładka “Skuteczność” w nowej wersji Google Search Console umożliwia analizowanie widoczności serwisu w organicznych wynikach wyszukiwania pod kątem trzech podstawowych wartości:
Dodatkowo na podstawie liczby wyświetleń oraz kliknięć wyliczana jest czwarta metryka – CTR (ang. Click Through Rate), czyli współczynnik klikalności.
Liczba wyświetleń to liczba odnośników do serwisu, które zostały wyświetlone użytkownikowi. W przypadku tekstowych wyników wyszukiwania sytuacja jest prosta, jeżeli jednemu użytkownikowi na zapytanie “pozycjonowanie stron” pojawi się jeden link do domeny grupa-icea.pl, to zliczane jest jedno wystąpienie. W przypadku, gdy odnośnik jest widoczny dopiero na drugiej stronie, na którą użytkownik nie dotrze, wyświetlenie nie zostanie zliczone.
W przypadku graficznych wyników wyszukiwania, które nie wymagają przechodzenia na kolejną stronę (ang. infinity scroll) liczone jest faktyczne wyświetlenie grafiki na ekranie użytkownika.
Liczba kliknięć to prosta wartość liczbowa pokazująca ile razy internauci kliknęli w odnośnik do danej domeny w wynikach wyszukiwania.
Choćby przez wzgląd na personalizację oraz geolokalizację wyników wyszukiwania, każda odpowiedź wyszukiwarki może się od siebie różnić. Użytkownik A, wyszukujący frazę “pozycjonowanie” w Warszawie otrzyma inny zestaw odpowiedzi niż użytkownik B, po wpisaniu tego samego wyrażenia na terenie Poznania. Mając to na uwadze, w raporcie skuteczności dostępna jest średnia pozycja. Jest to nic innego jak średnia arytmetyczna, liczona dla najwyższego wyniku witryny w organicznych wyszukiwaniach.
Przykładowo, jeżeli jedno zapytanie “pozycjonowanie poznań” wyświetli link do domeny grupa-icea.pl na 3 pozycji, a drugie na 5, to w raporcie znalazłaby się wartość (3 + 5) / 2 = 4. W momencie, gdy faktyczna pozycja frazy zależy od personalizacji i geolokalizacji wyników, a także ulega dziennym wahaniom, średnia pozycja jest bezpieczną i rzetelną metryką służącą do oceny sytuacji.
Narzędzie do sprawdzania adresu URL (and. URL Inspection Tool) jest jednym z możliwych sposobów weryfikacji, czy dany adres URL znajduje się w indeksie serwisu. Informuje o ewentualnych błędach w procesie skanowania i indeksacji podstrony, a także umożliwia zgłoszenie indywidualnej prośby o zaindeksowanie adresu.
Dostępny w narzędziu “Test wersji opublikowanej” daje także możliwość zweryfikowania, czy nowy lub zmodyfikowany adres będzie prawidłowo odczytany przez roboty wyszukiwarki.
Ostatnią możliwością jaką daje narzędzie do sprawdzania adresu URL jest weryfikacja szeroko pojętych ulepszeń dostępnych na danej podstronie. Są to przede wszystkim wszelkie mikrodane, które zostaną wykryte w serwisie, ale także m.in. test dostosowania strony do urządzeń mobilnych, jak smartfony i tablety. Mobile Friendly Test, czyli właśnie test dostosowania strony do urządzeń mobilnych umówiony został w odrębnym artykule.
Raport dotyczący stanu zindeksowania witryny przez Google umożliwia wychwycenie błędów, które Googlebot napotkał podczas indeksacji witryny. Raport w standardowej wersji dotyczy wszystkich znanych podstron w danej domenie, ale jeżeli przez Search Console zostanie zgłoszona mapa witryny można przefiltrować listę komunikatów np. uwzględniając te, które dotyczą jedynie adresów z mapy.
Roboty sieciowe nie są nieomylne i wielokrotnie błędy zgłaszane w omawianym raporcie w rzeczywistości nie mają miejsca. Zazwyczaj wystarczy wówczas zgłosić prośbę o ponowną weryfikację danego zbioru adresów. Niemniej, docelową sytuacją powinna być zerowa liczba błędów w omawianym raporcie.
[tip] Duża liczba wykluczonych adresów jest całkowicie normalną sytuacją. Googlebot stara się zindeksować wszystkie dostępne w serwisie podstrony, z których duża część np. stanowi zbędne duplikaty.
Typ | Zalecane działanie w przypadku, gdy adres powinien być poprawnie zindeksowany |
Nie udało się odnaleźć przesłanego URL-a (404) | Weryfikacja czy błąd 404 nadal występuje i usunięcie go |
Przesłany URL zawiera tag “noindex” | Zmiana wartości meta tagu robots na “index, follow” |
Przesłany URL zawiera błędy indeksowania | Weryfikacja adresu przy użyciu narzędzia “Sprawdzanie adresu URL” |
Przesłany URL jest zablokowany przez plik robots.txt | Usunięcie z pliku robots.txt dyrektywy blokującej indeksację podstrony lub dodanie wyjątku |
Błąd serwera (5xx) | Ustalenie przyczyny błędu 5xx i usunięcie go |
Typ | Wyjaśnienie |
Strona przesłana i zindeksowana | Adresy zaindeksowane, zgłoszone ręcznie (przez mapę witryny lub narzędzie “Sprawdzanie adresu URL” |
Strona zindeksowana, ale nieprzesłana w mapie witryny | Adresy zaindeksowane, ale wyszukane przez Googlebota |
Typ | Czy należy podjąć działanie? |
Alternatywna strona zawierająca prawidłowy tag strony kanonicznej | Nie |
Duplikat, przesłany URL nie został oznaczony jako strona kanoniczna | Tak, warto zweryfikować jaka podstrona została wybrana przez Google jako kanoniczna dla tego adresu. Może to sygnalizować większą skalę duplikatów na stronie |
Duplikat, użytkownik nie oznaczył strony kanonicznej | Tak, warto zweryfikować dlaczego Google uznał tę podstronę za duplikat. |
Nieprawidłowość związana ze skanowaniem | Tak, warto zweryfikować przy użyciu narzędzia do sprawdzania adresów URL, co było przyczyną nieprawidłowości (kod 4xx? 5xxx?) |
Nie znaleziono (404) | Nie, ponieważ błędy 404 są całkowicie naturalną sytuacją. Warto jednak zweryfikować, czy nie istnieje odpowiednia podstrona, na którą można przekierować nieistniejący już adres |
Pozorny błąd 404 | Tak, podstrony które rzeczywiście nie istnieją powinny zwracać kod odpowiedzi 404 Not Found, a ten komunikat oznacza, że serwer zwraca kod 200 OK |
Strona wykluczona za pomocą tagu “noindex” | Nie, zakładając że “noindex” został wdrożony celowo i świadomie |
Strona wykryta – obecnie nie zindeksowana | Nie |
Strona zablokowana przez plik robots.txt | Tak, jeżeli strona nie powinna być indeksowana, warto blokadę w pliku robots.txt zastąpić tagiem “noindex” |
Strona zawiera przekierowanie | Nie, zakładając że wszystkie przekierowania są wdrażane w serwisie celowo |
Strona zeskanowana, ale jeszcze nie zindeksowana | Nie |
Po podjęciu działań naprawczych w związku z wybranym błędem/ostrzeżeniem, warto zgłosić naniesione poprawki. W widoku szczegółów danego błędu znajduje się przycisk “Sprawdź poprawkę”. W zależności od liczby adresów URL, których dotyczył błąd, weryfikacja może potrwać nawet kilka dni.
Rozpocznij
od bezpłatnej
konsultacji SEO
Zainwestuj w szczegółową konsultację SEO i dowiedz się więcej na temat wydajności Twojego sklepu internetowego. Przeprowadzimy dla Ciebie kompleksową analizę, dzięki której uzyskasz jasny obraz tego, co należy poprawić.
Dziękujemy za kontakt.
Pozycjonujemy biznesy od 2007 roku. Pozwól, że zrobimy to za Ciebie!
Wrócimy z odpowiedzią w ciągu 72 godzin. Sprawdź swoją skrzynkę e-mailową, aby uzyskać więcej informacji.