Głównym celem strategii SEO jest zwiększenie widoczności strony internetowej oraz uplasowanie jej na jak najwyższej pozycji w rankingu wyszukiwania. Stosuje się w tym celu szereg strategii oraz metod, które dbają o obecność strony w sieci. Jednak niektóre witryny świadomie usuwają pewne strony z indeksu Google. Brzmi to jak szaleństwo, prawda? Wykorzystywane są w tym celu metatag robots, a jednym z nich jest tag noindex. Dowiedz się, jak wykorzystać niewidzialność w strategiach optymalizacji.
Tag noindex – o co chodzi?
Noindex jest jednym z tagów meta tag robots, czyli takich, które mają wpływ na rodzaj indeksowania postronny i wszystkich odnośników na niej zawartych. Nie jest w stanie zaindeksować podstrony. Jest to jedna z metod świadomego usuwania strony z indeksu Google. Tag ten umieszcza się w kodzie HTML strony lub zwraca nagłówek w odpowiedzi HTTP. Zabieg ten sprawi, iż strona nie będzie się pojawiać w wynikach wyszukiwania, ale będzie dostępna dla użytkowników witryny dzięki wykorzystaniu linków wewnętrznych bądź menu. Tag ten pozwoli na usunięcie z indeksu już zaindeksowanej podstrony.
Noindex a nofollow
Wielu użytkowników myli tag noindex z tagiem nofollow. Ten drugi jest znacznikiem HTML dla oznaczania linków. Zastosowanie go w kodzie wysyła sygnał wyszukiwarce, aby zignorować dany link. Pierwotnie tag nofollow miał na celu zwalczanie spamu w komentarzach na blogach, później zaczęto go wykorzystywać do manipulowania oceną linków prowadzących do danej witryny. Niektóre strategie SEO wykorzystują go do poprawienia pozycjonowania strony w celu poprawienia jej jakości. W przeciwieństwie do tagu omawianego w tym artykule strona wykorzystująca nofollow nadal pojawia się w wynikach SERP.
W jakim celu korzystać z tagu noindex?
SEO w większości przypadków stawia na strategię link buildingu opartej na linkach dofollow. Jednak należy pamiętać, że nie wszystkie podstrony powinny znaleźć się w wynikach wyszukiwania, aby nie obniżać jakości strony jako całości. Autorytet – nieustannie należy go wzmacniać. Chodzi więc głównie o podstrony, których zadaniem nie jest generowanie większego ruchu. Zaprojektowany w 1996 roku x robots tag noindex pozwala na kontrolowanie wyświetlania wartości strony w Google – to my informujemy, z czego powinien skorzystać odbiorca.
Które strony warto „zablokować” w kontekście indeksowania?
- podstrony o niskiej jakości treści,
- podstrony z wynikami filtrowania produktów w sklepach internetowych,
- podstrony z wynikami sortowania produktów,
- podstrony powstałe w wyniku personalizowania produktów,
- podstrony logowania, rejestracji, regulamin, koszyk w sklepie internetowym,
- płatne strony i podstrony,
- strony testowe bądź będące w trakcie przeprojektowania,
- strony z przekierowaniem np. do podziękowania.
Jak użyć tagu?
Aby zablokować indeksowanie danej podstrony, należy przejść do sekcji <head> strony i umieścić w jej obrębie meta tag, np.: <meta name= ”robots” content=”noindex”> bądź <meta name=”googlebot” content=”noindex”> (w zależności od potrzeby).
Drugim, mniej popularnym, sposobem jest zablokowanie robota Google. Jeśli serwer, z którego korzystamy, pozwala na ręczną edycję pliku „.htaccess”, wystarczy wykorzystać kod „header(X-Robots-Tag: noindex, nofollow”, true)”.
Czy strona znajduje się w indeksie Google?
Jeśli zastanawiamy się nad wykorzystaniem x robots tag noindex, warto sprawdzić w pierwszej kolejności, które z naszych stron i podstron znajdują się w indeksie wyszukiwarki. Wystarczy wpisać komendę „site: [nazwa strony]” i Google wyświetli wszystkie podstrony ze wskazanej witryny bądź wykorzystać narzędzie Google Search Console i zakładkę „Indeks” -> „Stan”. Warto o tym pamiętać, ponieważ strona nie musi pojawić się na wysokiej pozycji w wyszukiwarce i trudno będzie nam ją odnaleźć.
Dlaczego Google w niektórych przypadkach sam usuwa podstronę z indeksu?
- strona ma niski wskaźnik prędkości ładowania,
- podstrona przestała działać,
- treść na podstronie została zdublowana,
- robot indeksujący wykrył problem techniczny na podstronie,
- została nałożona na stronę kara za technikę Black Hat SEO.
Największymi korzyściami z zastosowania tego typu metatagu jest uniknięcie zamieszania oraz ułatwienie korzystania z części strony użytkownikom. Organizują wyświetlaną zawartość. W niektórych przypadkach posiadanie mniejszej ilości zaindeksowanych stron pozytywnie wpływa na SEO witryny – z jego pomocą można ustalić hierarchię podstron. W każdym razie warto uwzględnić budżet indeksowania witryny (crawl budget) w przypadku prowadzenia swojej strony WWW.
Konkluzja
Indeks wyszukiwarki Google to zbiór wszystkich stron internetowych dostępnych w organicznych wynikach wyszukiwania – mówiąc wprost, nie ma tam wszystkich stron z całego Internetu. Za pomocą meta robots można wydawać wyszukiwarce Google polecenia, które mają niebagatelny wpływ na pozycjonowanie strony pod kątem SEO. Warto wpływać na wizerunek swojej strony, aby ułatwiać jej użytkowanie.
Stosując ten prosty zabieg, sprawiasz, że mniej ważne treści nie pojawiają się w wynikach wyszukiwania. Tym samym dostajesz bardziej wiarygodny wskaźnik konwersji. Pamiętaj jednak, że wprowadzone zmiany nie muszą być widoczne od razu – ich działanie może się zacząć po kilku dniach bądź tygodniach, na co mają wpływ m.in. roboty Google. Najłatwiej będzie to sprawdzić w statystykach Google Search Console.
Masz pytania? Agencja SEO Poznań Grupa iCEA chętnie na nie odpowie!
Oddzwonimy na wskazany numer telefonu, aby umówić się na dogodny dla Ciebie termin niezobowiązującej konsultacji z naszym specjalistą.
Do usłyszenia!