14 przyczyn braku widoczności strony w Google

Blog tutorial 14 przyczyn braku widoczności strony w Google
Chłopak intensywnie wpatrujący się w ekran komputera

Dlaczego moja strona jest niewidoczna w Google? Kiedy strona się zaindeksuje? Dlaczego mojej strony nie ma w wynikach wyszukiwania? To bardzo często powtarzające się pytania.

Przyczyn braku widoczności w wyszukiwarkach może być wiele, a w tym artykule omówimy najczęściej spotykane powody problemów.


Spis treści

  1. Czas
  2. Linki
  3. Robots.txt
  4. Nagłówki HTTP
  5. Canonical
  6. Meta tagi
  7. Brak unikalnej treści
  8. Łańcuch przekierowań
  9. Blokowanie zasobów
  10. Błędy serwera
  11. Kary ręczne i algorytmiczne z Google
  12. Hasło
  13. Konkurencja
  14. Długie czasy ładowania strony


1. Czas

Po pierwsze - czas. Najpowszechniejszy powód braku widoczności w Google, to po prostu niewystarczający czas od publikacji. Google musi znaleźć podstronę, zaindeksować ją i dopiero wtedy jest w stanie wyświetlać podstronę.

Jak sprawdzić czy strona jest zaindeksowana?

Wpisując site:adresstrony w Google

sprawdzenie zaindeksowania linków

a to strona niewidoczna w Google:
strona niewidoczna w Google

Zaindeksowanie strony można też sprawdzić bezpośrednio w Google Search Console

Google Search Console

Wpisujemy adres podstrony w pasku wyszukiwania w górnej części Search Console i sprawdzamy zaindeksowanie. To strona, której  adres URL nie znajduje się w Google:

strona niewidoczna w Google Search Console

Treść mało konkurencyjna może pojawiać się wysoko w wynikach wyszukiwania od razu po zaindeksowaniu. W większości wypadków treść konkurencyjna jest już dostępna, a wtedy potrzeba czasu i linków.


2. Linki

Linki to niezmiennie jeden z najważniejszych parametrów przy ocenie jakości strony. Aby wyszukiwarki mogły znaleźć podstronę powinny prowadzić do niej odnośniki. Im wyższa moc domeny (Pulno Domain Power), tym Google znajdzie stronę szybciej i tym większa szansa, że artykuły publikowane w tej domenie będą pojawiać się wyżej. To oczywiście olbrzymie uproszczenie, ale bez linków do domeny szansa na pojawienie się na topowych pozycjach jest bliska zeru.

Pulno Domain Power

Do zaindeksowania podstrony potrzebne są:

  • odnośniki wewnętrzne - odpowiednia struktura strony i linki wewnętrzne do podstrony
  • odnośniki zewnętrzne - im lepsza jakość i większa liczba odnośników zewnętrznych, tym większa szansa na lepszą widoczność podstron. W przypadku konkurencyjnych fraz, wskazane są linki zewnętrzne bezpośrednio do pozycjonowanej podstrony

Linki do podstrony mogą znaleźć się w pliku sitemap, o który warto dbać, ale zdecydowanie lepiej jest mieć linki prowadzące do podstrony bezpośrednio na stronie.

Jak sprawdzić linki przychodzące
Analiza backlinków w Pulno


3. Robots.txt

Plik robots.txt służy do blokowania dostępu wyszukiwarkom do przeszukiwania strony. Plik robots znajduje się w folderze głównym domeny, np.

https://www.medbiz.pl/robots.txt

Jeśli plik robots.txt ma postać

User-agent: *

Disallow: /przyklad/

a Twoja podstrona ma adres:

https://www.jakastrona.pl/przyklad/stronaA.html

to strona nie będzie indeksowana przez wyszukiwarki. Oczywiście są wyjątki od takiej sytuacji (np. linki z zewnątrz bezpośrednio do podstrony), ale w większości wypadków nie ma co liczyć na zaindeksowanie podstrony blokowanej przez plik robots.txt


4. Nagłówki HTTP

Nagłówki to część kodu HTML wysyłanego z serwera do przeglądarki lub robotów wyszukiwarek. W nagłówkach można ustawić blokadę indeksowania strony przez wysłanie elementu X-Robots-Tag z wartością noindex, np.

X-Robots-Tag: noindex

W ten sposób informujemy wyszukiwarki, że strona nie powinna być indeksowana. Ustawienie nagłówka X-Robots-Tag to dobry sposób na blokowanie indeksowania np. plików PDF.

Serwer podczas komunikacji z przeglądarką wysyła tzw. kod odpowiedzi. Kod 200 oznacza prawidłowo pobraną stronę. Jeśli Twoja strona wysyła kod zaczynający się na:

  • 4 - np. 404 - informujesz, że strona nie jest dostępna
  • 3 - np. 301 - informujesz, że strona jest przekierowana
  • 5 - np. 500 - serwer wysyła błąd związany z działaniem

Jeśli kod odpowiedzi jest inny niż 200, to najprawdopodobniej Twoja strona nie będzie prawidłowo zaindeksowana.


5. Canonical

Parametr canonical stosuje się do wyznaczenia treści, które wyszukiwarki powinny indeksować zamiast wskazanej podstrony.

Dodanie parametru rel=canonical do strony

https://www.przyklad.pl/czerwone-buty.html?page=old

o wartości:

<link rel="canonical" href="https://www.przyklad.pl/czerwone-buty.html" />

powoduje, że wyszukiwarki zamiast indeksować stronę:

https://www.przyklad.pl/czerwone-buty.html?page=old

będą indeksować wskazaną stronę kanoniczną:

https://www.przyklad.pl/czerwone-buty.html

Można stosować rel=canonical ze wskazaniem na tę samą stroną. Jeśli jednak wskazana zostanie inna strona kanoniczna, to wyszukiwarki będą indeksować stronę wskazaną przez rel=canonical. Warto pamiętać, że parametr rel=canonical jest tylko sugestią dla wyszukiwarek i nie zawsze będzie respektowany.


6. Meta tagi

Blokowanie indeksowania strony i brak widoczności można przeprowadzić również za pomocą meta tagu robots. Mając na stronie:

<meta name="robots" content="noindex,follow" />

możemy być pewni, że wyszukiwarki nie będą indeksować podstrony.


Należy przy tym pamiętać, że długotrwałe stosowanie noindex, follow powoduje zmianę na noindex, nofollow. Wyszukiwarka Google nie będzie podążać za linkami z nieindeksowanych stron. 




7. Brak unikalnej treści (duplicate content)

Google opiera się przede wszystkim na treści tekstowej. Jeśli:

  1. treść będzie niskiej jakości
  2. treść będzie plagiatem (kopią z innych stron)

to szansa, że Google zaindeksuje treści i będzie je wyświetlał wysoko jest bliska zeru. To prawda, że istnieje wiele kontrprzykładów i widać w wynikach wyszukiwania treść zduplikowaną. Najczęściej jednak taka treść nie utrzymuje się długo i po kolejnej aktualizacji algorytmu może zaliczyć olbrzymie spadki. Dbając o wysoką jakość treści szansa na wysoką widoczność w wynikach wyszukiwania jest znacznie większa.

Strony z mała ilością unikalnych treści są odwiedzane rzadziej przez roboty wyszukiwarek, a docelowo będą miały mniejszą widoczność w Google.


Jak sprawdzić linki przychodzące
Identyfikacja stron niskiej jakości


8. Łańcuch przekierowań

Przyczyną braku indeksowania mogą być również przekierowania. Odpowiednio ustawione przekierowanie powoduje, że indeksowana będzie strona docelowa. Jeśli jednak przekierowań jest kilka z rzędu (więcej niż 5) lub będą zapętlone, to możemy mieć duże problemy z zaindeksowaniem strony. Taka strona nie będzie widoczna w wynikach wyszukiwania.


9. Blokowanie zasobów

Oprócz treści tekstowych wyszukiwarki pobierają jeszcze dodatkowe zasoby:

  • pliki CSS
  • pliki JavaScript
  • pliki graficzne

W przypadku blokowania dostępu do powyższych zasobów wyszukiwarki mogą mieć problem z pełnym zrozumieniem treści strony. Podobnie jak we wspomnianych wcześniej przypadkach rekomendujemy pełny dostęp do wyżej wymienionych plików. Nie warto ich blokować w robots.txt i nagłówkach.


10. Błędy serwera

Częste błędy serwera zmniejszają szybkość jego przeszukiwania (crawl rate). Jeśli roboty wyszukiwarek często otrzymują kod odpowiedzi 5xx, to szansa, że zaindeksują stroną się zmniejsza.


11. Kary ręczne i algorytmiczne z Google

Przyczyną braku indeksacji mogą być kary z Google. W przypadku kary nałożonej ręcznie mamy możliwość sprawdzenia sytuacji w Google Search Console.

Rozpoznanie kary algorytmicznej to temat na osobny artykuł. Warto sprawdzić czy nazwa Twojej domeny pojawia się w wynikach wyszukiwaniu na czołowych pozycjach. Pomocny może być też parametr site:. Jeśli po wyszukiwaniu site:nazwaTwojejstrony.com liczba wyników jest znacznie niższa niż liczba opublikowanych podstron, to można spodziewać się kary algorytmicznej. Bardzo często powodem kar algorytmicznej jest nienaturalny profil linków. 


12. Hasło

znak STOP

Wyszukiwarki nie mają dostępu do stron zabezpieczonych hasłem. Ustawienie blokady na hasło to dobry sposób na ograniczenie dostępu do podstrony na serwerze produkcyjnym lub testowym. Jeśli jednak chcesz zaindeksować swoje strony, to nie możesz blokować ich hasłem. 


13. Konkurencja

Każdego dnia powstaje ponad 5,7 milionów artykułów. Szansa, że artykuł na podobny temat jest już dostępny jest olbrzymia. Warto więc porównać się z konkurencją - wyszukać hasło związane z tworzonymi treściami i sprawdzić co powoduje, że artykuły na czołowych miejscach są tak wysoko. Często jest to długa i atrakcyjna treść, odpowiednie grafiki, przejrzysta struktura tekstu. Do zdobycia wysokich pozycji potrzebujemy wysokiej jakości treści i dobrych linków prowadzących do strony.

biegnący chłopcy

W wyszukiwarkach sytuacja jest podobna jak w sporcie. Tylko najlepiej przygotowani mogą osiągnąć czołowe pozycje.


14. Długie czasy ładowania strony

Powolne ładowanie strony nie tylko obniża konwersję, ale też zmniejsza szansę na poprawne zaindeksowanie strony. Wolny serwer, generujący na dodatek sporo błędów, (patrz punkt 10.) powoduje, że roboty wyszukiwarek będą omijać takie strony szerokim łukiem.


Podsumowanie

Powodów braku indeksacji może być wiele, a ich ręczne sprawdzenie będzie nie tylko trudne (np. nagłówki http), ale też czasochłonne. W przypadku braku zaindeksowania strony polecam skorzystanie z Pulno w celu szybkiego i automatycznego sprawdzenia problemów z indeksacją.



Jacek Wieczorek jest współautorem Pulno. Od 2006 aktywnie zajmuje się pozyskiwaniem ruchu liczonego w setkach tysięcy użytkowników dziennie. 


Skontaktuj się:   



×

Narzędzie do analiz stron WWW i audytów SEO

Podaj adres WWW i wykonaj audyt twojej strony

Poprawny adres strony jest wymagany
Poprawny e-mail jest wymagany
Akceptacja regulaminu jest wymagana.