Dlaczego moja strona jest niewidoczna w Google? Kiedy strona się zaindeksuje? Dlaczego mojej strony nie ma w wynikach wyszukiwania? To bardzo często powtarzające się pytania.
Przyczyn braku widoczności w wyszukiwarkach może być wiele, a w tym artykule omówimy najczęściej spotykane powody problemów.
Po pierwsze - czas. Najpowszechniejszy powód braku widoczności w Google, to po prostu niewystarczający czas od publikacji. Google musi znaleźć podstronę, zaindeksować ją i dopiero wtedy jest w stanie wyświetlać podstronę.
Jak sprawdzić czy strona jest zaindeksowana?
Wpisując site:adresstrony w Google
Zaindeksowanie strony można też sprawdzić bezpośrednio w Google Search Console
Wpisujemy adres podstrony w pasku wyszukiwania w górnej części Search Console i sprawdzamy zaindeksowanie. To strona, której adres URL nie znajduje się w Google:
Treść mało konkurencyjna może pojawiać się wysoko w wynikach wyszukiwania od razu po zaindeksowaniu. W większości wypadków treść konkurencyjna jest już dostępna, a wtedy potrzeba czasu i linków.
Linki to niezmiennie jeden z najważniejszych parametrów przy ocenie jakości strony. Aby wyszukiwarki mogły znaleźć podstronę powinny prowadzić do niej odnośniki. Im wyższa moc domeny (Pulno Domain Power), tym Google znajdzie stronę szybciej i tym większa szansa, że artykuły publikowane w tej domenie będą pojawiać się wyżej. To oczywiście olbrzymie uproszczenie, ale bez linków do domeny szansa na pojawienie się na topowych pozycjach jest bliska zeru.
Do zaindeksowania podstrony potrzebne są:
Linki do podstrony mogą znaleźć się w pliku sitemap, o który warto dbać, ale zdecydowanie lepiej jest mieć linki prowadzące do podstrony bezpośrednio na stronie.
Plik robots.txt służy do blokowania dostępu wyszukiwarkom do przeszukiwania strony. Plik robots znajduje się w folderze głównym domeny, np.
https://www.medbiz.pl/robots.txt
Jeśli plik robots.txt ma postać
User-agent: *
Disallow: /przyklad/
a Twoja podstrona ma adres:
https://www.jakastrona.pl/przyklad/stronaA.html
to strona nie będzie indeksowana przez wyszukiwarki. Oczywiście są wyjątki od takiej sytuacji (np. linki z zewnątrz bezpośrednio do podstrony), ale w większości wypadków nie ma co liczyć na zaindeksowanie podstrony blokowanej przez plik robots.txt
Nagłówki to część kodu HTML wysyłanego z serwera do przeglądarki lub robotów wyszukiwarek. W nagłówkach można ustawić blokadę indeksowania strony przez wysłanie elementu X-Robots-Tag z wartością noindex, np.
X-Robots-Tag: noindex
W ten sposób informujemy wyszukiwarki, że strona nie powinna być indeksowana. Ustawienie nagłówka X-Robots-Tag to dobry sposób na blokowanie indeksowania np. plików PDF.
Serwer podczas komunikacji z przeglądarką wysyła tzw. kod odpowiedzi. Kod 200 oznacza prawidłowo pobraną stronę. Jeśli Twoja strona wysyła kod zaczynający się na:
Jeśli kod odpowiedzi jest inny niż 200, to najprawdopodobniej Twoja strona nie będzie prawidłowo zaindeksowana.
Parametr canonical stosuje się do wyznaczenia treści, które wyszukiwarki powinny indeksować zamiast wskazanej podstrony.
Dodanie parametru rel=canonical do strony
https://www.przyklad.pl/czerwone-buty.html?page=old
o wartości:
<link rel="canonical" href="https://www.przyklad.pl/czerwone-buty.html" />
powoduje, że wyszukiwarki zamiast indeksować stronę:
https://www.przyklad.pl/czerwone-buty.html?page=old
będą indeksować wskazaną stronę kanoniczną:
https://www.przyklad.pl/czerwone-buty.html
Można stosować rel=canonical ze wskazaniem na tę samą stroną. Jeśli jednak wskazana zostanie inna strona kanoniczna, to wyszukiwarki będą indeksować stronę wskazaną przez rel=canonical. Warto pamiętać, że parametr rel=canonical jest tylko sugestią dla wyszukiwarek i nie zawsze będzie respektowany.
Blokowanie indeksowania strony i brak widoczności można przeprowadzić również za pomocą meta tagu robots. Mając na stronie:
<meta name="robots" content="noindex,follow" />
możemy być pewni, że wyszukiwarki nie będą indeksować podstrony.
Należy przy tym pamiętać, że długotrwałe stosowanie noindex, follow powoduje zmianę na noindex, nofollow. Wyszukiwarka Google nie będzie podążać za linkami z nieindeksowanych stron.
Google opiera się przede wszystkim na treści tekstowej. Jeśli:
to szansa, że Google zaindeksuje treści i będzie je wyświetlał wysoko jest bliska zeru. To prawda, że istnieje wiele kontrprzykładów i widać w wynikach wyszukiwania treść zduplikowaną. Najczęściej jednak taka treść nie utrzymuje się długo i po kolejnej aktualizacji algorytmu może zaliczyć olbrzymie spadki. Dbając o wysoką jakość treści szansa na wysoką widoczność w wynikach wyszukiwania jest znacznie większa.
Strony z mała ilością unikalnych treści są odwiedzane rzadziej przez roboty wyszukiwarek, a docelowo będą miały mniejszą widoczność w Google.
Przyczyną braku indeksowania mogą być również przekierowania. Odpowiednio ustawione przekierowanie powoduje, że indeksowana będzie strona docelowa. Jeśli jednak przekierowań jest kilka z rzędu (więcej niż 5) lub będą zapętlone, to możemy mieć duże problemy z zaindeksowaniem strony. Taka strona nie będzie widoczna w wynikach wyszukiwania.
Oprócz treści tekstowych wyszukiwarki pobierają jeszcze dodatkowe zasoby:
W przypadku blokowania dostępu do powyższych zasobów wyszukiwarki mogą mieć problem z pełnym zrozumieniem treści strony. Podobnie jak we wspomnianych wcześniej przypadkach rekomendujemy pełny dostęp do wyżej wymienionych plików. Nie warto ich blokować w robots.txt i nagłówkach.
Częste błędy serwera zmniejszają szybkość jego przeszukiwania (crawl rate). Jeśli roboty wyszukiwarek często otrzymują kod odpowiedzi 5xx, to szansa, że zaindeksują stroną się zmniejsza.
Przyczyną braku indeksacji mogą być kary z Google. W przypadku kary nałożonej ręcznie mamy możliwość sprawdzenia sytuacji w Google Search Console.
Rozpoznanie kary algorytmicznej to temat na osobny artykuł. Warto sprawdzić czy nazwa Twojej domeny pojawia się w wynikach wyszukiwaniu na czołowych pozycjach. Pomocny może być też parametr site:. Jeśli po wyszukiwaniu site:nazwaTwojejstrony.com liczba wyników jest znacznie niższa niż liczba opublikowanych podstron, to można spodziewać się kary algorytmicznej. Bardzo często powodem kar algorytmicznej jest nienaturalny profil linków.
Wyszukiwarki nie mają dostępu do stron zabezpieczonych hasłem. Ustawienie blokady na hasło to dobry sposób na ograniczenie dostępu do podstrony na serwerze produkcyjnym lub testowym. Jeśli jednak chcesz zaindeksować swoje strony, to nie możesz blokować ich hasłem.
Każdego dnia powstaje ponad 5,7 milionów artykułów. Szansa, że artykuł na podobny temat jest już dostępny jest olbrzymia. Warto więc porównać się z konkurencją - wyszukać hasło związane z tworzonymi treściami i sprawdzić co powoduje, że artykuły na czołowych miejscach są tak wysoko. Często jest to długa i atrakcyjna treść, odpowiednie grafiki, przejrzysta struktura tekstu. Do zdobycia wysokich pozycji potrzebujemy wysokiej jakości treści i dobrych linków prowadzących do strony.
W wyszukiwarkach sytuacja jest podobna jak w sporcie. Tylko najlepiej przygotowani mogą osiągnąć czołowe pozycje.
Powolne ładowanie strony nie tylko obniża konwersję, ale też zmniejsza szansę na poprawne zaindeksowanie strony. Wolny serwer, generujący na dodatek sporo błędów, (patrz punkt 10.) powoduje, że roboty wyszukiwarek będą omijać takie strony szerokim łukiem.
Powodów braku indeksacji może być wiele, a ich ręczne sprawdzenie będzie nie tylko trudne (np. nagłówki http), ale też czasochłonne. W przypadku braku zaindeksowania strony polecam skorzystanie z Pulno w celu szybkiego i automatycznego sprawdzenia problemów z indeksacją.
Jacek Wieczorek jest współautorem Pulno. Od 2006 aktywnie zajmuje się pozyskiwaniem ruchu liczonego w setkach tysięcy użytkowników dziennie. |
11-02-2020
Podaj adres WWW i wykonaj audyt twojej strony