Nawet jeśli kontrolujemy plik robots.txt, wygenerowaliśmy mapę portalu WWW i precyzyjnie oznaczamy treści, które powinny być indeksowane, możemy natknąć się na szereg problemów indeksacji. W tym artykule wskażę najczęstsze przyczyny i popularne błędy związane z indeksowaniem.
Zewnętrzne narzędzia wyszukiwarek
Wyszukiwarki udostępniają webmasterom narzędzia analityczne – dzięki nim możemy monitorować zachowanie portalu WWW w sieci. Tego typu usługi są darmowe i bardzo pomocne w początkowej fazie rozwoju serwisu. Dlatego warto zarejestrować swój profil i zgłosić portal WWW wybranym przez nas wyszukiwarkom.
Po zgłoszeniu portalu uzyskujemy dostęp do narzędzi monitorujących ruch na naszej stronie – także w kontekście pracy robotów indeksujących. Jeśli wyszukiwarka znajdzie jakiś poważny problem z indeksowaniem, to odpowiedni komunikat powinien pojawić się w panelu. To samo dotyczy zgłoszenia mapy stron WWW w formacie sitemap.xml. Sprawdzamy w pierwszej kolejności, czy roboty nawiązują połączenie z mapą i czy jest dla nich czytelna. W razie problemów wyszukiwarka wyświetla odpowiednie ostrzeżenia i może podpowiedzieć rozwiązania.
Zgłoszenie portalu WWW wyszukiwarce jest jednym z lepszym sposobów na monitorowanie pracy naszego serwisu. Dzięki opisanym narzędziom możemy dowiedzieć się o problemach z indeksowaniem i bezpieczeństwem za nim cokolwiek zauważymy na stronie WWW. Jest to podstawa monitowania procesu indeksowania naszego portalu. Oprócz tego warto także zwrócić uwagę na następujące zagadnienia:
- Wyłącz opcję: „Proś wyszukiwarki o nieindeksowanie tej witryny”. Możemy się na nią natknąć w dwóch miejscach: podczas instalacji WordPressa oraz w panelu admina, w sekcji Ustawienia > Czytanie. Warto podkreślić, że opcja może być ignorowana przez różne roboty indeksujące.
- Sprawdź, czy w pliku robots.txt nie znajdują się dyrektywy blokujące dostęp robotom do portalu WWW.
- Każdy odnośnik znajdujący się na naszej stronie WWW powinien zostać sprawdzony pod kątem poprawności. Szukamy literówek i innych błędów uniemożliwiających przejście do adresu docelowego.
- Warto zwracać uwagę na reputacje stron WWW, do których linkujemy. Unikamy linkowania do portali praktykujących czarne SEO, będących farmą linków, spamu i stojących w konflikcie z prawem.
- Należy uważać, aby nie przesadzić z wstawianiem słów kluczowych w każdym możliwym miejscu. Nie musimy także każdego słowa kluczowego wyróżniać znacznikami strong i em. Niektóre wtyczki SEO umożliwiają analizę treści pod kątem gęstości występowania słów kluczowych, jeśli przesadzimy, to powinny nas o tym poinformować.
- W żadnym wypadku nie należy upychać na siłę słów kluczowych w atrybutach title oraz alt. Pamiętajmy, w tych miejscach wprowadzamy treść, która ma służyć użytkownikom – powinna informować i dookreślać. To nie są kontenery na słowa kluczowe.
- Powielona treść także może być przyczyną problemów z indeksowaniem. W razie problemów z duplikacją powinniśmy skorzystać z przekierowań lub linków kanonicznych.
- Warto rozważyć wykluczenie z indeksowania strony z wynikami wyszukiwania naszej wewnętrznej wyszukiwarki. Niektóre wtyczki odpowiedzialne za pozycjonowanie i generowanie mapy witryny, mogą robić to automatycznie.
Ręka na pulsie
To chyba najlepsza rada. Jeśli przygotujemy plik robots.txt, zgłosimy mapę strony, prawidłowo będzie oznaczać treści, które powinny być indeksowane, to nie powinniśmy napotykać większych problemów z indeksowaniem. Ale podstawą monitorowania, jest zgłoszenie serwisu WWW wybranej przez nas wyszukiwarce.