Opublikowano: 11 listopada 2024 / Aktualizacja z: 11 listopada 2024 - Autor: Konrad Wolfenstein
Racjonalnie rozwiąż problem indeksowania w wyszukiwarkach – co tym razem za tym stoi?
W ciągu ostatnich kilku dni zauważyłem coś niepokojącego: moje najnowsze artykuły nie były już indeksowane w Google News, a ruch z Google Discover stale spadał. Oczywiście takie wydarzenia nie pozostawiają obojętnym. Przez głowę przechodziły mi różne szalone założenia, ale zdecydowałem się je odłożyć na bok i podejść do problemu racjonalnie.
Kiedy ręcznie przesłałem moje strony do Google, zostały one natychmiast zindeksowane i wyświetlone. Jednakże, jeśli czekałem, nic się nie działo. Obserwowałem to zjawisko przez dwa dni. Nadszedł więc czas na dokładne szukanie przyczyny.
Krok 1: Przejrzyj ostatnie zmiany
Najpierw zadałem sobie pytanie: Jaka była ostatnia rzecz edytowana na stronie? Aby zawęzić możliwe źródła błędów, konieczne jest zidentyfikowanie ostatnich zmian. W moim przypadku niedawno przerobiłem system buforowania.
Krok 2: Zidentyfikuj ukryte błędy lub błędy w myśleniu
Przegląd pamięci podręcznej może mieć niezamierzone skutki uboczne. Czy istnieją ukryte błędy lub błędy w myśleniu? Zacząłem sprawdzać nowe ustawienia i szukać ewentualnych konfliktów.
Krok 3: Znajdź przyczynę
Po szczegółowej analizie odkryłem winowajcę: nowa definicja bota w mojej konfiguracji zabezpieczeń wykonała świetną robotę – niestety zbyt dobrze. Obecnie w Internecie krąży niezliczona ilość botów, a aby zmniejszyć obciążenie serwera, często blokuje się niepotrzebne boty. Jednak Googlebot został błędnie umieszczony w kategorii „niepotrzebnych botów”. Małe przeoczenie z dużymi konsekwencjami.
Notatki z Narzędzi dla webmasterów Microsoft Bing
Moje podejrzenia potwierdziły raporty z Bing Webmaster Tools:
- „Niektóre z Twoich ostatnio opublikowanych ważnych stron nie zostały przesłane za pośrednictwem IndexNow. Dowiedz się, dlaczego ważne jest przesyłanie danych za pośrednictwem IndexNow”.
- Niektóre z Twoich nowych, ważnych stron nie są uwzględnione w mapach witryn.”**
Google Search Console zwróciła mi również uwagę, że indeksowane są strony bez treści. Te wskazówki wyraźnie wskazywały, że wyszukiwarki miały problemy z dostępem do moich treści.
wniosek
Uświadomienie sobie tego było otrzeźwiające: widzę strony, których Google nie widzi. Aby wyszukiwarki mogły przechwytywać moje strony, ich boty muszą mieć nieograniczony dostęp. Jeśli Googlebot zostanie zablokowany, moje treści pozostaną niewidoczne.
Jak sprawdzić, co widzi Googlebot?
Aby mieć pewność, że Googlebot będzie mógł poprawnie indeksować moją witrynę, chciałem wyświetlić strony z jego perspektywy. Istnieje kilka metod odwiedzania witryny internetowej, tak jak robi to Googlebot.
1. Jak korzystać z Narzędzi programistycznych Google Chrome
Prostą metodą jest użycie narzędzi programistycznych przeglądarki Google Chrome:
- Otwórz narzędzia programistyczne: Naciśnij `Ctrl + Shift + I` (Windows) lub `Cmd + Shift + I` (Mac).
- Przejdź do karty Sieć: Tutaj wyświetlana jest cała aktywność sieciowa.
- Dostosowywanie agenta użytkownika: Kliknij trzy kropki w prawym górnym rogu, wybierz „Więcej narzędzi”, a następnie „Warunki sieciowe”. Odznacz opcję „Automatycznie wybierz agenta użytkownika” i wybierz z listy „Googlebot”.
- Załaduj ponownie stronę: po ponownym załadowaniu strona wyświetla się tak, jak widzi ją Googlebot.
Ta metoda pozwala zidentyfikować potencjalne problemy z renderowaniem lub zablokowane zasoby.
2. Użycie przełącznika agenta użytkownika
Alternatywnie można zastosować rozszerzenie przeglądarki, takie jak „Przełącznik użytkownika”:
- Instalowanie rozszerzenia: Wyszukaj opcję User-Agent Switcher w sklepie Chrome Web Store i zainstaluj ją.
- Wybieranie Googlebota jako agenta użytkownika: po instalacji możesz wybrać żądanego agenta użytkownika.
- Odwiedzanie witryny: Strona jest teraz wyświetlana z perspektywy Googlebota.
Jest to szczególnie przydatne do szybkiego testowania i jeśli chcesz często przełączać się między różnymi programami użytkownika.
3. Korzystanie z pająka SEO Screaming Frog
Do bardziej dogłębnej analizy nadaje się „Screaming Frog SEO Spider”:
- Dostosowywanie agenta użytkownika: przejdź do opcji Konfiguracja > Agent użytkownika i wybierz Googlebot.
- Rozpoczęcie procesu indeksowania: Narzędzie indeksuje witrynę i wyświetla sposób, w jaki widzi ją Googlebot.
- Analizuj wyniki: Zidentyfikuj możliwe problemy z indeksowaniem lub zablokowane zasoby.
Narzędzie to idealnie sprawdza się w przypadku dużych serwisów internetowych i szczegółowych audytów SEO.
4. Korzystanie z Google Search Console
Google Search Console dostarcza również cennych informacji:
- Sprawdzanie adresu URL: wprowadź żądany adres URL i rozpocznij test na żywo.
- Analizuj wyniki: Możesz sprawdzić, czy strona jest zaindeksowana i czy występują problemy z jej indeksowaniem.
- Pobierz jak Google: ta funkcja pozwala zobaczyć, jak Googlebot renderuje stronę.
Pomaga to zidentyfikować konkretne problemy, które mogą uniemożliwiać botowi prawidłowe przechwytywanie strony.
rozwiązanie problemu
Korzystając z tych narzędzi, mogłem potwierdzić, że Googlebot rzeczywiście został zablokowany. Aby rozwiązać problem, wykonałem następujące kroki:
1. Dostosowanie definicji botów
Zaktualizowałem konfigurację zabezpieczeń, aby nie blokować już Googlebota i innych głównych botów wyszukiwarek.
2. Sprawdzanie pliku robots.txt
Upewniłem się, że plik nie zawiera żadnych instrukcji ograniczających dostęp.
3. Aktualizacje map witryny
Mapy witryn zostały odnowione i przesłane do Narzędzi dla webmasterów.
4. Monitorowanie
Przez kilka następnych dni monitorowałem indeksowanie i ruch, aby upewnić się, że znów wszystko działa sprawnie.
Środki zapobiegawcze na przyszłość
Aby uniknąć takich problemów w przyszłości, podjąłem kilka postanowień:
- Regularnie przeglądaj konfiguracje zabezpieczeń: Po każdej zmianie należy sprawdzić wpływ na funkcjonalność serwisu.
- Ciągłe monitorowanie: korzystanie z narzędzi takich jak Google Search Console pomaga wcześnie identyfikować problemy.
- Przejrzysta dokumentacja zmian: Wszelkie zmiany na stronie powinny być udokumentowane, aby móc szybciej zareagować w przypadku błędu.
- Szkolenie: Lepsze zrozumienie działania wyszukiwarek i ich botów pomaga uniknąć błędnych konfiguracji.
Wiedza z tego
Powinienem był wiedzieć lepiej i pamiętać o zachowaniu ostrożności podczas edycji pamięci podręcznej. Ale ślepota operacyjna mocno tu uderzyła. Problem zidentyfikowany, rozwiązany, skorygowany i kontynuowany z większą uwagą.
Błędy techniczne mogą mieć znaczący wpływ na widoczność strony internetowej. W moim przypadku źle skonfigurowana definicja bota spowodowała zablokowanie Googlebota, co spowodowało zatrzymanie indeksowania moich treści.
Uświadomienie sobie: nawet małe zmiany mogą mieć duże konsekwencje.
Dzięki systematycznemu rozwiązywaniu problemów i zastosowaniu odpowiednich narzędzi udało mi się zidentyfikować i rozwiązać problem. Regularnie sprawdzaj, jak wyszukiwarki postrzegają Twoją witrynę.
Mam nadzieję, że moje doświadczenia pomogą innym webmasterom uniknąć podobnych problemów lub szybciej je rozwiązać. Widoczność w wyszukiwarkach jest kluczowa dla powodzenia strony internetowej, dlatego zawsze należy mieć na uwadze stan techniczny.
Nadaje się do: