
Czy istnieje ryzyko utraty pozycji w wyszukiwarkach? Koniec z rankingami Google, mimo że wszystko wydaje się w porządku? – Zdjęcie: Xpert.Digital
Racjonalnie rozwiąż problem indeksowania w wyszukiwarkach – co tym razem za tym stoi?
W ciągu ostatnich kilku dni zauważyłem coś niepokojącego: moje najnowsze artykuły nie były już indeksowane w Google News, a ruch z Google Discover stale spadał. Oczywiście takie wydarzenia nie pozostawiają obojętnym. Przez głowę przechodziły mi różne szalone założenia, ale zdecydowałem się je odłożyć na bok i podejść do problemu racjonalnie.
Kiedy ręcznie przesłałem moje strony do Google, zostały one natychmiast zindeksowane i wyświetlone. Jednakże, jeśli czekałem, nic się nie działo. Obserwowałem to zjawisko przez dwa dni. Nadszedł więc czas na dokładne szukanie przyczyny.
Krok 1: Przejrzyj ostatnie zmiany
Najpierw zadałem sobie pytanie: Jaka była ostatnia rzecz edytowana na stronie? Aby zawęzić możliwe źródła błędów, konieczne jest zidentyfikowanie ostatnich zmian. W moim przypadku niedawno przerobiłem system buforowania.
Krok 2: Zidentyfikuj ukryte błędy lub błędy w myśleniu
Przegląd pamięci podręcznej może mieć niezamierzone skutki uboczne. Czy istnieją ukryte błędy lub błędy w myśleniu? Zacząłem sprawdzać nowe ustawienia i szukać ewentualnych konfliktów.
Krok 3: Znajdź przyczynę
Po dogłębnej analizie odkryłem winowajcę: nowa definicja bota w mojej konfiguracji bezpieczeństwa wykonała świetnie-niestety zbyt dobrze. Dzisiaj niezliczone boty wędrują po Internecie i aby zmniejszyć obciążenie serwera, niepotrzebne boty są często blokowane. Jednak GoogleBot został niesłusznie włożenia do kategorii „niepotrzebnych botów”. Mały nadzór z wielkimi efektami.
Notatki z Narzędzi dla webmasterów Microsoft Bing
Moje podejrzenia potwierdziły raporty z Bing Webmaster Tools:
- „Niektóre z twoich niedawno opublikowanych ważnych stron nie zostały przesłane za pośrednictwem indexNow. Dowiedz się, dlaczego ważne jest, aby przesłać go za pośrednictwem indeksu. ”
- Niektóre z twoich ważnych stron nie są zawarte w mapach witryn. ”**
Google Search Console zwróciła mi również uwagę, że indeksowane są strony bez treści. Te wskazówki wyraźnie wskazywały, że wyszukiwarki miały problemy z dostępem do moich treści.
wniosek
Uświadomienie sobie tego było otrzeźwiające: widzę strony, których Google nie widzi. Aby wyszukiwarki mogły przechwytywać moje strony, ich boty muszą mieć nieograniczony dostęp. Jeśli Googlebot zostanie zablokowany, moje treści pozostaną niewidoczne.
Jak sprawdzić, co widzi Googlebot?
Aby mieć pewność, że Googlebot będzie mógł poprawnie indeksować moją witrynę, chciałem wyświetlić strony z jego perspektywy. Istnieje kilka metod odwiedzania witryny internetowej, tak jak robi to Googlebot.
1. Jak korzystać z Narzędzi programistycznych Google Chrome
Prostą metodą jest użycie narzędzi programistycznych przeglądarki Google Chrome:
- Otwórz narzędzia programistyczne: Naciśnij `Ctrl + Shift + I` (Windows) lub `Cmd + Shift + I` (Mac).
- Przejdź do karty Sieć: Tutaj wyświetlana jest cała aktywność sieciowa.
- Dostosowanie agencji użytkowników: kliknij trzy punkty w prawym górnym rogu, wybierz „Więcej narzędzi”, a następnie „Warunki sieciowe”. Wyłącz opcję „Wybierz użytkownik automatycznie” i wybierz „GoogleBot” z listy.
- Załaduj ponownie stronę: po ponownym załadowaniu strona wyświetla się tak, jak widzi ją Googlebot.
Ta metoda pozwala zidentyfikować potencjalne problemy z renderowaniem lub zablokowane zasoby.
2. Użycie przełącznika agenta użytkownika
Alternatywnie można użyć rozszerzenia przeglądarki, takiego jak „przełącznik agenta użytkownika”:
- Instalowanie rozszerzenia: Wyszukaj opcję User-Agent Switcher w sklepie Chrome Web Store i zainstaluj ją.
- Wybieranie Googlebota jako agenta użytkownika: po instalacji możesz wybrać żądanego agenta użytkownika.
- Odwiedzanie witryny: Strona jest teraz wyświetlana z perspektywy Googlebota.
Jest to szczególnie przydatne do szybkiego testowania i jeśli chcesz często przełączać się między różnymi programami użytkownika.
3. Korzystanie z pająka SEO Screaming Frog
„Screaming Frog SEO Spider” nadaje się do głębokich analiz:
- Adaptacja agencji użytkowników: Przejdź do „Konfiguracja> Agent użytkownika” i wybierz GoogleBot.
- Rozpoczęcie procesu indeksowania: Narzędzie indeksuje witrynę i wyświetla sposób, w jaki widzi ją Googlebot.
- Analizuj wyniki: Zidentyfikuj możliwe problemy z indeksowaniem lub zablokowane zasoby.
Narzędzie to idealnie sprawdza się w przypadku dużych serwisów internetowych i szczegółowych audytów SEO.
4. Korzystanie z Google Search Console
Google Search Console dostarcza również cennych informacji:
- Sprawdzanie adresu URL: wprowadź żądany adres URL i rozpocznij test na żywo.
- Analizuj wyniki: Możesz sprawdzić, czy strona jest zaindeksowana i czy występują problemy z jej indeksowaniem.
- Pobierz jak Google: ta funkcja pozwala zobaczyć, jak Googlebot renderuje stronę.
Pomaga to zidentyfikować konkretne problemy, które mogą uniemożliwiać botowi prawidłowe przechwytywanie strony.
rozwiązanie problemu
Korzystając z tych narzędzi, mogłem potwierdzić, że Googlebot rzeczywiście został zablokowany. Aby rozwiązać problem, wykonałem następujące kroki:
1. Dostosowanie definicji botów
Zaktualizowałem konfigurację zabezpieczeń, aby nie blokować już Googlebota i innych głównych botów wyszukiwarek.
2. Sprawdzanie pliku robots.txt
Upewniłem się, że plik nie zawiera żadnych instrukcji ograniczających dostęp.
3. Aktualizacje map witryny
Mapy witryn zostały odnowione i przesłane do Narzędzi dla webmasterów.
4. Monitorowanie
Przez kilka następnych dni monitorowałem indeksowanie i ruch, aby upewnić się, że znów wszystko działa sprawnie.
Środki zapobiegawcze na przyszłość
Aby uniknąć takich problemów w przyszłości, podjąłem kilka postanowień:
- Regularnie przeglądaj konfiguracje zabezpieczeń: Po każdej zmianie należy sprawdzić wpływ na funkcjonalność serwisu.
- Ciągłe monitorowanie: korzystanie z narzędzi takich jak Google Search Console pomaga wcześnie identyfikować problemy.
- Przejrzysta dokumentacja zmian: Wszelkie zmiany na stronie powinny być udokumentowane, aby móc szybciej zareagować w przypadku błędu.
- Szkolenie: Lepsze zrozumienie działania wyszukiwarek i ich botów pomaga uniknąć błędnych konfiguracji.
Wiedza z tego
Powinienem był wiedzieć lepiej i pamiętać o zachowaniu ostrożności podczas edycji pamięci podręcznej. Ale ślepota operacyjna mocno tu uderzyła. Problem zidentyfikowany, rozwiązany, skorygowany i kontynuowany z większą uwagą.
Błędy techniczne mogą mieć znaczący wpływ na widoczność strony internetowej. W moim przypadku źle skonfigurowana definicja bota spowodowała zablokowanie Googlebota, co spowodowało zatrzymanie indeksowania moich treści.
Uświadomienie sobie: nawet małe zmiany mogą mieć duże konsekwencje.
Dzięki systematycznemu rozwiązywaniu problemów i zastosowaniu odpowiednich narzędzi udało mi się zidentyfikować i rozwiązać problem. Regularnie sprawdzaj, jak wyszukiwarki postrzegają Twoją witrynę.
Mam nadzieję, że moje doświadczenia pomogą innym webmasterom uniknąć podobnych problemów lub szybciej je rozwiązać. Widoczność w wyszukiwarkach jest kluczowa dla powodzenia strony internetowej, dlatego zawsze należy mieć na uwadze stan techniczny.
Nadaje się do: