Wybór języka 📢 X


Czy istnieje ryzyko utraty pozycji w wyszukiwarkach? Koniec z rankingami Google, mimo że wszystko wydaje się w porządku?

Opublikowano: 11 listopada 2024 / Aktualizacja z: 11 listopada 2024 - Autor: Konrad Wolfenstein

Typowe wąskie gardła w logistyce – metody i środki ich eliminacji

Czy istnieje ryzyko utraty pozycji w wyszukiwarkach? Koniec z rankingami Google, mimo że wszystko wydaje się w porządku? – Zdjęcie: Xpert.Digital

Racjonalnie rozwiąż problem indeksowania w wyszukiwarkach – co tym razem za tym stoi?

W ciągu ostatnich kilku dni zauważyłem coś niepokojącego: moje najnowsze artykuły nie były już indeksowane w Google News, a ruch z Google Discover stale spadał. Oczywiście takie wydarzenia nie pozostawiają obojętnym. Przez głowę przechodziły mi różne szalone założenia, ale zdecydowałem się je odłożyć na bok i podejść do problemu racjonalnie.

Kiedy ręcznie przesłałem moje strony do Google, zostały one natychmiast zindeksowane i wyświetlone. Jednakże, jeśli czekałem, nic się nie działo. Obserwowałem to zjawisko przez dwa dni. Nadszedł więc czas na dokładne szukanie przyczyny.

Krok 1: Przejrzyj ostatnie zmiany

Najpierw zadałem sobie pytanie: Jaka była ostatnia rzecz edytowana na stronie? Aby zawęzić możliwe źródła błędów, konieczne jest zidentyfikowanie ostatnich zmian. W moim przypadku niedawno przerobiłem system buforowania.

Krok 2: Zidentyfikuj ukryte błędy lub błędy w myśleniu

Przegląd pamięci podręcznej może mieć niezamierzone skutki uboczne. Czy istnieją ukryte błędy lub błędy w myśleniu? Zacząłem sprawdzać nowe ustawienia i szukać ewentualnych konfliktów.

Krok 3: Znajdź przyczynę

Po szczegółowej analizie odkryłem winowajcę: nowa definicja bota w mojej konfiguracji zabezpieczeń wykonała świetną robotę – niestety zbyt dobrze. Obecnie w Internecie krąży niezliczona ilość botów, a aby zmniejszyć obciążenie serwera, często blokuje się niepotrzebne boty. Jednak Googlebot został błędnie umieszczony w kategorii „niepotrzebnych botów”. Małe przeoczenie z dużymi konsekwencjami.

Notatki z Narzędzi dla webmasterów Microsoft Bing

Moje podejrzenia potwierdziły raporty z Bing Webmaster Tools:

  • „Niektóre z Twoich ostatnio opublikowanych ważnych stron nie zostały przesłane za pośrednictwem IndexNow. Dowiedz się, dlaczego ważne jest przesyłanie danych za pośrednictwem IndexNow”.
  • Niektóre z Twoich nowych, ważnych stron nie są uwzględnione w mapach witryn.”**

Google Search Console zwróciła mi również uwagę, że indeksowane są strony bez treści. Te wskazówki wyraźnie wskazywały, że wyszukiwarki miały problemy z dostępem do moich treści.

wniosek

Uświadomienie sobie tego było otrzeźwiające: widzę strony, których Google nie widzi. Aby wyszukiwarki mogły przechwytywać moje strony, ich boty muszą mieć nieograniczony dostęp. Jeśli Googlebot zostanie zablokowany, moje treści pozostaną niewidoczne.

Jak sprawdzić, co widzi Googlebot?

Aby mieć pewność, że Googlebot będzie mógł poprawnie indeksować moją witrynę, chciałem wyświetlić strony z jego perspektywy. Istnieje kilka metod odwiedzania witryny internetowej, tak jak robi to Googlebot.

1. Jak korzystać z Narzędzi programistycznych Google Chrome

Prostą metodą jest użycie narzędzi programistycznych przeglądarki Google Chrome:

  • Otwórz narzędzia programistyczne: Naciśnij `Ctrl + Shift + I` (Windows) lub `Cmd + Shift + I` (Mac).
  • Przejdź do karty Sieć: Tutaj wyświetlana jest cała aktywność sieciowa.
  • Dostosowywanie agenta użytkownika: Kliknij trzy kropki w prawym górnym rogu, wybierz „Więcej narzędzi”, a następnie „Warunki sieciowe”. Odznacz opcję „Automatycznie wybierz agenta użytkownika” i wybierz z listy „Googlebot”.
  • Załaduj ponownie stronę: po ponownym załadowaniu strona wyświetla się tak, jak widzi ją Googlebot.

Ta metoda pozwala zidentyfikować potencjalne problemy z renderowaniem lub zablokowane zasoby.

2. Użycie przełącznika agenta użytkownika

Alternatywnie można zastosować rozszerzenie przeglądarki, takie jak „Przełącznik użytkownika”:

  • Instalowanie rozszerzenia: Wyszukaj opcję User-Agent Switcher w sklepie Chrome Web Store i zainstaluj ją.
  • Wybieranie Googlebota jako agenta użytkownika: po instalacji możesz wybrać żądanego agenta użytkownika.
  • Odwiedzanie witryny: Strona jest teraz wyświetlana z perspektywy Googlebota.

Jest to szczególnie przydatne do szybkiego testowania i jeśli chcesz często przełączać się między różnymi programami użytkownika.

3. Korzystanie z pająka SEO Screaming Frog

Do bardziej dogłębnej analizy nadaje się „Screaming Frog SEO Spider”:

  • Dostosowywanie agenta użytkownika: przejdź do opcji Konfiguracja > Agent użytkownika i wybierz Googlebot.
  • Rozpoczęcie procesu indeksowania: Narzędzie indeksuje witrynę i wyświetla sposób, w jaki widzi ją Googlebot.
  • Analizuj wyniki: Zidentyfikuj możliwe problemy z indeksowaniem lub zablokowane zasoby.

Narzędzie to idealnie sprawdza się w przypadku dużych serwisów internetowych i szczegółowych audytów SEO.

4. Korzystanie z Google Search Console

Google Search Console dostarcza również cennych informacji:

  • Sprawdzanie adresu URL: wprowadź żądany adres URL i rozpocznij test na żywo.
  • Analizuj wyniki: Możesz sprawdzić, czy strona jest zaindeksowana i czy występują problemy z jej indeksowaniem.
  • Pobierz jak Google: ta funkcja pozwala zobaczyć, jak Googlebot renderuje stronę.

Pomaga to zidentyfikować konkretne problemy, które mogą uniemożliwiać botowi prawidłowe przechwytywanie strony.

rozwiązanie problemu

Korzystając z tych narzędzi, mogłem potwierdzić, że Googlebot rzeczywiście został zablokowany. Aby rozwiązać problem, wykonałem następujące kroki:

1. Dostosowanie definicji botów

Zaktualizowałem konfigurację zabezpieczeń, aby nie blokować już Googlebota i innych głównych botów wyszukiwarek.

2. Sprawdzanie pliku robots.txt

Upewniłem się, że plik nie zawiera żadnych instrukcji ograniczających dostęp.

3. Aktualizacje map witryny

Mapy witryn zostały odnowione i przesłane do Narzędzi dla webmasterów.

4. Monitorowanie

Przez kilka następnych dni monitorowałem indeksowanie i ruch, aby upewnić się, że znów wszystko działa sprawnie.

Środki zapobiegawcze na przyszłość

Aby uniknąć takich problemów w przyszłości, podjąłem kilka postanowień:

  • Regularnie przeglądaj konfiguracje zabezpieczeń: Po każdej zmianie należy sprawdzić wpływ na funkcjonalność serwisu.
  • Ciągłe monitorowanie: korzystanie z narzędzi takich jak Google Search Console pomaga wcześnie identyfikować problemy.
  • Przejrzysta dokumentacja zmian: Wszelkie zmiany na stronie powinny być udokumentowane, aby móc szybciej zareagować w przypadku błędu.
  • Szkolenie: Lepsze zrozumienie działania wyszukiwarek i ich botów pomaga uniknąć błędnych konfiguracji.

Wiedza z tego

Powinienem był wiedzieć lepiej i pamiętać o zachowaniu ostrożności podczas edycji pamięci podręcznej. Ale ślepota operacyjna mocno tu uderzyła. Problem zidentyfikowany, rozwiązany, skorygowany i kontynuowany z większą uwagą.

Błędy techniczne mogą mieć znaczący wpływ na widoczność strony internetowej. W moim przypadku źle skonfigurowana definicja bota spowodowała zablokowanie Googlebota, co spowodowało zatrzymanie indeksowania moich treści.

Uświadomienie sobie: nawet małe zmiany mogą mieć duże konsekwencje.

Dzięki systematycznemu rozwiązywaniu problemów i zastosowaniu odpowiednich narzędzi udało mi się zidentyfikować i rozwiązać problem. Regularnie sprawdzaj, jak wyszukiwarki postrzegają Twoją witrynę.

Mam nadzieję, że moje doświadczenia pomogą innym webmasterom uniknąć podobnych problemów lub szybciej je rozwiązać. Widoczność w wyszukiwarkach jest kluczowa dla powodzenia strony internetowej, dlatego zawsze należy mieć na uwadze stan techniczny.

Nadaje się do:


⭐️ Blog sprzedażowy/marketingowy ⭐️ Wyszukiwanie sztucznej inteligencji AIS / KIS - wyszukiwanie AI / NEO SEO = NSEO (optymalizacja wyszukiwarek nowej generacji) ⭐️ Prasa - prace prasowe ekspertów | Doradztwo i oferta ⭐️ XPaper  

Niemiecki