Röstval 📱


Sökmotor ranking förlust hotar? Inga fler Google -ranking trots att allt verkar okej?

Publicerad: 11 november 2024 / UPDATE FrÄn: 11 november 2024 - Författare: Konrad Wolfenstein

Ofta flaskhalsar i logistik - Metoder och ÄtgÀrder för eliminering

Sökmotor ranking förlust hotar? Inga fler Google -ranking trots att allt verkar okej? - Bild: xpert.digital

Lös sökmotorindexeringsproblem rationellt - Vad ligger bakom den hÀr tiden?

Under de senaste dagarna mÀrkte jag att nÄgot oroande: mina senaste artiklar har inte lÀngre indexerats i Google News, och trafiken via Google Discover minskade stadigt. Naturligtvis lÀmnar en sÄdan utveckling dig inte kall. Olika vilda gissningar sköt genom mitt huvud, men jag bestÀmde mig för att skjuta dem Ät sidan och ta itu med problemet rationellt.

Om mina sidor skickas till Google Manual indexerades de omedelbart. Men jag vÀntade, ingenting hÀnde. Jag tittade pÄ detta fenomen under tvÄ dagar. SÄ det var dags för en grundlig sökning efter orsaken.

Steg 1: Granskning av de senaste Àndringarna

Först och frÀmst stÀllde jag mig sjÀlv frÄgan: Vad redigerades senast pÄ webbplatsen? Det Àr viktigt att identifiera de senaste Àndringarna för att begrÀnsa möjliga felkÀllor. I mitt fall reviderade jag nyligen cachningssystemet.

Steg 2: Identifiera dolda fel eller misstag

Översynen av cachningen kan ha oavsiktliga biverkningar. Finns det dolda misstag eller misstag? Jag började kontrollera de nya instĂ€llningarna och letade efter möjliga konflikter.

Steg 3: Hitta orsaken

Efter en djupgÄende analys upptÀckte jag den skyldige: en ny BOT-definition i min sÀkerhetskonfiguration hade gjort ett bra jobb-tyvÀrr för bra. Idag vandrar otaliga bots pÄ internet och för att minska serverbelastningen Àr onödiga bots ofta blockerade. Emellertid gled Googlebot felaktigt i kategorin "onödiga bots". En liten övervakning med stora effekter.

Anteckningar av Microsoft Bing Webmaster Tools

Min misstank bekrÀftades av rapporter frÄn Bing Webmaster Tools:

  • "NĂ„gra av dina nyligen publicerade viktiga sidor har inte skickats in via IndexNow. Ta reda pĂ„ varför det Ă€r viktigt att skicka in dem via IndexNow."
  • NĂ„gra av dina viktiga nya sidor ingĂ„r inte i dina webbplatskartor. ”**

Googles sökkonsol pÄpekade ocksÄ att sidorna indexerades utan innehÄll. Denna information visade tydligt att sökmotorer hade problem med att fÄ Ätkomst till mitt innehÄll.

slutsats

Kunskapen var nykter: Jag ser sidor som Google inte ser. För att sökmotorer ska kunna fÄnga mina sidor mÄste deras bots ha obehindrad Ätkomst. NÀr GoogleBot Àr blockerad förblir mitt innehÄll osynligt.

Hur kontrollerar du vad Googlebot ser?

För att sÀkerstÀlla att GoogleBot korrekt kan genomsöka min webbplats ville jag titta pÄ sidorna ur dess perspektiv. Det finns flera metoder för att besöka en webbplats som GoogleBot gör.

1. AnvÀndning av Google Chrome Developer Tools

En enkel metod Àr att anvÀnda Google Chrome Developer Tools:

  • Öppna utvecklarverktygen: Tryck pĂ„ 'Ctrl + Shift + I' (Windows) eller `CMD + Shift + I '(MAC).
  • Ändra till fliken NĂ€tverk: Alla nĂ€tverksaktiviteter visas hĂ€r.
  • Justering av anvĂ€ndarbyrĂ„n: Klicka pĂ„ de tre punkterna lĂ€ngst upp till höger, vĂ€lj "Fler verktyg" och sedan "NĂ€tverksförhĂ„llanden". Avaktivera alternativet "VĂ€lj anvĂ€ndare automatiskt" och vĂ€lj "GoogleBot" frĂ„n listan.
  • Ladda om sida: Den nya lastningen visar sidan nĂ€r den ser GoogleBot.

Denna metod gör det möjligt att identifiera potentiella problem eller blockerade resurser.

2. AnvÀndning av en anvÀndaragentomkopplare

Alternativt kan en webblÀsarförlÀngning som "anvÀndaragentomkopplaren" anvÀndas:

  • Installation av utvidgningen: Sök i Chrome -webbbutiken efter anvĂ€ndaragentomkopplaren och installera den.
  • Val av GoogleBot som anvĂ€ndaragent: Efter installationen kan du vĂ€lja önskat anvĂ€ndaragent.
  • Besök pĂ„ webbplatsen: Sidan visas nu ur Googlebotens perspektiv.

Detta Àr sÀrskilt anvÀndbart för snabba tester och om du ofta vill vÀxla mellan olika anvÀndaragenter.

3. AnvÀndning av den skrikande groda SEO -spindeln

"Screaming Frog SEO Spider" Àr lÀmplig för djupa analyser:

  • Anpassning av anvĂ€ndarbyrĂ„n: GĂ„ till "Konfiguration> AnvĂ€ndaragent" och vĂ€lj GoogleBot.
  • Start av genomsökningsprocessen: Verktyget söker pĂ„ webbplatsen och visar hur GoogleBot ser det.
  • Analys av resultaten: Identifiera möjliga krypningsproblem eller blockerade resurser.

Detta verktyg Àr idealiskt för stora webbplatser och detaljerade SEO -revisioner.

4. AnvÀndning av Google -sökkonsolen

Google -sökkonsolen erbjuder ocksÄ vÀrdefull insikt:

  • URL -test: Ange önskad URL och starta live -testet.
  • Analysera resultaten: Du kan se om sidan Ă€r indexerad och om det finns problem med Crawren.
  • Överklagande som via Google: Med den hĂ€r funktionen kan du se hur GoogleBot gör sidan.

Detta hjÀlper till att identifiera specifika problem som kan förhindra att botten korrigerar sidan.

Lösning av problemet

Med dessa verktyg kunde jag bekrÀfta att Googlebot faktiskt var blockerad. För att lösa problemet tog jag följande steg:

1. Anpassning av botdefinitionerna

Jag uppdaterade sÀkerhetskonfigurationen sÄ att GoogleBot och andra viktiga sökmotorbots inte lÀngre Àr blockerade.

2. Granskning av robotarna.txt

Jag sÄg till att filen inte innehÄller nÄgra instruktioner som begrÀnsar Ätkomst.

3. Uppdatering av webbplatskartor

Sitemaps -kartorna förnyades och skickades in i Webmaster -verktygen.

4. Övervakning

De följande dagarna övervakade jag indexering och trafik för att sÀkerstÀlla att allt gÄr smidigt igen.

Förebyggande ÄtgÀrder för framtiden

För att undvika sÄdana problem i framtiden har jag fÄtt nÄgra resolutioner:

  • Regelbunden granskning av sĂ€kerhetskonfigurationerna: Efter varje förĂ€ndring bör effekterna pĂ„ webbplatsens funktionalitet kontrolleras.
  • Kontinuerlig övervakning: AnvĂ€ndningen av verktyg som Googles sökkonsol hjĂ€lper till att kĂ€nna igen problem i ett tidigt skede.
  • Klar dokumentation av Ă€ndringar: Alla justeringar av webbplatsen bör dokumenteras för att kunna reagera snabbare vid ett fel.
  • TrĂ€ning: En bĂ€ttre förstĂ„else för funktionen av sökmotorer och deras bots hjĂ€lper till att undvika felaktiga konfigurationer.

ErkÀnnandet av det

Jag borde ha vetat bÀttre och var tvungen att tÀnka pÄ att titta hÀr nÀr det gÀller cache. Men blindheten slog hÀr. Problemet igenkÀnda, lossa, rÀta upp och fortsÀtta.

Tekniska fel kan ha en betydande inverkan pÄ synligheten för en webbplats. I mitt fall orsakade en felaktig konfigurerad bot -definition att Googlebot blockerades, vilket innebÀr att mitt innehÄll inte lÀngre indexerades.

Förverkligandet: Även smĂ„ förĂ€ndringar kan fĂ„ stora konsekvenser.

Genom systematisk felsökning och anvÀndning av lÀmpliga verktyg kunde jag identifiera och fixa problemet. Det Àr viktigt att regelbundet kontrollera hur sökmotorer uppfattar din egen webbplats.

Jag hoppas att mina erfarenheter kommer att hjÀlpa andra webbmÀstare att undvika liknande problem eller att lösa snabbare. Synligheten i sökmotorer Àr avgörande för framgÄngen för en webbplats, och dÀrför bör det tekniska tillstÄndet alltid hÄllas i Ätanke.

LÀmplig för detta:


⭐ FörsĂ€ljnings- / marknadsföringsblogg ⭐ AIS Artificial Intelligence Search / Kis - Ki -Search / Neo SEO = NSEO (NĂ€sta -gener -sökmotoroptimering) ⭐ Tryck - Xpert Press Work | RĂ„d och erbjudande ⭐ Xpaper Â