Publicerad: 11 november 2024 / UPDATE FrÄn: 11 november 2024 - Författare: Konrad Wolfenstein
Sökmotor ranking förlust hotar? Inga fler Google -ranking trots att allt verkar okej? - Bild: xpert.digital
Lös sökmotorindexeringsproblem rationellt - Vad ligger bakom den hÀr tiden?
Under de senaste dagarna mÀrkte jag att nÄgot oroande: mina senaste artiklar har inte lÀngre indexerats i Google News, och trafiken via Google Discover minskade stadigt. Naturligtvis lÀmnar en sÄdan utveckling dig inte kall. Olika vilda gissningar sköt genom mitt huvud, men jag bestÀmde mig för att skjuta dem Ät sidan och ta itu med problemet rationellt.
Om mina sidor skickas till Google Manual indexerades de omedelbart. Men jag vÀntade, ingenting hÀnde. Jag tittade pÄ detta fenomen under tvÄ dagar. SÄ det var dags för en grundlig sökning efter orsaken.
Steg 1: Granskning av de senaste Àndringarna
Först och frÀmst stÀllde jag mig sjÀlv frÄgan: Vad redigerades senast pÄ webbplatsen? Det Àr viktigt att identifiera de senaste Àndringarna för att begrÀnsa möjliga felkÀllor. I mitt fall reviderade jag nyligen cachningssystemet.
Steg 2: Identifiera dolda fel eller misstag
Ăversynen av cachningen kan ha oavsiktliga biverkningar. Finns det dolda misstag eller misstag? Jag började kontrollera de nya instĂ€llningarna och letade efter möjliga konflikter.
Steg 3: Hitta orsaken
Efter en djupgÄende analys upptÀckte jag den skyldige: en ny BOT-definition i min sÀkerhetskonfiguration hade gjort ett bra jobb-tyvÀrr för bra. Idag vandrar otaliga bots pÄ internet och för att minska serverbelastningen Àr onödiga bots ofta blockerade. Emellertid gled Googlebot felaktigt i kategorin "onödiga bots". En liten övervakning med stora effekter.
Anteckningar av Microsoft Bing Webmaster Tools
Min misstank bekrÀftades av rapporter frÄn Bing Webmaster Tools:
- "NÄgra av dina nyligen publicerade viktiga sidor har inte skickats in via IndexNow. Ta reda pÄ varför det Àr viktigt att skicka in dem via IndexNow."
- NĂ„gra av dina viktiga nya sidor ingĂ„r inte i dina webbplatskartor. â**
Googles sökkonsol pÄpekade ocksÄ att sidorna indexerades utan innehÄll. Denna information visade tydligt att sökmotorer hade problem med att fÄ Ätkomst till mitt innehÄll.
slutsats
Kunskapen var nykter: Jag ser sidor som Google inte ser. För att sökmotorer ska kunna fÄnga mina sidor mÄste deras bots ha obehindrad Ätkomst. NÀr GoogleBot Àr blockerad förblir mitt innehÄll osynligt.
Hur kontrollerar du vad Googlebot ser?
För att sÀkerstÀlla att GoogleBot korrekt kan genomsöka min webbplats ville jag titta pÄ sidorna ur dess perspektiv. Det finns flera metoder för att besöka en webbplats som GoogleBot gör.
1. AnvÀndning av Google Chrome Developer Tools
En enkel metod Àr att anvÀnda Google Chrome Developer Tools:
- Ăppna utvecklarverktygen: Tryck pĂ„ 'Ctrl + Shift + I' (Windows) eller `CMD + Shift + I '(MAC).
- Ăndra till fliken NĂ€tverk: Alla nĂ€tverksaktiviteter visas hĂ€r.
- Justering av anvÀndarbyrÄn: Klicka pÄ de tre punkterna lÀngst upp till höger, vÀlj "Fler verktyg" och sedan "NÀtverksförhÄllanden". Avaktivera alternativet "VÀlj anvÀndare automatiskt" och vÀlj "GoogleBot" frÄn listan.
- Ladda om sida: Den nya lastningen visar sidan nÀr den ser GoogleBot.
Denna metod gör det möjligt att identifiera potentiella problem eller blockerade resurser.
2. AnvÀndning av en anvÀndaragentomkopplare
Alternativt kan en webblÀsarförlÀngning som "anvÀndaragentomkopplaren" anvÀndas:
- Installation av utvidgningen: Sök i Chrome -webbbutiken efter anvÀndaragentomkopplaren och installera den.
- Val av GoogleBot som anvÀndaragent: Efter installationen kan du vÀlja önskat anvÀndaragent.
- Besök pÄ webbplatsen: Sidan visas nu ur Googlebotens perspektiv.
Detta Àr sÀrskilt anvÀndbart för snabba tester och om du ofta vill vÀxla mellan olika anvÀndaragenter.
3. AnvÀndning av den skrikande groda SEO -spindeln
"Screaming Frog SEO Spider" Àr lÀmplig för djupa analyser:
- Anpassning av anvÀndarbyrÄn: GÄ till "Konfiguration> AnvÀndaragent" och vÀlj GoogleBot.
- Start av genomsökningsprocessen: Verktyget söker pÄ webbplatsen och visar hur GoogleBot ser det.
- Analys av resultaten: Identifiera möjliga krypningsproblem eller blockerade resurser.
Detta verktyg Àr idealiskt för stora webbplatser och detaljerade SEO -revisioner.
4. AnvÀndning av Google -sökkonsolen
Google -sökkonsolen erbjuder ocksÄ vÀrdefull insikt:
- URL -test: Ange önskad URL och starta live -testet.
- Analysera resultaten: Du kan se om sidan Àr indexerad och om det finns problem med Crawren.
- Ăverklagande som via Google: Med den hĂ€r funktionen kan du se hur GoogleBot gör sidan.
Detta hjÀlper till att identifiera specifika problem som kan förhindra att botten korrigerar sidan.
Lösning av problemet
Med dessa verktyg kunde jag bekrÀfta att Googlebot faktiskt var blockerad. För att lösa problemet tog jag följande steg:
1. Anpassning av botdefinitionerna
Jag uppdaterade sÀkerhetskonfigurationen sÄ att GoogleBot och andra viktiga sökmotorbots inte lÀngre Àr blockerade.
2. Granskning av robotarna.txt
Jag sÄg till att filen inte innehÄller nÄgra instruktioner som begrÀnsar Ätkomst.
3. Uppdatering av webbplatskartor
Sitemaps -kartorna förnyades och skickades in i Webmaster -verktygen.
4. Ăvervakning
De följande dagarna övervakade jag indexering och trafik för att sÀkerstÀlla att allt gÄr smidigt igen.
Förebyggande ÄtgÀrder för framtiden
För att undvika sÄdana problem i framtiden har jag fÄtt nÄgra resolutioner:
- Regelbunden granskning av sÀkerhetskonfigurationerna: Efter varje förÀndring bör effekterna pÄ webbplatsens funktionalitet kontrolleras.
- Kontinuerlig övervakning: AnvÀndningen av verktyg som Googles sökkonsol hjÀlper till att kÀnna igen problem i ett tidigt skede.
- Klar dokumentation av Àndringar: Alla justeringar av webbplatsen bör dokumenteras för att kunna reagera snabbare vid ett fel.
- TrÀning: En bÀttre förstÄelse för funktionen av sökmotorer och deras bots hjÀlper till att undvika felaktiga konfigurationer.
ErkÀnnandet av det
Jag borde ha vetat bÀttre och var tvungen att tÀnka pÄ att titta hÀr nÀr det gÀller cache. Men blindheten slog hÀr. Problemet igenkÀnda, lossa, rÀta upp och fortsÀtta.
Tekniska fel kan ha en betydande inverkan pÄ synligheten för en webbplats. I mitt fall orsakade en felaktig konfigurerad bot -definition att Googlebot blockerades, vilket innebÀr att mitt innehÄll inte lÀngre indexerades.
Förverkligandet: Ăven smĂ„ förĂ€ndringar kan fĂ„ stora konsekvenser.
Genom systematisk felsökning och anvÀndning av lÀmpliga verktyg kunde jag identifiera och fixa problemet. Det Àr viktigt att regelbundet kontrollera hur sökmotorer uppfattar din egen webbplats.
Jag hoppas att mina erfarenheter kommer att hjÀlpa andra webbmÀstare att undvika liknande problem eller att lösa snabbare. Synligheten i sökmotorer Àr avgörande för framgÄngen för en webbplats, och dÀrför bör det tekniska tillstÄndet alltid hÄllas i Ätanke.
LÀmplig för detta: