
¿Está tu posicionamiento en buscadores en riesgo? ¿Ya no tienes posicionamiento en Google, aunque todo parezca ir bien? – Imagen: Xpert.Digital
Una solución racional al problema de la indexación en motores de búsqueda: ¿qué hay detrás esta vez?
En los últimos días, noté algo preocupante: mis últimos artículos ya no se indexaban en Google Noticias y el tráfico de Google Discover disminuía constantemente. Naturalmente, estas novedades no dejan indiferente a nadie. Varias conjeturas descabelladas me rondaron la cabeza, pero decidí dejarlas de lado y abordar el problema con racionalidad.
Cuando envié manualmente mis páginas a Google, se indexaron y se mostraron de inmediato. Sin embargo, si esperaba, no pasaba nada. Observé este fenómeno durante dos días. Así que era hora de investigar a fondo la causa.
Paso 1: Revisión de cambios recientes
Primero, me pregunté: ¿Qué fue lo último que cambió en el sitio web? Identificar los cambios recientes es esencial para reducir las posibles fuentes de error. En mi caso, había revisado recientemente el sistema de caché.
Paso 2: Identificar errores ocultos o razonamientos defectuosos
La revisión del almacenamiento en caché podría tener efectos secundarios no deseados. ¿Hay algún error oculto o fallo en el razonamiento? Empecé a revisar la nueva configuración y a buscar posibles conflictos.
Paso 3: Encuentra la causa
Tras un análisis exhaustivo, descubrí al culpable: una nueva definición de bot en mi configuración de seguridad había funcionado, y demasiado bien, por desgracia. Hoy en día, innumerables bots circulan por internet, y para reducir la carga del servidor, los bots innecesarios suelen bloquearse. Sin embargo, el robot de Google había sido clasificado erróneamente como "bot innecesario". Un pequeño descuido con graves consecuencias.
Notas de las Herramientas para webmasters de Microsoft Bing
Mi sospecha fue confirmada por los informes de Bing Webmaster Tools:
- Algunas de sus páginas importantes publicadas recientemente no se enviaron a través de IndexNow. Descubra por qué es importante enviarlas a través de IndexNow.
- Algunas de sus nuevas páginas importantes no están incluidas en sus mapas de sitio.**
Google Search Console también me alertó de que se estaban indexando páginas sin contenido. Estos indicadores indicaban claramente que los motores de búsqueda tenían problemas para acceder a mi contenido.
conclusión
La constatación fue aleccionadora: veo páginas que Google no ve. Para que los motores de búsqueda indexen mis páginas, sus bots necesitan acceso sin restricciones. Si el robot de Google está bloqueado, mi contenido permanece invisible.
¿Cómo comprobar lo que ve Googlebot?
Para asegurarme de que Googlebot pudiera rastrear mi sitio web correctamente, quería ver las páginas desde su perspectiva. Existen varios métodos para visitar un sitio web como lo hace Googlebot.
1. Uso de las herramientas para desarrolladores de Google Chrome
Un método sencillo es utilizar las herramientas para desarrolladores de Google Chrome:
- Para abrir las herramientas para desarrolladores: presione `Ctrl + Shift + I` (Windows) o `Cmd + Shift + I` (Mac).
- Cambiar a la pestaña Red: aquí verá toda la actividad de la red.
- Para ajustar el agente de usuario: Haga clic en los tres puntos de la esquina superior derecha, seleccione "Más herramientas" y luego "Condiciones de red". Desactive la opción "Seleccionar agente de usuario automáticamente" y seleccione "Googlebot" en la lista.
- Recargar página: al recargar la página, se muestra tal como la ve Googlebot.
Este método permite identificar posibles problemas de renderizado o recursos bloqueados.
2. Uso de un conmutador de agente de usuario
Alternativamente, se puede utilizar una extensión del navegador como “User-Agent Switcher”:
- Para instalar la extensión: busque “User-Agent Switcher” en Chrome Web Store e instálelo.
- Seleccionar Googlebot como agente de usuario: después de la instalación, puede seleccionar el agente de usuario deseado.
- Visitando el sitio web: La página ahora se muestra desde la perspectiva de Googlebot.
Esto es particularmente útil para pruebas rápidas y cuando desea cambiar con frecuencia entre diferentes agentes de usuario.
3. Uso de la araña SEO de Screaming Frog
Para análisis más profundos, es adecuado el “Screaming Frog SEO Spider”.
- Ajuste del agente de usuario: vaya a “Configuración > Agente de usuario” y seleccione Googlebot.
- Inicio del proceso de rastreo: La herramienta busca el sitio web y muestra cómo lo ve Googlebot.
- Análisis de los resultados: Identificar posibles problemas de rastreo o recursos bloqueados.
Esta herramienta es ideal para sitios web grandes y auditorías SEO detalladas.
4. Uso de Google Search Console
Google Search Console también ofrece información valiosa:
- Comprobación de URL: ingrese la URL deseada e inicie la prueba en vivo.
- Analizar resultados: puedes ver si la página está indexada y si hay algún problema al rastrearla.
- Obtener como lo hace Google: esta función le permite ver cómo Googlebot procesa la página.
Esto ayuda a identificar problemas específicos que podrían impedir que el bot rastree la página correctamente.
Solución al problema
Con estas herramientas, pude confirmar que el robot de Google estaba efectivamente bloqueado. Para solucionar el problema, seguí los siguientes pasos:
1. Ajuste de las definiciones de bots
Actualicé la configuración de seguridad para que Googlebot y otros bots importantes de motores de búsqueda ya no estén bloqueados.
2. Verifique el archivo robots.txt
Me aseguré de que el archivo no contuviera ninguna instrucción que pudiera restringir el acceso.
3. Actualización de los mapas del sitio
Los mapas del sitio se han actualizado y enviado a Herramientas para webmasters.
4. Monitoreo
En los días siguientes supervisé la indexación y el tráfico para asegurarme de que todo volviera a funcionar sin problemas.
Medidas preventivas para el futuro
Para evitar este tipo de problemas en el futuro, he tomado algunas resoluciones:
- Revisión periódica de las configuraciones de seguridad: después de cada cambio, se debe comprobar el impacto en la funcionalidad del sitio web.
- Monitoreo continuo: el uso de herramientas como Google Search Console ayuda a identificar problemas de forma temprana.
- Documentación clara de los cambios: todos los cambios en el sitio web deben documentarse para poder reaccionar más rápidamente en caso de errores.
- Capacitación: Una mejor comprensión de cómo funcionan los motores de búsqueda y sus bots ayuda a evitar configuraciones incorrectas.
La idea que surge de esto
Debería haberlo pensado mejor y haber sido más cuidadoso al procesar la caché. Pero mi visión de túnel me impuso el problema. Identifiqué el problema, lo resolví, lo resolví y continuaré con más atención.
Los errores técnicos pueden afectar significativamente la visibilidad de un sitio web. En mi caso, una definición de bot mal configurada provocó el bloqueo del robot de Google, lo que impidió que mi contenido se indexara.
La constatación: Incluso los cambios pequeños pueden tener consecuencias importantes.
Mediante la resolución sistemática de problemas y el uso de las herramientas adecuadas, pude identificar y resolver el problema. Es fundamental comprobar periódicamente cómo perciben los motores de búsqueda tu sitio web.
Espero que mis experiencias ayuden a otros webmasters a evitar o resolver problemas similares con mayor rapidez. La visibilidad en buscadores es crucial para el éxito de un sitio web, por lo que siempre es importante supervisar su estado técnico.
Adecuado para:
- Blog para búsqueda con inteligencia artificial AIS / KIS – búsqueda con IA / NEO SEO = NSEO (optimización de motores de búsqueda de próxima generación)
- AIS (Búsqueda de Inteligencia Artificial) y SEO de Próxima Generación – En alemán dicen CKKK: “El contenido es el rey, pero el contexto es el emperador”
