Publicado el: 11 de noviembre de 2024 / Actualización desde: 11 de noviembre de 2024 - Autor: Konrad Wolfenstein
Resuelva racionalmente el problema de indexación de los motores de búsqueda: ¿qué hay detrás esta vez?
En los últimos días, noté algo preocupante: mis artículos más recientes ya no estaban indexados en Google News y el tráfico de Google Discover disminuía constantemente. Por supuesto, esta evolución no deja indiferente. Varias suposiciones descabelladas pasaron por mi mente, pero decidí dejarlas de lado y abordar el problema de manera racional.
Cuando envié manualmente mis páginas a Google, se indexaron y mostraron inmediatamente. Sin embargo, si esperé, no pasó nada. Observé este fenómeno durante dos días. Así que llegó el momento de realizar una búsqueda exhaustiva de la causa.
Paso 1: revisar los cambios recientes
Primero me pregunté: ¿Qué fue lo último que se editó en el sitio web? Es esencial identificar los cambios recientes para reducir las posibles fuentes de error. En mi caso, recientemente modifiqué el sistema de almacenamiento en caché.
Paso 2: Identificar errores ocultos o errores de pensamiento
La revisión del almacenamiento en caché podría tener efectos secundarios no deseados. ¿Hay errores ocultos o errores de pensamiento? Empecé a comprobar la nueva configuración y a buscar posibles conflictos.
Paso 3: encuentre la causa
Después de un análisis detallado, descubrí al culpable: una nueva definición de bot en mi configuración de seguridad había hecho un gran trabajo, lamentablemente demasiado bien. Hoy en día, innumerables bots deambulan por Internet y, para reducir la carga del servidor, a menudo se bloquean los bots innecesarios. Sin embargo, el robot de Google fue colocado por error en la categoría de "bots innecesarios". Un pequeño descuido con grandes consecuencias.
Notas de las Herramientas para webmasters de Microsoft Bing
Mis sospechas fueron confirmadas por informes de Bing Webmaster Tools:
- “Algunas de sus páginas importantes publicadas recientemente no se enviaron a través de IndexNow. Descubra por qué es importante enviar a través de IndexNow".
- Algunas de sus nuevas páginas importantes no están incluidas en sus mapas de sitio”.**
Google Search Console también me señaló que se estaban indexando páginas sin contenido. Estas pistas mostraban claramente que los motores de búsqueda tenían problemas para acceder a mi contenido.
conclusión
La comprensión fue aleccionadora: veo páginas que Google no ve. Para que los motores de búsqueda capturen mis páginas, sus robots deben tener acceso sin obstáculos. Si se bloquea el robot de Google, mi contenido permanecerá invisible.
¿Cómo se comprueba lo que ve el robot de Google?
Para asegurarme de que el robot de Google pueda rastrear mi sitio web correctamente, quería ver las páginas desde su perspectiva. Existen varios métodos para visitar un sitio web como lo hace el robot de Google.
1. Cómo utilizar las herramientas para desarrolladores de Google Chrome
Un método sencillo es utilizar las herramientas de desarrollo de Google Chrome:
- Abra las herramientas de desarrollador: presione `Ctrl + Shift + I` (Windows) o `Cmd + Shift + I` (Mac).
- Cambie a la pestaña Red: aquí se muestra toda la actividad de la red.
- Personalización del agente de usuario: Haga clic en los tres puntos en la parte superior derecha, seleccione “Más herramientas” y luego “Condiciones de red”. Desmarque la opción "Seleccionar agente de usuario automáticamente" y seleccione "Googlebot" de la lista.
- Recargar página: la recarga muestra la página tal como la ve el robot de Google.
Este método permite identificar posibles problemas de renderizado o recursos bloqueados.
2. Uso de un conmutador de agente de usuario
Alternativamente, se puede utilizar una extensión del navegador como “User-Agent Switcher”:
- Instalación de la extensión: busque User-Agent Switcher en Chrome Web Store e instálelo.
- Seleccionar Googlebot como agente de usuario: después de la instalación, puede seleccionar el agente de usuario deseado.
- Visitar el sitio web: la página ahora se muestra desde la perspectiva del robot de Google.
Esto es particularmente útil para pruebas rápidas y si desea cambiar entre diferentes agentes de usuario con frecuencia.
3. Uso del SEO Spider de Screaming Frog
El “Screaming Frog SEO Spider” es adecuado para un análisis más profundo:
- Personalización del agente de usuario: vaya a Configuración > Agente de usuario y seleccione Googlebot.
- Iniciar el proceso de rastreo: la herramienta rastrea el sitio web y muestra cómo lo ve el robot de Google.
- Analice los resultados: identifique posibles problemas de rastreo o recursos bloqueados.
Esta herramienta es ideal para sitios web grandes y auditorías SEO detalladas.
4. Usando la Consola de búsqueda de Google
Google Search Console también proporciona información valiosa:
- Verificación de URL: ingrese la URL deseada e inicie la prueba en vivo.
- Analizar resultados: puede ver si la página está indexada y si hay problemas con el rastreo.
- Buscar como Google: esta función le permite ver cómo el robot de Google representa la página.
Esto ayuda a identificar problemas específicos que podrían impedir que el bot capture la página correctamente.
solución al problema
Usando estas herramientas, pude confirmar que el robot de Google estaba efectivamente bloqueado. Para solucionar el problema, seguí los siguientes pasos:
1. Ajuste de definiciones de bots
Actualicé la configuración de seguridad para ya no bloquear Googlebot y otros robots de motores de búsqueda importantes.
2. Comprobando el archivo robots.txt
Me aseguré de que el archivo no contenga ninguna instrucción que restrinja el acceso.
3. Actualizaciones del mapa del sitio
Los mapas del sitio se han renovado y enviado a Webmaster Tools.
4. Monitoreo
Durante los días siguientes, supervisé la indexación y el tráfico para asegurarme de que todo volviera a funcionar sin problemas.
Medidas preventivas para el futuro
Para evitar este tipo de problemas en el futuro, he tomado algunas resoluciones:
- Revise periódicamente las configuraciones de seguridad: después de cada cambio, se debe verificar el impacto en la funcionalidad del sitio web.
- Monitoreo continuo: el uso de herramientas como Google Search Console ayuda a identificar problemas tempranamente.
- Documentación clara de los cambios: todos los ajustes en el sitio web deben documentarse para poder reaccionar más rápidamente en caso de error.
- Formación: una mejor comprensión de cómo funcionan los motores de búsqueda y sus robots ayuda a evitar configuraciones erróneas.
El conocimiento de ello
Debería haberlo sabido mejor y haber recordado tener cuidado al editar el caché. Pero aquí la ceguera operativa afectó duramente. Problema identificado, resuelto, enderezado y continuado de forma más consciente.
Los errores técnicos pueden tener un impacto significativo en la visibilidad de un sitio web. En mi caso, una definición de bot mal configurada provocó que se bloqueara el robot de Google, lo que dejó de indexar mi contenido.
La conclusión: incluso los pequeños cambios pueden tener grandes consecuencias.
Mediante la resolución sistemática de problemas y el uso de herramientas adecuadas, pude identificar y resolver el problema. Es fundamental comprobar periódicamente cómo los motores de búsqueda perciben su sitio web.
Espero que mis experiencias ayuden a otros webmasters a evitar problemas similares o resolverlos más rápidamente. La visibilidad en los motores de búsqueda es crucial para el éxito de un sitio web y, por lo tanto, siempre se debe tener en cuenta el estado técnico.
Adecuado para:
- Blog para búsqueda con inteligencia artificial AIS / KIS – búsqueda con IA / NEO SEO = NSEO (optimización de motores de búsqueda de próxima generación)
- AIS (Búsqueda de Inteligencia Artificial) y SEO de Próxima Generación – En alemán dicen CKKK: “El contenido es el rey, pero el contexto es el emperador”