Sun. Sep 8th, 2024

Google confirma tres formas de hacer que Googlebot rastree más


Gary Illyes y Lizzi Sassman, de Google, analizaron tres factores que aumentan el rastreo de Googlebot. Si bien restaron importancia a la necesidad de un rastreo constante, reconocieron que existen formas de alentar a Googlebot a volver a visitar un sitio net.

1. Impacto del contenido de alta calidad en la frecuencia de rastreo

Una de las cosas de las que hablaron fue la calidad de un sitio net. Mucha gente sufre el problema de que no se indexa y, a veces, eso se debe a ciertas prácticas de search engine optimization que la gente ha aprendido y cree que son buenas. Llevo 25 años trabajando en search engine optimization y algo que siempre ha permanecido igual es que las mejores prácticas definidas por la industria suelen estar años por detrás de lo que hace Google. Sin embargo, es difícil ver qué está mal si una persona está convencida de que está haciendo todo bien.

Gary Illyes compartió un motivo para una frecuencia de rastreo elevada en la marca de 4:42 minutos, explicando que uno de los factores desencadenantes de un alto nivel de rastreo son las señales de alta calidad que detectan los algoritmos de Google.

Gary lo dijo en el minuto 4:42:

“…generalmente, si el contenido de un sitio es de alta calidad y útil y a la gente en normal le gusta, entonces Googlebot (o Google) tiende a rastrear más desde ese sitio…”

Hay muchos matices que faltan en la afirmación anterior, como por ejemplo: ¿Cuáles son las señales de alta calidad y utilidad? ¿Qué hará que Google decida rastrear con más frecuencia?

Bueno, Google nunca lo cube, pero podemos especular y las siguientes son algunas de mis suposiciones fundamentadas.

Sabemos que existen patentes sobre búsquedas de marca que cuentan las búsquedas de marca realizadas por los usuarios como enlaces implícitos. Algunas personas piensan que los “enlaces implícitos” son menciones de marca, pero las “menciones de marca” no son en absoluto lo que se menciona en la patente.

Luego está la patente Navboost que existe desde 2004. Algunas personas relacionan la patente Navboost con los clics, pero si lees la patente actual de 2004 verás que nunca menciona las tasas de clics (CTR). Habla de señales de interacción del usuario. Los clics fueron un tema de intensa investigación a principios de la década de 2000, pero si lees los artículos de investigación y las patentes, es fácil entender a qué me refiero cuando no es tan easy como “el mono hace clic en el sitio net en los SERP, Google lo clasifica más alto, el mono obtiene un plátano”.

En normal, creo que las señales que indican que las personas perciben un sitio como útil pueden ayudar a que un sitio net tenga una mejor clasificación. Y, a veces, eso puede significar darles a las personas lo que esperan ver.

Los propietarios de sitios me dicen que Google está clasificando basura y cuando echo un vistazo puedo ver lo que quieren decir, los sitios son basura. Pero, por otro lado, el contenido le da a la gente lo que quiere porque realmente no saben cómo diferenciar entre lo que esperan ver y el contenido actual de buena calidad (a eso lo llamo el algoritmo Froot Loops).

¿Qué es el algoritmo Froot Loops? Es un efecto de la dependencia de Google de las señales de satisfacción del usuario para juzgar si sus resultados de búsqueda los hacen felices. Esto es lo que publiqué anteriormente sobre el algoritmo de Google. Algoritmo de Froot Loops:

“¿Alguna vez has caminado por el pasillo de cereales de un supermercado y has notado cuántos tipos de cereales cargados de azúcar hay en las estanterías? Eso es la satisfacción del usuario en acción. La gente espera ver cereales con bombas de azúcar en su pasillo de cereales y los supermercados satisfacen esa intención del usuario.

A menudo miro los Froot Loops en el pasillo de cereales y pienso: “¿Quién come eso?” Aparentemente, mucha gente lo hace, es por eso que la caja está en el estante del supermercado: porque la gente espera verlo allí.

Google está haciendo lo mismo que el supermercado: muestra los resultados que tienen más probabilidades de satisfacer a los usuarios, como en el pasillo de cereales”.

Un ejemplo de un sitio basura que satisface a los usuarios es un sitio de recetas well-liked (que no nombraré) que publica recetas fáciles de cocinar que no son auténticas y que utiliza atajos como sopa de crema de champiñones enlatada como ingrediente. Tengo bastante experiencia en la cocina y esas recetas me dan escalofríos. Pero a la gente que conozco le encanta ese sitio porque realmente no saben más, solo quieren una receta fácil.

En realidad, lo que importa en la conversación sobre la utilidad es comprender a la audiencia en línea y darles lo que quieren, lo cual es diferente de darles lo que deberían querer. En mi opinión, comprender lo que las personas quieren y dárselo es lo que los usuarios encontrarán útil y hará que Google les dé la señal de utilidad.

2. Aumento de la actividad editorial

Otra cosa que según Illyes y Sassman podría hacer que Googlebot rastree más es una mayor frecuencia de publicación, como si un sitio aumentara de repente la cantidad de páginas que publica. Pero Illyes dijo que en el contexto de un sitio pirateado que de repente comienza a publicar más páginas net, un sitio pirateado que publica muchas páginas haría que Googlebot rastree más.

Si analizamos esa afirmación desde la perspectiva del bosque, resulta bastante evidente que está insinuando que un aumento en la actividad de publicación puede desencadenar un aumento en la actividad de rastreo. No es que el sitio haya sido pirateado lo que hace que Googlebot rastree más, sino el aumento en la actividad de publicación.

Aquí es donde Gary cita un aumento de la actividad de publicación como un desencadenante de Googlebot:

“…pero también puede significar que, no sé, el sitio fue hackeado. Y luego hay un montón de nuevas URL que entusiasman a Googlebot, y luego sale y se pone a rastrear como un loco”.

La conclusión es que la gran cantidad de páginas nuevas hace que Googlebot se entusiasme y rastree un sitio “como un loco”. No es necesario dar más detalles, sigamos adelante.

3. Consistencia de la calidad del contenido

Gary Illyes continúa mencionando que Google puede reconsiderar la calidad normal del sitio y eso puede provocar una caída en la frecuencia de rastreo.

Esto es lo que dijo Gary:

“…si no rastreamos mucho o lo hacemos gradualmente más lento, eso podría ser una señal de contenido de baja calidad o de que hemos repensado la calidad del sitio”.

¿Qué quiere decir Gary cuando cube que Google “replanteó la calidad del sitio”? Mi opinión es que, a veces, la calidad normal de un sitio puede disminuir si hay partes del sitio que no cumplen con el mismo estándar que la calidad del sitio unique. En mi opinión, según lo que he visto a lo largo de los años, en algún momento el contenido de baja calidad puede empezar a superar al contenido de buena calidad y arrastrar consigo al resto del sitio.

Cuando la gente viene a mí diciendo que tienen un problema de “canibalismo de contenido”, cuando lo analizo, lo que realmente están sufriendo es un problema de contenido de baja calidad en otra parte del sitio.

Lizzi Sassman continúa preguntando, alrededor del minuto 6, si hay algún impacto si el contenido del sitio net es estático, ni mejora ni empeora, sino que simplemente no cambia. Gary se resistió a dar una respuesta, simplemente dijo que Googlebot vuelve a verificar el sitio para ver si ha cambiado y cube que “probablemente” Googlebot podría ralentizar el rastreo si no hay cambios, pero matizó esa afirmación diciendo que no lo sabía.

Algo que no se dijo pero que está relacionado con la consistencia de la calidad del contenido es que a veces el tema cambia y si el contenido es estático, puede perder relevancia automáticamente y comenzar a perder posiciones en el rating. Por eso, es una buena concept realizar una auditoría de contenido periódica para ver si el tema ha cambiado y, de ser así, actualizar el contenido para que siga siendo relevante para los usuarios, lectores y consumidores cuando tengan conversaciones sobre un tema.

Tres formas de mejorar la relación con Googlebot

Como dejaron en claro Gary y Lizzi, no se trata de presionar a Googlebot para que vuelva a visitarnos solo por el hecho de que rastree el sitio. La cuestión es pensar en el contenido y su relación con los usuarios.

1. ¿El contenido es de alta calidad?
¿El contenido aborda un tema o una palabra clave? Los sitios que utilizan una estrategia de contenido basada en palabras clave son los que, en mi opinión, sufrirán las actualizaciones del algoritmo principal de 2024. Las estrategias que se basan en temas tienden a producir mejor contenido y superaron las actualizaciones del algoritmo.

2. Aumento de la actividad editorial
Un aumento en la actividad de publicación puede hacer que Googlebot aparezca con más frecuencia. Independientemente de si se debe a que un sitio ha sido hackeado o a que un sitio está poniendo más empeño en su estrategia de publicación de contenido, un programa de publicación de contenido common es algo bueno y siempre lo ha sido. No existe la opción de “configurarlo y olvidarlo” cuando se trata de publicar contenido.

3. Consistencia de la calidad del contenido
La calidad, actualidad y relevancia del contenido para los usuarios a lo largo del tiempo es un issue importante que garantizará que Googlebot siga visitando el sitio para saludarlo. Una disminución en cualquiera de esos factores (calidad, actualidad y relevancia) podría afectar el rastreo de Googlebot, lo que en sí mismo es un síntoma del issue más importante, que es la forma en que el algoritmo de Google considera el contenido.

Escuche el podcast Google Search Off The File comenzando aproximadamente en el minuto 4:

Imagen destacada de Shutterstock/Solid Of Hundreds

Related Post

Leave a Reply

Your email address will not be published. Required fields are marked *