Thu. Jan 2nd, 2025

Gary Illyes de Google sigue advirtiendo sobre problemas con los parámetros de URL


Gary Illyes de Google destacó recientemente un problema recurrente de website positioning en LinkedIn, haciéndose eco de las preocupaciones que había expresado anteriormente en un artículo de Google. podcast.

¿El problema? Los parámetros de URL causan dificultades a los motores de búsqueda cuando rastrean sitios internet.

Este problema es especialmente complicado para los sitios grandes y las tiendas en línea. Cuando se añaden distintos parámetros a una URL, pueden aparecer numerosas direcciones internet únicas que conducen al mismo contenido.

Esto puede obstaculizar los motores de búsqueda, reduciendo su eficiencia al rastrear e indexar los sitios de forma adecuada.

El enigma de los parámetros URL

Tanto en el podcast como en la publicación de LinkedIn, Illyes explica que las URL pueden admitir infinitos parámetros, cada uno de los cuales crea una URL distinta incluso si todas apuntan al mismo contenido.

Él escribe:

“Una peculiaridad interesante de las URL es que se puede añadir una cantidad infinita (a la que llamo BS) de parámetros de URL a la ruta de la URL, y con ello se forman básicamente nuevos recursos. Las nuevas URL no tienen por qué asignarse a un contenido diferente en el servidor, cada nueva URL puede servir el mismo contenido que la URL sin parámetros, pero todas son URL distintas. Un buen ejemplo de esto es el parámetro de URL que rompe la memoria caché en las referencias de JavaScript: no cambia el contenido, pero obliga a las memorias caché a actualizarse”.

Proporcionó un ejemplo de cómo una URL easy como “/ruta/archivo” puede expandirse a “/ruta/archivo?param1=a” y “/ruta/archivo?param1=a&param2=b“, todos ellos con un contenido potencialmente idéntico.

“Cada una es una URL diferente, todo el mismo contenido”, señaló Illyes.

Expansión unintended de URL y sus consecuencias

A veces, los motores de búsqueda pueden encontrar e intentar rastrear páginas inexistentes en su sitio, lo que Illyes llama “URL falsas”.

Estos pueden aparecer debido a problemas como enlaces relativos mal codificados. Lo que comienza como un sitio de tamaño regular con alrededor de 1000 páginas puede convertirse en un millón de URL fantasma.

Esta explosión de páginas falsas puede causar serios problemas. Los rastreadores de los motores de búsqueda pueden atacar duramente a sus servidores al intentar rastrear todas estas páginas inexistentes.

Esto puede sobrecargar los recursos de su servidor y potencialmente hacer que su sitio se bloquee. Además, desperdicia el presupuesto de rastreo del motor de búsqueda en páginas inútiles en lugar de en su contenido.

Al last, es posible que sus páginas no se rastreen ni indexen correctamente, lo que podría perjudicar su clasificación en las búsquedas.

Illyes afirma:

“A veces, puedes crear estas nuevas URL falsas accidentalmente, lo que hace que tu espacio de URL explote de unas agradables 1000 URL a un abrasador millón, lo que entusiasma a los rastreadores que, a su vez, arrasan tus servidores inesperadamente, derritiendo tuberías y silbatos a diestra y siniestra. Los enlaces relativos incorrectos son una causa relativamente común, pero robotstxt es tu amigo en este caso”.

Los sitios de comercio electrónico, los más afectados

La publicación de LinkedIn no mencionó específicamente las tiendas en línea, pero… podcast El debate aclaró que este tema es de gran importancia para las plataformas de comercio electrónico.

Estos sitios internet normalmente utilizan parámetros de URL para gestionar el seguimiento, el filtrado y la clasificación de los productos.

Como resultado, es posible que vea varias URL diferentes que apunten a la misma página de producto, y cada variante de URL representa opciones de colour, opciones de tamaño o el origen del cliente.

Mitigando el problema

Illyes recomienda constantemente utilizar robots.txt para abordar este problema.

En el podcastIllyes destacó posibles soluciones, como:

  • Creación de sistemas para detectar URL duplicadas
  • Mejores formas para que los propietarios de sitios informen a los motores de búsqueda sobre la estructura de su URL
  • Cómo usar robots.txt de forma más inteligente para guiar a los robots de los motores de búsqueda

La herramienta de parámetros de URL obsoletos

En el debate del podcast, Illyes mencionó los intentos anteriores de Google para abordar este problema, incluida la herramienta Parámetros de URL ahora obsoleta en Search Console.

Esta herramienta permitía a los sitios internet indicar qué parámetros eran importantes y cuáles podían ignorarse.

Cuando se le preguntó en LinkedIn sobre la posibilidad de recuperar esta herramienta, Illyes se mostró escéptico sobre su eficacia práctica.

“En teoría sí, en la práctica no”, afirmó, explicando que la herramienta adolecía de los mismos problemas que robots.txt, es decir, que “la gente no podía, ni por asomo, descubrir cómo gestionar sus propios parámetros”.

Implicaciones para el website positioning y el desarrollo internet

Esta discusión en curso en Google tiene varias implicaciones para el website positioning y el desarrollo internet:

  1. Presupuesto de rastreo:En el caso de sitios grandes, administrar los parámetros de URL puede ayudar a conservar el presupuesto de rastreo, lo que garantiza que se rastreen e indexen las páginas importantes.
  2. Arquitectura del sitio:Es posible que los desarrolladores deban reconsiderar cómo estructuran las URL, en specific para sitios de comercio electrónico grandes con numerosas variaciones de productos.
  3. Navegación por facetas:Los sitios de comercio electrónico que utilizan navegación por facetas deben tener en cuenta cómo esto afecta la estructura y la capacidad de rastreo de la URL.
  4. Etiquetas canónicas:Las etiquetas canónicas ayudan a Google a comprender qué versión de URL debe considerarse principal.

Por qué esto es importante

Google está discutiendo problemas con los parámetros de URL en múltiples canales, lo que indica una preocupación genuina por la calidad de la búsqueda.

Para los expertos de la industria, mantenerse informado sobre estos aspectos técnicos es esencial para mantener la visibilidad en las búsquedas.

Mientras Google trabaja en soluciones, se recomienda una gestión proactiva de URL y una guía eficaz del rastreador.

Related Post

Leave a Reply

Your email address will not be published. Required fields are marked *