Recientemente me encontré con una prueba de SEO que intentó corroborar si la relación de compresión afecta las clasificaciones. Parece que puede acontecer algunos que creen que las relaciones de compresión más altas se correlacionan con las clasificaciones más bajas. Comprender la compresibilidad en el contexto del SEO requiere ojear la fuente llamativo en las relaciones de compresión y el trabajo de investigación en sí antaño de sacar conclusiones sobre si es o no un mito de SEO.
Motores de búsqueda Páginas web de comprimir
La compresibilidad, en el contexto de los motores de búsqueda, se refiere a cuánto se pueden comprimir páginas web. La reducción de un documento en un archivo zip es un ejemplo de compresión. Los motores de búsqueda compriman páginas web indexadas porque ahorra espacio y da como resultado un procesamiento más rápido. Es poco que hacen todos los motores de búsqueda.
Sitios web y proveedores de host Compresas Páginas web
La compresión de la página web es poco bueno porque ayuda a los rastreadores de búsqueda a ceder rápidamente a las páginas web que a su vez envían la señal a Googlebot de que no forzará el servidor y está aceptablemente obtener aún más páginas para la indexación.
La compresión acelera los sitios web, proporcionando a los visitantes del sitio una experiencia de afortunado de entrada calidad. La mayoría de los hosts web habilitan automáticamente la compresión porque es bueno para sitios web, visitantes del sitio y igualmente buenos para hosts web porque guardia las cargas de encantado de pandilla. Todos ganan con la compresión del sitio web.
Altos niveles de compresión se correlacionan con el spam
Los investigadores de un motor de búsqueda descubrieron que las páginas web en gran medida compresibles se correlacionaron con contenido de depreciación calidad. El estudio llamó Spam, detestable spam y estadísticas: utilizando el prospección estadístico para ubicar páginas web de spam (Pdf) fue realizado en 2006 por dos de los principales investigadores del mundo, Marc Najork y Dennis Fetterly.
Najork actualmente trabaja en Deepmind como sabio de investigación distinguida. Fetterly, ingeniero de software de Google, es autor de muchos trabajos de investigación importantes relacionados con la búsqueda, el prospección de contenido y otros temas relacionados. Este trabajo de investigación no es solo un trabajo de investigación, es importante.
Lo que muestra el documento de investigación de 2006 es que el 70% de las páginas web que se compriman a un nivel de 4.0 o superior tendieron a ser páginas de depreciación calidad con un detención nivel de uso de palabras redundantes. El nivel promedio de compresión de los sitios fue de rodeando de 2.0.
Estos son los promedios de las páginas web normales enumeradas por el documento de investigación:
- Relación de compresión de 2.0:
La relación de compresión más frecuente en el conjunto de datos es 2.0. - Relación de compresión de 2.1:
La medio de las páginas tienen una relación de compresión por debajo de 2.1, y la medio tiene una relación de compresión por encima de ella. - Relación de compresión de 2.11:
En promedio, la relación de compresión de las páginas analizadas es 2.11.
Sería una forma claro de filtrar el spam de contenido obvio para que tenga sentido que lo hagan para eliminar el contenido spam de contenido pesado. Pero eliminar el spam es más complicado que las simples soluciones. Los motores de búsqueda usan múltiples señales porque resulta en un viejo nivel de precisión.
Los investigadores de 2006 informaron que el 70% de los sitios con un nivel de compresión de 4.0 o más eran spam. Eso significa que el otro 30% no eran sitios spam. Siempre hay títulos atípicos en las estadísticas y que el 30% de los sitios no spam es la razón por la cual los motores de búsqueda tienden a usar más de una señal.
¿Los motores de búsqueda usan la compresibilidad?
Es justo suponer que los motores de búsqueda usan la compresibilidad para identificar el spam obvio de mano dura. Pero igualmente es justo suponer que si los motores de búsqueda lo emplean, lo están utilizando adjunto con otras señales para aumentar la precisión de las métricas. Nadie sabe con certeza si Google usa la compresibilidad.
Irrealizable de determinar si Google está usando compresión
Este artículo negociación sobre el hecho de que no hay forma de demostrar que una relación de compresión es un mito de SEO o no.
He aquí por qué:
1. Si un sitio activara la relación de compresión 4.0 más las otras señales de spam, lo que sucedería es que esos sitios no estarían en los resultados de búsqueda.
2. Si esos sitios no están en los resultados de búsqueda, no hay forma de probar los resultados de búsqueda para ver si Google está utilizando la relación de compresión como señal de spam.
Sería justo suponer que se eliminaron los sitios con altas relaciones de compresión de 4.0. Pero no lo hacemos memorizar Eso, no es una certeza. Así que no podemos demostrar que fueron eliminados.
Lo único que sabemos es que existe este trabajo de investigación que está escrito por distinguidos científicos.
¿Es la compresibilidad un mito de SEO?
La compresibilidad puede no ser un mito de SEO. Pero probablemente no sea cero de lo que los editores o SEO se preocupen siempre que eviten tácticas de mano dura como relleno de palabras secreto o páginas repetitivas de galletas.
Google usa la desduplicación que elimina las páginas duplicadas de su índice y consolida las señales de PageRank a cualquier página que elijan para ser la página canónica (si eligen una). Divulgar páginas duplicadas probablemente no activará ningún tipo de penalización, incluida cualquier cosa relacionada con las relaciones de compresión, porque, como ya se mencionó, los motores de búsqueda no usan señales de forma aislada.