Probablemente hayas oído hablar de la reciente filtración de documentos de Google. Está en todos los sitios importantes y en todas las redes sociales.
¿De dónde vinieron los documentos?
Tengo entendido que un bot llamado yoshi-code-bot filtró documentos relacionados con Content material API Warehouse en Github el 13 de marzo de 2024. Es posible que haya aparecido antes en algunos otros repositorios, pero este es el que se descubrió por primera vez.
Fueron descubiertos por Erfan Azimi con quién lo compartió Rand Fishkin con quién lo compartió mike rey. Los documentos fueron eliminados el 7 de mayo.
Agradezco a todos los involucrados por compartir sus hallazgos con la comunidad.
La respuesta de Google
Hubo cierto debate sobre si los documentos eran reales o no, pero mencionan muchos sistemas internos y enlaces a documentación interna y definitivamente parece ser actual.
Un portavoz de Google emitió la siguiente declaración para Tierra de motores de búsqueda:
Advertimos contra hacer suposiciones inexactas sobre la Búsqueda basadas en información fuera de contexto, desactualizada o incompleta. Hemos compartido amplia información sobre cómo funciona la Búsqueda y los tipos de factores que pesan nuestros sistemas, al mismo tiempo que trabajamos para proteger la integridad de nuestros resultados contra la manipulación.
Los web optimization interpretan las cosas en función de sus propias experiencias y prejuicios.
Muchos web optimization dicen que los factores de clasificación se filtraron. No he visto ningún código ni peso, solo lo que parecen ser descripciones e información de almacenamiento. A menos que una de las descripciones diga que el elemento se utiliza para la clasificación, creo que es peligroso para los web optimization asumir que todos estos se utilizan para la clasificación.
Tener algunas funciones o información almacenada no significa que se utilicen en la clasificación. Para nuestro motor de búsqueda, Sí.com, tenemos todo tipo de cosas almacenadas que podrían usarse para rastrear, indexar, clasificar, personalizar, probar o enviar comentarios. Almacenamos muchas cosas que aún no hemos usado, pero que probablemente lo hagamos en el futuro.
Lo que es más possible es que los web optimization hagan suposiciones que favorezcan sus propias opiniones y prejuicios.
Es lo mismo para mi. Puede que no tenga el contexto o el conocimiento completo y que tenga prejuicios inherentes que influyan en mi interpretación, pero trato de ser lo más justo posible. Si me equivoco, significa que aprenderé algo nuevo y ¡eso es algo bueno! Los web optimization pueden interpretar las cosas de manera diferente, y lo hacen.
Gael Bretón lo dijo bien:
Lo que aprendí de las filtraciones de Google:
Cada uno ve lo que quiere ver.
🔗 Los vendedores de enlaces te dicen que esto demuestra que los enlaces siguen siendo importantes.
📕 La gente de web optimization semántico te cube que demuestra que tenían razón desde el principio.
👼 Los sitios especializados te dicen que esta es la razón por la que cayeron.
👩💼 Las agencias cuentan…
– Gael Bretón (@GaelBreton) 28 de mayo de 2024
He existido el tiempo suficiente para ver muchos mitos de web optimization creados a lo largo de los años y puedo señalar quién inició muchos de ellos y qué entendieron mal. Probablemente veremos muchos mitos nuevos a partir de esta filtración con los que nos enfrentaremos durante la próxima década o más.
Veamos algunas cosas que en mi opinión se están malinterpretando o donde se están sacando conclusiones donde no deberían.
Autoridad del sitio
Por mucho que quiera poder decir que Google tiene una puntuación de autoridad del sitio que utilizan para clasificar como DR, esa parte específicamente trata sobre métricas de calidad comprimidas y habla de calidad.
Creo que DR es más un efecto que ocurre cuando tienes muchas páginas con fuertes Rango de página, no es que sea necesariamente algo que use Google. Muchas páginas con un PageRank más alto que se vinculan internamente entre sí significan que es más possible que crees páginas más sólidas.
- ¿Creo que el PageRank podría ser parte de lo que Google llama calidad? Sí.
- ¿Creo que eso es todo? No.
- ¿Podría Web site Authority ser algo comparable a DR? Tal vez. Encaja en el panorama más amplio.
- ¿Puedo demostrar eso o incluso que se utiliza en las clasificaciones? No, no de esto.
A partir de algunos de los testimonios de Google ante el Departamento de Justicia de EE. UU., descubrimos que la calidad a menudo se mide con una puntuación de Satisfacción con la información (IS) de los evaluadores. Esto no se usa directamente en las clasificaciones, pero se usa para comentarios, pruebas y ajustes de modelos.
Sabemos que los evaluadores de calidad tienen el concepto de comer, pero nuevamente eso no es exactamente lo que usa Google. Utilizan señales que se alinean con EEAT.
Algunas de las señales EEAT que Google ha mencionado son:
- Rango de página
- Menciones en sitios autorizados.
- Consultas del sitio. Podría ser “sitio:http://ahrefs.com EEAT” o búsquedas como “ahrefs EEAT”
Entonces, ¿podría Google utilizar algún tipo de puntaje de PageRank extrapolado al nivel de dominio y llamado Web site Authority y ser parte de lo que constituye las señales de calidad? Yo diría que es believable, pero esta filtración no lo prueba.
Puedo recordar 3 patentes de Google que he visto sobre niveles de calidad. Uno de ellos se alinea con las señales anteriores para consultas del sitio.
Debo señalar que el hecho de que algo esté patentado no significa que se utilice. la patente sobre las consultas del sitio fue escrito en parte por Navneet Panda. ¿Quieres adivinar de quién lleva el nombre el algoritmo Panda relacionado con la calidad? Yo diría que hay muchas posibilidades de que se esté utilizando.
Los otros se referían al uso de n-gram y parecían ser para calcular un puntaje de calidad para un nuevo sitio net y otro tiempo mencionado en el sitio.
Salvadera
Creo que esto también se ha malinterpretado. El documento tiene un campo llamado hostAge y se refiere a una zona de pruebas, pero cube específicamente que se utiliza “para proteger el spam nuevo durante el tiempo de entrega”.
Para mí, eso no confirma la existencia de una zona de pruebas en la forma en que la ven los web optimization donde los sitios nuevos no pueden clasificarse. Para mí, parece una medida de protección contra spam.
Clics
¿Se utilizan los clics en las clasificaciones? Bueno, sí y no.
Sabemos que Google utiliza clics para cosas como personalización, eventos oportunos, pruebas, comentarios, and many others. Sabemos que tienen modelos sobre modelos entrenados en los datos de clics, incluido navBoost. Pero, ¿eso es acceder directamente a los datos de clics y utilizarse en las clasificaciones? Nada de lo que vi lo confirma.
El problema es que los web optimization interpretan esto como que el CTR es un issue de clasificación. Navboost está diseñado para predecir en qué páginas y funciones se hará clic. También se utiliza para reducir la cantidad de resultados devueltos que aprendimos del ensayo del DOJ.
Hasta donde yo sé, no hay nada que confirme que se tengan en cuenta los datos de clics de páginas individuales para reordenar los resultados o que si logra que más personas hagan clic en sus resultados individuales, su clasificación aumentaría.
Si fuera así, debería ser bastante fácil de demostrar. Se ha intentado muchas veces. Lo probé hace años usando la purple Tor. Mi amigo Russ Jones (que en paz descanse) intentó utilizar proxies residenciales.
Nunca he visto una versión exitosa de esto y la gente ha estado comprando e intercambiando clics en varios sitios durante años. No estoy tratando de desanimarte ni nada por el estilo. Pruébelo usted mismo y, si funciona, publique el estudio.
Las pruebas de Rand Fishkin para buscar y hacer clic en un resultado en conferencias hace años mostraron que Google utilizaba datos de clics para eventos de tendencia, y mejorarían cualquier resultado en el que se hiciera clic. Después de los experimentos, los resultados volvieron a la normalidad. No es lo mismo que usarlos para las clasificaciones normales.
Autores
Sabemos que Google relaciona autores con entidades en el gráfico de conocimiento y que las utilizan en las noticias de Google.
Parece haber una cantidad decente de información del autor en estos documentos, pero nada sobre ellos confirma que se utilicen en las clasificaciones, como especulan algunos web optimization.
¿Nos estaba mintiendo Google?
Con lo que no estoy de acuerdo totalmente es con que los web optimization estén enojados con los defensores de la búsqueda de Google y los llamen mentirosos. Son buenas personas que simplemente hacen su trabajo.
Si nos dijeron algo incorrecto, es possible que sea porque no lo saben, estaban mal informados o se les indicó que ocultaran algo para evitar abusos. No merecen el odio que les está dando la comunidad web optimization en este momento. Tenemos suerte de que compartan información con nosotros.
Si cree que algo de lo que dijeron está mal, realice una prueba para demostrarlo. O si hay una prueba que desea que realice, hágamelo saber. El solo hecho de mencionarlo en los documentos no es prueba de que algo se utilice en las clasificaciones.
Pensamientos finales
Si bien puedo estar de acuerdo o en desacuerdo con las interpretaciones de otros web optimization, respeto a todos los que estén dispuestos a compartir sus análisis. No es fácil exponerse a sí mismo o exponer sus pensamientos al escrutinio público.
También quiero reiterar que, a menos que estos campos digan específicamente que se usan en clasificaciones, la información podría usarse fácilmente para otra cosa. Definitivamente no necesitamos ninguna publicación sobre los 14.000 factores de clasificación de Google.
Si quieres mi opinión sobre algo en specific, envíame un mensaje a X o LinkedIn.