Los datos son difíciles. Hacer crecer un negocio es difícil. Medir el éxito es difícil. ¿Y sabes qué? Ellos debería ser difícil. De lo contrario, todos seríamos igualmente estúpidos, mientras que ahora aquellos de nosotros que somos lo suficientemente ambiciosos como para esforzarnos estamos ganando la carrera.
Y no se trata sólo de trabajar con datos eso es dificil. ¡Toda la Net es un desastre! Los consultores de optimización de motores de búsqueda, por ejemplo, están dispuestos a dar consejos sobre redireccionamientos del lado del servidor sin detenerse a considerar las implicaciones de lo que recomiendan.
Pero todavía me parece que quienes trabajan en análisis net son los primeros en rendirse. El enfoque pasivo, flemático y perezoso para implementar una plataforma de recopilación de datos y su posterior análisis se puede ver en muchas, muchas organizaciones.
Es porque los datos son difíciles.
No importa el análisis. Todos sabemos cuánta experiencia, conocimientos y conocimiento de la industria se requieren para obtener información que agregue valor a partir de un conjunto de datos. Pero implementar una plataforma para que la calidad de los datos se reevalúe y modifique constantemente es una tarea intimidante para muchos.
Esto parece surgir del malentendido basic de que la recopilación de datos es plug-and-play. No, implementando Google Analytics no es muy difícil, ya que es simplemente una operación de copiar y pegar lista para usar. Con Administrador de etiquetas de Google puede ser incluso más fácil. Pero esto es sólo el comienzo. Cuando se instala por primera vez, Google Analytics sirve únicamente para realizar un seguimiento de las páginas vistas y poco más. Todas las cosas que realmente nos fascinan, como las interacciones de llamado a la acción, las transacciones de comercio electrónico y la interacción con el contenido, requieren trabajo adicional para implementarlas.
Sí, los datos requieren trabajo. La calidad de los datos no es adquiridoes ganado. Herramientas como Google Tag Supervisor y Google Analytics no deberían diseñarse para facilitar los datos y el análisis de los mismos. No, su función es hacer que los datos sean más manejablepara que se pueda lograr la máxima calidad de datos con el mínimo esfuerzo. De esta manera, cualquier organización de datos puede perseguir el famoso regla 90/10donde el 90% de los recursos (tiempo/dinero/esfuerzo) deberían centrarse en las personas y sólo el 10% en las herramientas.
“Datos fáciles” es uno de los conceptos erróneos que están causando sensación en la industria y saturando el espacio digital con profesionales a quienes simplemente les importa un comino. He pasado mucho tiempo hablando y pensando sobre estos conceptos erróneos y he logrado agruparlos en tres observaciones, formuladas aquí en normas.
incógnita
El boletín a fuego lento
Suscríbete al Boletín a fuego lento para recibir las últimas noticias y contenido de Simo Ahava en su bandeja de entrada de correo electrónico.
Regla de pasividad de datos
El regla de pasividad de datos puede resumirse mejor como una refutación de la cita clásica de “Knowledge Beats Opinion”, atribuido a Jim Lecinski de Google.
Con la Regla de Pasividad de Datos, mantengo esos datos en sí hace nada. Él late nada. Él cube nada. Él muestra nada. Los datos no son un agente activo: son un medio pasivo.
La opinión pura puede, y lo hará, “superar” a los datos, si los datos son de mala calidad o si las interpretaciones son erróneas. Naturalmente, el éxito basado únicamente en el instinto es difícil de encontrar, pero también lo es el éxito basado en datos contaminados. De hecho, los triunfos más consistentes basados en datos se derivan de la convergencia de una toma de decisiones informada y una recopilación de datos optimizada.
La pasividad de los datos también conduce a ceguera del tablero. Al mirar un panel, esperamos obtener información de un vistazo. Como si los gráficos circulares, las tablas y los diagramas de dispersión nos estuvieran diciendo cómo va nuestro negocio y qué debemos hacer a continuación. ¡Pero no lo hacen!
Alguien debe calcular las etiquetas e interpretaciones “verde para bien, rojo para mal” en el tablero. Y deben alinearse perfectamente para cada negocio y cada objetivo. Si esperamos que una plataforma common como Google Analytics pueda decirnos todo lo que necesitamos saber de un vistazo sin necesidad de personalización, estamos muy equivocados.
Debido a que los datos son pasivos, los analistas inteligentes deberían estar siempre en demanda, y es de esperar que lo estén. Ellos son quienes toman las métricas de los informes y las convierten en visualizaciones significativas en los paneles. Ellos son los que se aseguran de que el flujo de datos en tiempo actual sea lo más informativo posible. Pero esto, nuevamente, requiere trabajo. Los datos son difíciles, ¿recuerdas?
Es fácil esconderse detrás de los datos, tanto en el triunfo como en el fracaso. Por este motivo, es de suma importancia garantizar la calidad de los datos en el momento de su recopilación y contratar analistas que puedan interpretarlos de la manera más beneficiosa para el negocio.
Análisis plug-and-play Podría funcionar por un tiempo, si tienes suerte. Pero si realmente desea utilizar los datos para marcar la diferencia en su negocio, la personalización ya no es opcional.
Regla de subjetividad de los datos
El regla de subjetividad de los datos Es importante tener en cuenta cuando se habla de calidad de datos. Muchas veces he dicho, de una forma u otra, que:
La calidad de los datos es directamente proporcional a qué tan bien se comprende el mecanismo de recopilación de datos.
Tomemos como ejemplo Google Analytics. Para muchos, la tasa de rebote representa una métrica clave a la hora de evaluar la participación en el contenido. Pero esto se debe a alguna extraña estratagema de advertising o superconspiración, donde la tasa de rebote se ha convertido en un verdadero demonio de los datos, una métrica innegablemente malvada con el poder de destruir como ninguna otra. Sin embargo, considere lo siguiente antes de condenar la tasa de rebote:
-
Un Bounce no es una sesión con una sola página vista. Es una sesión con una única interacción.
-
Google Analytics no sabe cuánto tiempo dura una sesión si la sesión es un Bounce.
-
Una tasa de rebote alta en una página con su número de teléfono y dirección puede ser algo bueno.
Estas tres cosas cuestionan la “maldad” del Bounce Price. Si no mide la participación en el llamado a la acción en una página, no debe leer nada en la tasa de rebote de las sesiones que solo visitaron esta página. ¿Por qué? Porque si midiera el llamado a la acción, vería una tasa de rebote más baja, ya que un evento afectado por la interacción con el llamado a la acción anularía el rebote.
De manera comparable, incluso si no tiene nada más que medir la página vista en la página, no sabe de forma predeterminada cuánto tiempo pasa realmente el visitante en la página durante una sesión rebotada. Esto se debe a que Google Analytics calcula el tiempo en la página como la distancia en el tiempo entre dos visitas a la página. La duración de la sesión, en cambio, se calcula como la distancia en el tiempo entre dos interacciones cualesquiera. Ambos no están disponibles para sesiones rebotadas. Por lo que usted sabe, el visitante puede pasar 18 horas en la página, absorbiendo cada fragmento de información.
Además, si el número de teléfono o la dirección de su tienda es literalmente todo lo que alguien podría querer saber, tiene sentido que su página de contacto tenga una tasa de rebote alta. Eso significa que se ha optimizado para aparecer en los resultados de búsqueda y, después de llegar a la página, el visitante encuentra lo que estaba buscando de inmediato. De hecho, sería una experiencia de usuario negativa obligar al visitante a navegar por otras páginas (y así registrar una tasa de rebote más baja).
Estos son sólo algunos ejemplos de cómo la calidad del porcentaje de rebote como métrica es directamente proporcional a qué tan bien se comprende su mecanismo de recopilación y procesamiento. Y las plataformas de análisis net están repletas de ejemplos similares.
Otra forma de considerar la regla de la subjetividad de los datos es considerar cómo la calidad de los datos puede pasar de mala a buena, según el punto de vista y la pregunta formulada.
Un conjunto de datos con nada más que páginas vistas es una mala información para rastrear la participación de los visitantes, ya que le faltan cosas clave como la interacción con el contenido, pero es una buena información para medir el recuento relativo de lecturas de sus artículos.
Las recomendaciones de LinkedIn son malos datos a la hora de determinar si alguien es realmente hábil en algo, pero son buenos datos a la hora de intentar identificar cuál es la percepción normal de las habilidades de alguien.
Los retuits de Twitter son malos datos para identificar contenido significativo, pero buenos datos para medir el efecto viral de un titular poderoso.
Regla de escasez de datos
El regla de escasez de datos Es de naturaleza casi filosófica. La medición de la analítica net está limitada por la tecnología. Hay un número limitado de cosas que podemos rastrear con solicitudes JavaScript y HTTP, y hay una cantidad limitada de potencia de procesamiento que los algoritmos del lado del servidor pueden agotar al inferir el significado del flujo de visitas entrante. Es por eso que es una buena práctica comenzar a extraer estos datos de análisis net del sistema en algún momento, para que puedan combinarse con otras fuentes de datos.
Sin embargo, no importa cuánto recolectes y combines, nunca tendrás todos los datos. Por tanto, la regla de la escasez de datos dicta que los datos siempre estarán incompletos y que debe trazarse una línea arbitraria en algún lugar del mecanismo de recopilación de datos.
¿Cuándo puedes decir que tienes “suficientes datos”?
Por ejemplo, si desea medir la interacción con el contenido con Google Analytics, es común medir el seguimiento del desplazamiento. De esta manera, sabrá cuántas personas se desplazan hacia abajo en sus artículos y podrá utilizar esto como un indicador rudimentario de las tasas de lectura.
Pero ¿cuál es el incremento de desplazamiento que constituye un evento? 1%? 5%? 25%? ¿Deberías medir también el tiempo dedicado al artículo? ¿Qué pasa si alguien simplemente se desplaza rápidamente hasta el closing del contenido, tal vez buscando comentarios? ¿Deberías medir también el movimiento del ratón? ¿Quizás alguien se está desplazando, pero en realidad solo está buscando contenido de la barra lateral o sus datos de contacto?
Las preguntas que puedes hacer son infinitas, porque los datos que puedes recopilar son (casi) infinitos. Necesitará trazar una línea en alguna parte, y esto requiere deliberación. Es importante que hagas preguntas, verifiques si los datos responden a estas preguntas (positiva o negativamente), y luego ajuste las preguntas y reformule sus hipótesis.
Datos significativos
En última instancia, la recopilación de datos se scale back a algo easy: recopilar datos significativos. Qué significativo Los medios son algo que debe negociarse de forma única para cada caso de negocio, cada proyecto, cada producto, cada organización y cada plataforma.
Una organización de datos, es decir, una organización que se toma en serio el uso de datos para impulsar su trabajo, nunca es solo una organización de datos. recopilación o un dato tratamiento o un dato informar cuerpo. No, convertir las métricas en acciones significativas que impulsen su negocio requiere que todos los aspectos de este proceso se observen casi religiosamente.
La razón por la que destaco la recopilación de datos es porque parece haber una desconexión entre cómo se recopilan los datos, cómo se accede a ellos y cómo se informa sobre ellos. Las tres reglas sobre las que escribí anteriormente no se refieren solo a la recopilación de datos, ya que también están muy alineadas con el procesamiento y la presentación de informes.
Sin embargo, si arruinas la recopilación de datos, arruinas todas las etapas posteriores. Necesitas hazlo bien desde el principio, de lo contrario te reprenderás por las decisiones que tomaste o no tomaste en el camino.
Al closing, lo único que digo es que los datos son difíciles. No existen los “usuarios avanzados” de una plataforma como Google Analytics. Sólo hay “usuarios” y luego personas que se han rendido o nunca se han molestado en intentarlo.
Las herramientas y plataformas no deberían intentar facilitar el análisis simplificando las cosas. No, deberían facilitar la recopilación y el procesamiento de datos, de modo que el 90% de los recursos puedan destinarse a realizar el análisis.
La experiencia, la educación y una mentalidad basada en datos son los ingredientes para un análisis exitoso. Ir más allá del conjunto de funciones predeterminadas de una plataforma; integrar, combinar y visualizar datos; y ajustar el mecanismo de recopilación de datos para reflejar mejor sus objetivos comerciales son cosas que también deberá retomar a lo largo del camino.