Hace unos años leí o escuché una frase que me viene a la mente de forma recurrente. No recuerdo exactamente la fuente ni la persona que la pronunció (si alguien tiene alguna pista que me mande un comentario por favor!) pero de todas formas ahí se quedó guardada en alguna parte de mi cabeza. Decía algo como: “Si los datos fuesen como el agua de las empresas, solamente el 2% sería potable”. Es probable que esté un poco cambiada, incluso algo exagerada, da igual, lo que realmente importa es el mensaje que transmite: en la era en la que los datos son el principal activo de las empresas, la materia prima de los algoritmos que nos controlan, de la Inteligencia Artificial que nos hace la vida más fácil… sólo una pequeñísima parte de éstos son fiables.
En este artículo veremos la importancia de tener unos datos de calidad y cómo conseguirlos.
«Si los datos fueran como el agua de las empresas, solamente el 2% sería potable»
La importancia del mantenimiento de la analítica
A lo largo de mi trayectoria como analista he tenido que citar esta frase frecuentemente para intentar explicar a clientes y compañeros de otros departamentos la importancia de tener un plan de mantenimiento de los datos para tener siempre una analítica de calidad. Hay dos situaciones muy frecuentes en las que esto sucede por encima del resto:
- Cuando nos enfrentamos a un nuevo proyecto con una analítica heredada. La mayoría de las veces, los datos recolectados no han sido revisados desde que se integró la analítica años atrás. El resultado es que a día de hoy la información que estamos recogiendo no se parece en nada a lo planificado en su momento y nos estamos basando en datos muy poco fiables para la realización de nuestras estrategias.
- Cuando vamos a realizar una implementación de analítica desde 0. Aquí el problema es un poco distinto. Normalmente el cliente se viene arriba y te dice que quiere tener la mayor cantidad de información posible en un tiempo limitado y a un coste bajo (¡por supuesto!). Luego veremos que estos tres requisitos son incompatibles. Además, cuando le preguntamos cómo tiene previsto mantener esa analítica, se queda como si le estuviéramos hablando en chino.
Tanto si ya tienes analítica como si no, lo primero que hay que decidir es qué datos realmente necesitamos. Y para ello es muy importante tener en cuenta los siguientes puntos:
- Más datos = Más esfuerzo de implementación = Más dinero. Esta es la parte más sencilla de entender. Como comentaba antes, lo normal inicialmente es el “quiero saberlo todo acerca de mi web y mis usuarios” pero una vez son conscientes del trabajo que ello supone se suele cambiar al “vamos a recoger la información a la que realmente le voy a sacar partido”. Que conste que esta segunda opción es la que siempre recomiendo ya que una implementación profesional no suele salir barata, así que evitemos costes superfluos.
- Más datos = Mayor mantenimiento = Más dinero. Aquí es cuando suelen estallar cabezas. “Pero, una vez que está la analítica integrada ya la puedo utilizar sin problema ¿no?”. Como buen gallego, mi respuesta suele ser “sí y no”. Una vez tienes una analítica integrada ya puedes explotar esos datos sin problema pero (siempre hay un pero), la calidad de esos datos se irá deteriorando con el tiempo. Cuanto más dinámica sea tu web y/o app más rápido tus datos perderán fiabilidad. La única manera de tener siempre datos de calidad es a través de un buen plan de mantenimiento.
Pasos para tener unos datos de calidad
Primer paso: Una buena estrategia inicial:
Lo primero de todo es establecer una buena estrategia de recolección y almacenamiento de la información. En este primer paso es de vital importancia conocer bien a nuestro cliente. Saber cuáles son sus objetivos principales y secundarios. También tener en cuenta sus limitaciones presupuestarias y técnicas. Y, por supuesto, conocer cuáles son las principales preguntas que desean responder los distintos stakeholders de la empresa.
Una vez tengamos claro todas las características, requisitos y limitaciones del negocio ya podremos realizar una estrategia general que responda a estas preguntas:
- ¿Qué información vamos a obtener?
- ¿Cómo la vamos a recolectar?
- ¿Con qué herramientas la vamos a explotar?
- ¿Cómo la vamos a mantener?
Segundo paso: Diseño de etiquetado y de integración.
Ya tenemos un plan más o menos definido. Es la hora de meter las manos en la masa. En este segundo paso profundizaremos mucho más en las dos primeras preguntas del punto anterior: ¿qué información vamos a obtener y cómo la vamos recolectar? Es el momento de diseñar:
- Diseño y manual de etiquetado: Se decidirá y se plasmará en un documento toda la información que necesitamos. Desde este momento, este documento será como la Biblia de nuestra analítica. Servirá de guía para cualquiera que quiera explotar la información y de referencia para saber si estamos recolectando los datos de la forma correcta.
- Diseño y manual de integración: A partir del anterior manual, se define la manera óptima de recolectar estos datos. Es un documento más técnico que servirá para saber el modo en el que hacemos llegar la información de lo que sucede en nuestros activos digitales hasta las herramientas en donde haremos nuestros análisis.
Ambos diseños deberían cumplir los siguientes requisitos:
- Simples:
- Recoger sólo aquella información a la que realmente le vamos a sacar partido. En este caso menos es más y ser conciso en este sentido nos evitará muchos problemas y necesitará un menor esfuerzo de mantenimiento.
- Completos:
- Que sea simple no quiere decir que no sea completo. Los datos que hemos decidido obtener deben de estar bien documentados y completamente explicados, para que cualquiera que lo necesite consultar pueda interpretarlo correctamente. No hay que olvidarse que los datos serán explotados por departamentos de analítica, marketing, IT, negocio…
- Rigurosos:
- Hay que tener unos criterios claros y únicos para la recogida de la información. Sería positivo incluir un apartado de buenas prácticas que permitan saber rápidamente cómo obtener los datos que necesitas en cada momento.
- Escalables:
- La analítica es algo dinámico, hoy podemos tener unas necesidades informativas y mañana otras. Estos diseños deben estar preparados para poder añadir, quitar o modificar datos de forma sencilla, ágil y robusta.
Tercer paso: La implementación:
Con los anteriores pasos ya tenemos la base necesaria para conseguir los datos de calidad que tanto deseamos. Pero el momento de la verdad comienza ahora. En este paso tendrán que estar muy alineados el equipo de desarrollo y el de analítica para hacer realidad todo lo que hemos diseñado hasta ahora. Hay varias formas de hacer esta implementación, pero para una analítica de calidad y duradera recomendaría llevar a cabo los siguientes puntos:
- Inclusión de la Capa de datos: nadie conoce una web o una app como quien la ha creado. Por ello lo óptimo es que los propios desarrolladores sean los encargados de mostrarnos toda la información que necesitamos. Guiándose por el manual de integración que hemos realizado previamente, implementarán en la web los códigos necesarios para que nosotros podamos obtener todos los datos que queremos.
- Traducción y envío de estos datos a través de un Gestor de etiquetas: a través de este tipo de herramientas el analista recogerá la información desde la capa de datos y la enviará a las distintas herramientas de marketing y analítica. Será el puente que lleve los datos desde nuestros activos a las distintas herramientas donde le sacaremos todo el partido posible.
- Configuración de las herramientas de análisis: Para sacarle el mayor partido a los datos debemos de configurar las herramientas de analítica y de marketing para que la información que se almacene y se procese de la forma correcta.
No vamos a entrar en temas más técnicos pero si queréis saber cómo hacer una buena implementación técnica os recomiendo este artículo de Brais Calvo.
Cuarto paso: El mantenimiento de la calidad del dato:
¡Por fin! Ya tenemos los datos listos para nuestros análisis y hacer crecer nuestro negocio. Pero ojo, si no queremos tirar todo este esfuerzo por la borda, debemos enfundarnos nuestra mejor armadura y convertirnos en auténticos “Guardianes del Dato”.
A partir de ahora nuestro principal objetivo será mantener la calidad de la información que estamos recogiendo. Hay muchos “enemigos” que nos vamos a encontrar en nuestro camino pero si tenemos un procedimiento bien definido nada podrá destruir nuestra analítica. Hay infinitas formas de llevar a cabo esta tarea, desde las más rudimentarias hasta las más automatizadas. A continuación os dejo una serie de consejos que nos ayudarán para alcanzar unos datos a prueba de bombas:
Recomendaciones:
- El analista debe estar presente en todo proceso de cambio en la web/app: Cualquier modificación de diseño, funcionalidad o estructura puede provocar una caída de la analítica. Por tanto, el equipo de desarrollo y el de análisis deben bailar bien juntitos.
- Ten siempre a mano y actualizados los manuales de etiquetado e integración: Nuestras particulares Biblias nos servirán de referencia para saber si los datos que se están obteniendo son los correctos. Así que es de vital importancia que siempre, SIEMPRE, estén actualizados.
- Define validaciones periódicas completas de los activos digitales: sería muy interesante que de vez en cuando (cada 1, 3 o 6 meses, que cada uno decida el periodo que más se le ajuste) se comprobase de forma completa toda la analítica que se está enviando y si se está recogiendo correctamente en las herramientas.
- Diseña un documento de validación con los puntos claves a revisar. Sería imposible replicar todas las casuísticas de navegación para ver si la analítica se recoge correctamente. Pero sí que podemos identificar unos flujos clave que representen la totalidad de la información que se está recogiendo. Por ejemplo, si en mi web tengo un formulario en todas las URLs sería imposible revisarlos todos, pero lo que sí puedo hacer es revisar uno de cada tipo.
- Usa herramientas que te faciliten el trabajo: Para comprobar que se está enviando la info correcta desde la web / app a las distintas plataformas de análisis o de marketing hay multitud de herramientas que te facilitarán el trabajo.
- A nivel web es bastante sencillo revisar lo que se está enviando, ya que lo puedes hacer directamente desde la propia consola. De todas formas, hay extensiones que te ayudarán con esta tarea, a continuación te dejo algunas de ellas (de Chrome) para que pruebes en tu web o en la de la competencia 😉
- Adswerve
- Google Analytics Debugger
- GTM/GA Debug
- DataSlayer
- Omnibug
- ObservePoint Tag Debugger
- Tag Assistant Legacy (by Google) – (sólo para validar envíos a herramientas de Google)
- Facebook Pixel Helper – (sólo para validar envíos de píxeles de Facebook).
- Si quieres ir un paso más allá, puedes probar con herramientas más complejas que te permitirán depurar con mayor seguridad (ya sabes, el ojo humano siempre puede fallar), auditar apps e incluso crear flujos de validación automatizados. Algunas opciones interesantes:
- A nivel web es bastante sencillo revisar lo que se está enviando, ya que lo puedes hacer directamente desde la propia consola. De todas formas, hay extensiones que te ayudarán con esta tarea, a continuación te dejo algunas de ellas (de Chrome) para que pruebes en tu web o en la de la competencia 😉
Así que ya sabes, si quieres que tu negocio sea de ese pequeño porcentaje con “datos potables”, ¡nunca dejes de cuidarlos!