De la calidad de los datos con los que cuenta su compañía dependerá que pueda aplicar tecnologías modernas y generar decisiones de alto impacto en el futuro de su organización. No deje que la mala calidad de sus datos de al traste con sus estrategias para avanzar hacia una organización digital
La velocidad con la que se deben tomar decisiones hoy exige que haya también velocidad en las herramientas que se utilizan para generar la información con la que tomamos estas decisiones. Sin embargo, la calidad de los datos base de la información deja, en la mayoría de los casos, mucho que desear en cuanto a exactitud, oportunidad y completitud.
Tenemos ya muchas décadas procesando datos para generar información. Esta información es útil si permite tomar decisiones a partir de la misma, y si se puede generar de manera automática a partir de los datos base. Por lo general estamos encontrando que hay que hacer uno o varios procesos intermedios para “limpiar y cepillar” (del data clensing y data scrubbing que alguna vez utilizamos para la minería de datos), los datos de tal manera que sirvan para su procesamiento.
Hay varias razones para que los datos que tenemos almacenados no sean una fuente fiable para la generación de información. La solicitud de más datos de los necesarios al momento de crear un cliente, por ejemplo, hace que el dependiente en una caja registradora en aras de agilizar la transacción ingrese cualquier información a campos que en ese momento son irrelevantes, como lo podrían ser el número telefónico o la dirección de la casa.
Solicitar esa información hace que quien la esté ingresando ponga “cualquier cosa” con tal de pasar a generar la factura y despachar el cliente. Solo nos damos cuenta cuando queremos utilizar la dirección o el teléfono para otra actividad, que la calidad de la información no es confiable.
Otro tipo de inconveniente es la falta de oportunidad de la información. Cuando un pago que nos hace un cliente todavía no se ha asentado en su cuenta. Cuando una consignación bancaria no es informada a tesorería a tiempo. Cuando salen productos de la bodega sin salir del sistema. La transaccionalidad también genera muchos desfases entre la realidad y los datos que deben representarla.
Para poder generar indicadores de gestión de manera oportuna, poder aplicar tecnologías de inteligencia artificial para proyectar actividades o generar decisiones de compra, para utilizar algoritmos que generen pedidos automáticamente, o simplemente flujos de trabajo con base en información, es indispensable entonces que los datos de base tengan una calidad suficiente. ¿Cómo llegamos a esto?
Puede tomar acción en dos frentes, uno sobre los datos que ya tenemos almacenados, y otro sobre los nuevos datos que van a surgir en el tiempo. Lo ideal es hacer un corte, diseñar y ajustar las entradas de datos al sistema para garantizar su calidad, y a partir de ahí iniciar un proceso de “limpieza” de lo que ya está almacenado.
Para el ingreso de nueva información, pregúntese si realmente esa información es necesaria en el momento que se está pidiendo que se capture, qué valor genera a la compañía capturarla en ese momento, y si la calidad de la información aumentaría trasladando la captura a otra instancia, o solo cuando se requiera.
Agregue a esto, elementos de validación en la medida de lo posible. Se pueden validar fechas, hasta cierto punto, en el entendido que hay combinaciones de mes y día que pueden ser trocados, como el tres de mayo o el cinco de marzo. Valide que los campos numéricos sean numéricos, incorpore elementos que permitan cerciorarse que una dirección fue agregada con parámetros internacionales, que los números de teléfono tienen la cantidad necesaria.
Las validaciones solas no son garantía de calidad, pero ayudan enormemente. Habrá que implementar pasos adicionales de verificación sobre información sensible. En algunos casos es verificable de manera automática, a través de servicios de entidades externas, como los números de tarjeta de crédito.
Con el tiempo la información va perdiendo vigencia, por lo que habrá que establecer procedimientos para garantizar su actualización, o bien con cada interacción con la fuente, o a través de mecanismos periódicos, como lo que hacen los bancos generando un concurso a inicio de cada año rifando un carro entre quienes actualicen su información.
Los mismos procedimientos de actualización se deben aplicar sobre los datos que ya se tienen almacenados para llevarlos al nivel requerido de calidad y oportunidad. Una vez aplicados sobre los datos actuales, y generados cambios en la captura de la información, la calidad de los datos será confiable para tomar decisiones a partir de ellos sin tener que hacer procesos adicionales de limpieza y cepillado.
Queda una recomendación adicional, cuide mucho la historia. Diseñe sus sistemas de información para conservar la historia, para que cuando vaya a utilizar la información, tenga trazabilidad de los cambios. Por ejemplo: la codificación de productos que pasó de un código interno a usar un código de barras. O los códigos de los empleados que se cambian por el número de identificación que les da el estado. Es indispensable tener tanto tablas de equivalencia como tablas de historia de cambios, de tal manera que la trazabilidad no se pierda.
No queremos vender la idea de que esto sea un proceso fácil, pero es indispensable, si espera utilizar sus datos para tomar decisiones, generar estrategias y aplicar tecnologías que ya están disponibles y cuyo resultado para el negocio depende casi en su totalidad en la calidad de los datos fuente.
Al construir el plan estratégico de tecnología e información se evalúa el estado actual de la calidad de los datos que la compañía tiene actualmente y se generan políticas y proyectos que permitan mejorar y mantener la calidad de éstos.