Por mucha capacidad de cómputo y calidad en los programas con los que se genera la información, la calidad de esta dependerá enormemente de la calidad de los datos fuente.

Existen múltiples alternativas para la implementación de software, no solo transaccional, sino en prácticamente todos los procesos de los negocios, desde la tarea más sencilla, hasta las más complejas.

Es claro que hoy ya no se cuestiona ni el beneficio de la sistematización a cualquier nivel, ni que existan las herramientas para hacer lo que uno requiere, en abundancia suficiente para tener de donde escoger. Adicional a esto se cuenta con un numero interesante de proveedores, que además de la aplicación, ofrecen capacitación, mejores prácticas, asesoría en la implementación entre otros servicios.



El problema ya no es el software, sino cómo hacer que los usuarios del mismo ingresen la información que se requiere, en forma oportuna y veraz, para que pueda ser utilizada en los demás procesos que harán uso de la misma. Y curiosamente aquí se quedan cortos todos los proveedores, asesores, e implementadores que no proporcionan buenas prácticas para esta tarea. Obviamente no es su responsabilidad, pero si detallamos un poco más la “oferta” del proveedor, ¿para qué nos sirve el software si la información que le vamos a incorporar no es oportuna o reviste de fallas de calidad? 

Hay varios ejemplos que se pueden tomar de la práctica diaria para ilustrar la problemática y tratar de ofrecer algunas alternativas para el manejo adecuado.

En procesos transaccionales, hay información que se exige al ingresar las mismas, pero esta información es poco o nada relevante para el desarrollo de la transacción misma. Por ejemplo, al hacer un depósito en una entidad financiera, ingresa el nombre de quien hace la consignación, sin embargo la “calidad” de esta información no afecta para nada el hecho de que se haga la consignación a la cuenta que se solicita. De la misma manera es irrelevante la edad de una persona, o la dirección física de la misma para efectuar la toma de un pedido que será despachado en forma virtual.

Los posibles errores en esta información solo salen a relucir en procesos posteriores a la transacción, sin presencia de quien ofreció la información en primera instancia, lo que dificulta el proceso de validación o corrección.

En procesos no tan transaccionales como el manejo de proyectos o la utilización de un CRM, también se tiene una problemática similar. Supongamos que podemos utilizar una herramienta sistematizada para hacer la programación de recursos (humano, equipos, dinero, etc.) de uno o varios proyectos. Sin embargo para una correcta gestión de proyectos, y sobre todo para identificar problemas dentro del mismo para resolverlos, se requiere que durante la ejecución, se estén actualizando las actividad avanzadas y recursos consumidos.

Tarea por lo general muy “aburridora” para quienes están en un proyecto, pero indispensable para el control del mismo. Tan aburridora, que la mayoría de los programas de manejo de proyectos vienen con una funcionalidad de “actualizar hasta la fecha” que simula que todas las actividades y recursos se han llevado a cabo y consumido según lo planeado, cosa que sabemos es tremendamente utópica.

Se debe hacer entonces un esfuerzo importante en los procesos que toman la información en la fuente, validar que la información del producto que se está facturando en el punto de venta corresponde realmente al mismo producto que se lleva el cliente; que la información de las cantidades de un pedido que coloca un proveedor por Internet es la misma que llega al sistema transaccional.  En algunos casos estas validaciones pueden ser automáticas, como revisar que haya una arroba (@) en una dirección de correo, pero de ahí a validar que la dirección de correo exista es muy difícil en el momento de ser capturada.  Si se pueden hacer procesos posteriores para validarla.

De todas maneras, el elemento más importante aquí es quien captura la información. Es necesario que conozca la implicación que tiene en el resto de la compañía una omisión o un error de digitación. La toma de decisiones puede ser completamente equivocada, generando pérdidas enormes.

La necesidad de la calidad en los datos capturados, y en la información que estos producen es cada vez mayor cuando estamos pasando de procesos de análisis con fines históricos, a procesos de análisis predictivos, para tratar de predecir qué va a suceder con base en lo histórico, y tomad decisiones a partir de ahí para “cambiar el futuro”.  La mejor muestra de la baja calidad de la información es que la discusión se torna sobre la calidad de la fuente para la predicción y la explicación de los mismos, y no sobre las acciones a tomar con base en esa predicción.

Muchas empresas han emprendido procesos de “limpieza” de los datos, y generacion de informacion “intermedia” para garantizar que hay certeza sobre las fuentes de donde parten las predicciónes.  Sin embargo, la velocidad a la que se mueven los negocios hoy no da espera para hacer limpieza.  Es mejor no “ensuciar”.

No podemos perder de vista que la calidad de la información que obtenemos dependerá directamente de la calidad de los datos que recojamos. Viene a la mente un dicho ya bastante viejo y usado, pero que inclusive se conoce con las siglas GIGO, por las iniciales de Garbage In, Garbage Out (entra basura, sale basura). Se han desarrollado múltiples procesos de “limpieza” de datos, todos posteriores a la captura, y cuan más alejado esté el proceso de limpieza del punto de captura, es exponencialmente menos efectivo el proceso de limpieza. Es tan, o tal vez más importante velar por la calidad de la información en la fuente, que por la estructura de la información producida con ella.

Comentarios
Compartir este contenido en: