Connecting Waterpeople
Gomez Group Metering
Fundación Botín
AVK Válvulas
GS Inima Environment
Centro Nacional de Tecnología de Regadíos (CENTER)
Ens d'Abastament d'Aigua Ter-Llobregat (ATL)
Terranova
Almar Water Solutions
Ministerio de Ciencia, Innovación y Universidades
Sacyr Agua
ADECAGUA
TEDAGUA
AMPHOS 21
Xylem Vue
Badger Meter Spain
KISTERS
Aqualia
Moval Agroingeniería
Aganova
CAF
Minsait
POSEIDON Water Services
SCRATS
Red Control
Baseform
ATLANTIUM
Ingeteam
Barmatec
Veolia
Itron España
Filtralite
Adasa Sistemas
FACSA
LACROIX
HRS Heat Exchangers
Grupo Mejoras
ANFAGUA
Amiblu
Vodafone Business
FENACORE
Kamstrup
Bentley Systems
Netmore
ISMedioambiente
Hidroconta
Fundación CONAMA
ISEO Ultimate Access Technologies
J. Huesa Water Technology
Honeywell
Molecor
Saint Gobain PAM
Global Omnium
Cámara de Granada
ICEX España Exportación e Inversiones
Rädlinger primus line GmbH
Asociación de Ciencias Ambientales
Lama Sistemas de Filtrado
Arup
ESAMUR
Ministerio para la Transición Ecológica y el Reto Demográfico
IAPsolutions
Xylem Water Solutions España
AECID
Consorcio de Aguas Bilbao Bizkaia
Autodesk Water
Laboratorios Tecnológicos de Levante
Open Intelligence
AGENDA 21500
ACCIONA
TecnoConverting
ONGAWA
Catalan Water Partnership
VEGA Instrumentos

Se encuentra usted aquí

Estandarizar o fallar, la verdad incómoda detrás de los datos industriales

Sobre el blog

Miguel Ángel Rodriguez Núñez
Ingeniero Técnico Industrial. Master en Ingeniería y Gestión del Mantenimiento. Master en Mantenimiento Industrial y Técnicas de Diagnóstico. Técnico de Sistemas de Control Industrial.
  • Estandarizar o fallar, verdad incómoda detrás datos industriales

En nuestras plantas industriales conviven múltiples sistemas de adquisición de datos —SCADAs propietarios, sistemas IIoT heterogéneos, PLCs con distintos protocolos, bases de datos históricas fragmentadas— cada uno configurado de forma particular; comunicaciones, escalados de señal, calibraciones, offsets, ceros, unidades, frecuencia de muestreo, tipos de datos y formatos distintos. Esa diversidad puede generar datos inconsistentes, incompletos, desincronizados, con nomenclaturas ambiguas o redundantes, con diferentes cadencias temporales o conversiones heterogéneas, consecuencia de la Ingeniería de la “feliz idea”. Cuando los datos provienen de fuentes propietarias el resultado puede llegar a ser caótico: no hay una base fiable sobre la que construir análisis coherentes, los informes difieren según la fuente, las comparativas entre activos o plantas resultan inviables, y la trazabilidad se rompe o se convierte en inexistente. Esa problemática aniquila cualquier esfuerzo serio de análisis, optimización o modelado de los datos, cayendo en el célebre “basura dentro, basura fuera”. El nivel de esfuerzo pasa a nivel “dios” si además tenemos que migrar sistemas legacy, propietarios convenientemente cerrados o aquellos que tienen documentación difusa, contradictoria o inexistente.

Para minimizar este problema conviene mirar a estándares de gestión de calidad de datos como los que propone la ISO 8000. Esa norma —desarrollada por el comité ISO/TC 184/SC 4, responsable de datos industriales— ofrece un marco estructurado para definir criterios claros de calidad: precisión, completitud, consistencia, fiabilidad, trazabilidad, interoperabilidad. En particular, sus apartados orientados a la gestión de datos maestros y gestión de calidad de datos (por ejemplo partes 6x, 100-150) definen procesos, roles (gestor de datos, administrador, técnico de datos) y requisitos para intercambio, documentación y mantenimiento de datos con estándares uniformes. Implantar ese marco en una organización, ya sea industrial o no, tiene su miga. Requiere disciplina, definición de modelos de datos, gobernanza, formación y desgaste inicial para migrar sistemas, armonizar señales, definir metadatos, conversiones, nomenclaturas, reglas de calidad, procedimientos de verificación, mantenimiento y formación. Esa complejidad explica en muchos casos la reticencia a adoptarlo, especialmente cuando conviven múltiples plantas, instalaciones, tecnologías y generaciones de equipos.

Aun así, implantar un sistema global de adquisición de datos —un sistema de control industrial corporativo estándar, con plantillas definidas para señales, estructuras homogéneas para tags, estandarización de unidades y calibraciones, sincronización temporal y normalización semántica— aporta ventajas decisivas. En primer lugar, nos va a garantizar que todos los datos capturados en las instalaciones tengan coherencia: el mismo significado, las mismas unidades, la misma granularidad, lo que permite poder comparar magnitudes y agregarlas de forma fiable. Además, nos facilita la generación de dashboards globales, KPIs/OEE comunes y SPI compartibles entre instalaciones o plantas, lo que habilita benchmarking real y detección de mejores prácticas. También nos permitirá integrar OT e IT sin fricciones: datos limpios, estructurados y normalizados que fluyen hacia sistemas MES, ERP, plataformas de analítica o nube sin ambigüedad ni necesidad de transformaciones manuales. Esa estructuración convierte los datos en activos explotables, comparables y auditables.

Desde mi experiencia en automatización, la ingeniería desempeña un papel clave en este modelo. Es necesario diseñar y mantener la arquitectura del sistema: definir la configuración de señales, calibraciones, alarmas, modos de adquisición, tratamientos, sincronización horaria —garantizando así la consistencia y trazabilidad de la cadena del dato desde origen hasta consumo. Esa labor no es trivial, implica entender tanto la capa OT (sensores, PLC, SCADA) como la capa de datos/analítica, anticipar requerimientos de calidad, diseñar plantillas, documentar metadatos, establecer procesos de gobernanza, roles, pruebas, validaciones, auditorías internas. Sin una ingeniería de automatización rigurosa, el sistema no resistirá la escala ni garantizará que los datos mantengan su integridad a lo largo del tiempo, lo que condena cualquier intento de analítica avanzada, machine learning u optimización al fracaso más absoluto.

Finalmente, ese modelo de gestión —sistema unificado, estandarizado, gobernado, trazable— aporta ventajas concretas para alimentar cadenas de MLOps: los datos finales son consistentes, completos, sincronizados, con metadatos claros que nos permiten construir modelos más fiables, reproducibles y auditables; reducen el error por el ruido, evitan sesgos por fuentes heterogéneas, permiten comparativas históricas, análisis de tendencias, detección de anomalías; habilitan decisiones organizacionales basadas en evidencia real; mejoran eficiencia, previsibilidad, mantenimiento y en optimización de procesos. En un contexto en que la automatización y el análisis de datos deben sustentar decisiones críticas, sin un sistema así los datos serán totalmente inútiles para el MLOps.

Lo más habitual cuando tratamos con sistemas heterogéneos es que los análisis siempre acaben cuestionados, con discrepancias inexplicables, dudas sobre su validez y pérdida de confianza en los resultados. Por eso, creo firmemente que si aspiramos a ser una verdadera industria data-driven y disponer de modelos predictivos robustos para tomar decisiones confiables, necesitamos gestionar adecuadamente el dato mediante sistemas unificados que aporten valor desde campo hasta el gestor último del sistema.

Si el dato no tiene calidad desde su origen, cualquier modelo, cualquier IA, cualquier estrategia basada en datos estará condenada a fallar. Ese es el coste real de ignorar la estandarización.

Suscríbete al newsletter

Los datos proporcionados serán tratados por iAgua Conocimiento, SL con la finalidad del envío de emails con información actualizada y ocasionalmente sobre productos y/o servicios de interés. Para ello necesitamos que marques la siguiente casilla para otorgar tu consentimiento. Recuerda que en cualquier momento puedes ejercer tus derechos de acceso, rectificación y eliminación de estos datos. Puedes consultar toda la información adicional y detallada sobre Protección de Datos.