Aqualia
Connecting Waterpeople

Sobre el blog

José María de Cuenca de la Cruz
Curioso, inquieto y creativo… aprendiz de escritor, e interesado también por las nuevas tecnologías y la educación. Me encanta asumir retos y compartir lo aprendido. Trabajando en lo que me apasiona…. me siento como un pez, en el agua claro.
Almar Water Solutions
Minsait
· 88
1

El Plan Nacional de Acción de Eficiencia Energética 2017-2020 estableció la necesidad de instalar contadores individuales entre otros, para el consumo de agua caliente sanitaria, de manera que reflejen el gasto y el tiempo real de uso, de acuerdo con la directiva D 2012/27/UE. Lógicamente esto no es solo un dato de lectura por periodo, aunque se realice telemáticamente.

En España, el agua cuesta mucho menos que la energía, pero nuestras sequías son recurrentes. Por ello, hacer extensible esta exigencia al agua fría es más que conveniente: debe ser una obligación para quien se diga responsable.

La necesidad de conocer el gasto en tiempo real pasa por la incorporación de un sistema de telelectura en los contadores de abastecimiento, y en muchos casos, esto supone la renovación de los propios medidores.

Poner a disposición de cada consumidor toda la información de sus registradores de agua caliente y fría le permite optimizar su consumo y reducir su huella hídrica individual. Pero incluso aunque los clientes sean exquisitamente respetuosos en sus hábitos, la medida por sí sola no garantiza que el servicio pueda ser totalmente eficiente.

Para reducir la huella del servicio, el gestor no solo debe ser capaz de analizar los consumos detallados de cada usuario. Tiene que incluir en el estudio toda la información disponible, en su conjunto. Además, debe poder hacerlo de manera simultánea y en tiempo real (lo que se conoce como análisis Big Data). La tecnología incluso permite al gestor anticiparse, evaluando posibles escenarios y adecuar a tiempo tanto las operaciones como la estrategia general del servicio. Para esto necesita aplicar técnicas de Inteligencia Artificial sobre los datos anteriores.

Hasta aquí, más o menos todos de acuerdo, supongo. Los sistemas de inteligencia artificial deben alimentarse con la mayor cantidad de datos posible. Así logran incrementar la precisión de sus predicciones, y anticiparse a escenarios fututos. La sensorización de los servicios y el IoT son su campo. Pero para ser eficientes, no toda la información necesaria procede necesariamente de nuestro ombligo.

Hay informaciones externas cuya necesidad me parece obvia. Algunas se pueden obtener en un sistema de Smart City. Otras tendrán procedencias más diversas, por ejemplo la previsión meteorológica (AEMET), el estado de los embalses, la calidad del agua bruta (Confederación), el mix de generación de la energía (REE) o la evolución de la población (INE). Algunos datos se pueden deducir de manera aproximada (los consumos individuales de agua caliente a partir de los consumos de agua fría y de los registros del contador general de agua de la parcela).

El miedo a la normativa de protección de datos de carácter personal no ayuda mucho, pero también otras informaciones que actualmente ya se podrían compartir: agregados y/o anonimizados por ejemplo de consumos eléctricos o de gas. Otros estarán disponibles en el futuro (uso de ciertos electrodomésticos inteligentes, soluciones de movilidad, etc…). Incluso se puede incentivar que los usuarios compartan determinados datos de manera voluntaria. Con todo ello, podemos tener una muy buena imagen del funcionamiento de la ciudad en su entorno. Incluida la demanda de agua y por tanto de las condiciones de explotación del servicio a corto plazo. Incluso podemos tener una idea bastante aproximada de la presión de nuestro servicio sobre el medio circundante en horizontes medios de planificación.

Pero ¿tiene sentido empeñarnos en una recopilación exhaustiva de cuanta más información mejor, incluso sin saber aún de qué manera podremos sacarle provecho? Frente a este síndrome de Diógenes por los datos, siempre me gustó la navaja de Ockham. No me atrae como a aquellos que le llaman “principio de parsimonia”, que dicen: analiza solo lo sencillo porque es lo más probable, y podan a priori. Sino por la elegancia que esa explicación simple aporta a un problema que en sus orígenes habíamos contemplado complejo. Es decir, porque con la “navaja” hemos realizado un análisis que, recortando todas las complejidades accesorias, nos permite considerar solo las causas principales. Y no porque dejemos de esforzarnos como premisa.

En los análisis Big Data, los datos principales variarán en función de lo que queramos sacar de ellos. Por eso tiene sentido compartirlos. El afeitado a navaja por lo general significa normalizar ese gran conjunto de datos y realizar un análisis PCA (básicamente en términos matemáticos, obtener los autovalores de la matriz de covarianzas de los datos, donde se aíslan aquellos que probablemente no están correlacionados linealmente y por tanto puede considerarse que son los principales).

Pero cabe dar un paso más. Sobre la inteligencia, Voltaire dijo que “Hay alguien tan inteligente que aprende de la experiencia de los demás”. Las técnicas de análisis de datos basadas en aprendizaje inteligente se pueden optimizar mucho si son aplicadas de forma colaborativa. Por ejemplo compartiendo no solo los datos sino los algoritmos, e informando sobre su calidad y como determinar cuáles son más relevantes para cada aplicación, en forma de metadatos.

Una vez aislados los datos principales, para poder predecir su evolución es fundamental comprender sus interrelaciones, incluso sobre la marcha. Desde las más inmediatas como cambiar una dosificación de reactivos o modular una presión, a otras a largo plazo como el rediseño de las instalaciones o la estrategia de inversión. Entramos en el terreno la inteligencia artificial y en concreto de los modelos de aprendizaje automático.

La precisión de estos modelos crece conforme se incrementa su complejidad y la cantidad de información a procesar; pero también lo hace el consumo de energía necesario para entrenarlos. Tanto, que algunos dicen que su impacto es mayor que los beneficios obtenidos, especialmente en el caso de las redes neuronales. Como cualquier técnica, en esta también se requiere ser mínimamente competente para poder utilizarla y sacarle provecho.

La IA no es una panacea, y aunque afortunadamente cada vez sea menor, es cierto que aún necesita elevada potencia de cálculo para conseguir modelos eficaces. Cabe atajar esa necesidad planteándose el uso de técnicas transferencia de aprendizaje entre modelos profundos. Planteando incluso un escenario futuro de trabajo colaborativo entre inteligencias artificiales. He aquí la solución verde, basada en la naturaleza: la transmisión del conocimiento entre individuos. Al fin y al cabo, en palabras de Bernardo de Chartes, somos enanos a hombros de gigantes.

Básicamente una transferencia de aprendizaje en inteligencia artificial consiste en utilizar los pesos de una red ya entrenada para inicializar la siguiente, que trabajará con nuevos datos del mismo tipo en una aplicación diferente, o incorporando otros adicionales en una aplicación similar. En el caso de una prognosis de la demanda de agua, esa transferencia se puede utilizar entre diferentes servicios municipales de aguas, pero también entre distintas empresas suministradoras. Incluso caben otras aplicaciones más sorprendentes, como por ejemplo la monitorización óptica de micro organismos en tiempo real sobre el caudal suministrado, aprovechando las técnicas de visión artificial ya desarrolladas para identificar otros objetos.

Nuestra convivencia con la naturaleza requiere de visión holística y gran capacidad de análisis, lo que pasa por la aplicación de nuevas tecnologías. En el futuro, la gestión de los recursos requerirá generosidad en los planteamientos; y todo aprendizaje, incluso el artificial, deberá ser colaborativo. Las máquinas serán realmente inteligentes cuando se transmitan sus conocimientos autónomamente. Todo formará parte de una cadena: a nuestro nivel interna del servicio; pero conectada con el resto de áreas municipales, municipios y sectores.

Así, una cámara de inspección o un dron de alcantarillado aprenderán a reconocer y etiquetar automáticamente los defectos de las canalizaciones por las que pasen gracias a que otros dispositivos similares les han “enseñado” como hacerlo. Nuestras estrategias de gestión y renovación de activos se basarán en un número mucho mayor de datos que hasta la fecha, con mucha mayor calidad (por ejemplo, las etiquetas automáticas de defectos visualizados por las cámaras de inspección al recorrer las redes). Y cuando apliquemos cualquier solución, tendremos mayor seguridad en sus resultados, incluso si se trata de soluciones poco probadas y complejas, como es el caso de las “verdes”.

Con estas herramientas inteligentes e interconectadas podremos ser mucho más efectivos a la hora de minimizar el uso de recursos, económicos y materiales. Y por tanto, los impactos sobre nuestro medio serán lo más reducidos posible, en términos operativos (menor consumo energético, mayor rendimiento), pero también estratégicos (mejor aprovechamiento de las infraestructuras, espacios, recursos).

Aunque generalmente se dice que somos un sector muy conservador, las nuevas tecnologías no deben inducirnos un miedo que nos lleve a eludirlas, sino motivación y esfuerzo para dominarlas.

Comentarios