En estas últimas décadas, hemos presenciado la implantación ubicua de Internet, que ha propiciado el desarrollo de la llamada sociedad de la información. Según Castells, podemos hablar incluso de sociedad red [1], caracterizada por una aceleración de los cambios culturales, sociales y económicos, especialmente en lo relativo a las nuevas relaciones que se establecen entre personas y elementos.
Inextricablemente ligada a esta nueva tendencia mundial, existe una explosión en la generación de datos, dado que cualquier nodo dotado de una mínima inteligencia trabaja hoy en día con datos, y el número de elementos de la red va en aumento. Pensemos, por ejemplo, en los equipos de tecnología móvil (teléfonos inteligentes, tabletas, portátiles) o los llamados wearables (pulseras, bandas, relojes inteligentes). Incluso existe una tendencia clara a incorporar sensores y módulos de comunicación de bajo consumo a los objetos (sistemas de riego, estaciones meteorológicas, papeleras, contenedores) en lo que se viene llamando IoT (Internet of Things, Internet de las Cosas).
Inteligencia Artificial para optimizar el uso de datos
En este paradigma de cambio acelerado y generación exponencial de mediciones automáticas, vemos que las empresas tecnológicas han sabido apreciar el valor del dato, puesto que la información extraída puede proporcionar una gran ventaja competitiva. Por ejemplo, detectar un cambio en las preferencias de los consumidores antes que la competencia, puede hacer crecer las ventas durante una temporada. Del mismo modo, predecir con más acierto la tendencia del mercado puede reportar mayores ganancias.
Sea como fuere, la inteligencia artificial (AI) en la mayoría de los casos se nutre de datos para perfeccionar el comportamiento de los sistemas. En particular, es el caso de los modelos de aprendizaje automático (ML), que tratan de resolver problemas en los que subyacen tareas de predicción (clasificación, regresión o detección, por ejemplo) aprovechando la cantidad creciente de datos que se generan cada instante. Luego, una serie de métricas de acierto permiten estimar la calidad de funcionamiento de los modelos y, por tanto, del sistema de predicción. Finalmente, una vez se ha validado uno o varios modelos, estos se ponen en producción o inferencia y pueden resultar útiles para generar predicciones sobre datos nuevos, nunca vistos antes por el sistema.
Llegados a este punto, puede parecer que la tarea está resuelta, pero en el mundo real, la mayoría de los procesos no son permanentes o estables, sino que están sometidos al cambio. Por ejemplo, los sensores se degradan, la gente cambia de gustos y preferencias influenciada por las modas, las lógicas de mercado siguen tendencias y fluctuaciones inesperadas, etcétera. Esto se puede evidenciar tanto en las variables que los modelos toman para predecir (llamadas atributos) como en las variables predichas (llamadas de clase). En el primer caso hablamos de desviación de los datos (data drift), mientras que si también consideramos la relación que se establece entre atributos y predicción se habla de desviación de concepto (concept drift) [2].

Por esta razón, es habitual que el rendimiento de los modelos se resienta con el tiempo en forma de unas predicciones subóptimas, con el subsiguiente riesgo de una mala toma de decisiones en el mundo real en procesos automatizados o semiautomatizados. Si pensamos en escenarios relacionados con el diagnóstico de enfermedades, con el control de procesos industriales o con las lógicas de compraventa de valores, vemos que las consecuencias de este funcionamiento incorrecto de los modelos pueden llegar a ser extremadamente perjudiciales para la salud, la economía o la vida en sociedad.
El proyecto AITANA-MoMo combate la «caducidad» de los modelos predictivos
En este contexto, el proyecto AITANA-MoMo tiene como objetivo incorporar a la herramienta AITANA un conjunto de librerías y procedimientos que permitirán la detección del cambio de los datos tanto en la distribución de los atributos como en las tasas de error de los modelos. Al haberse confirmado un cambio relevante, se establecerán medidas para paliar o corregir estos problemas (por ejemplo, mediante alerta al sistema, desactivación, reentrenamiento o votación por ensembles de modelos).

En definitiva, este desarrollo busca evitar la degradación del funcionamiento de los sistemas de predicción automática, de manera que no solamente se detecten los cambios en las distribuciones de los atributos y las variables de clase, sino que se pueda mitigar esta degradación con acciones correctivas basadas en la comprensión del cambio. Detectar, entender y actuar sobre el cambio de los datos a lo largo del tiempo es una pieza clave para garantizar la trazabilidad y la explicabilidad de los algoritmos para su adopción en tareas automatizadas, en algunos casos funcionando sin supervisión humana [3].
Referencias
[1] Castells, M. [Manuel]. (1998). The Rise of the Network Society (The Information Age: Economy, Society, Culture; v.1). Oxford: Blackwell Publishers. 594 p. ISBN 0631221409.
[2] Lu, J. [Jie], Liu, A. [Anjin], Dong, F. [Fan], Gu, F. [Feng], Gama, J. [João], & Zhang, G. [Guangquan]. (2018). Learning under concept drift: A review. IEEE transactions on knowledge and data engineering, 31(12), 2346-2363.
[3] Adadi, A. [Amina] y Berrada, M. [Mohammed]. (2018). Peeking inside the black-box: a survey on explainable artificial intelligence (XAI). IEEE access, 6, 52138-52160. https://doi.org/10.1109/ACCESS.2018.2870052