Inteligencia Artificial Explicable (XAI)
Descripción de la Investigación
Esta investigación se enfoca en hacer las redes neuronales profundas (DNNs) más transparentes y confiables a través de la inteligencia artificial explicable (XAI), con un énfasis particular en la extracción de conceptos. En aplicaciones críticas como el control de calidad industrial, entender qué ha aprendido un modelo y por qué hace ciertas predicciones es esencial para la seguridad, fiabilidad y confianza humana.
Desarrollamos métodos que generan explicaciones globales para modelos de redes neuronales entrenados extrayendo y localizando automáticamente conceptos comprensibles para humanos. Las contribuciones clave incluyen:
ECLAD (Extracting Concepts with Local Aggregated Descriptors): Un método para la extracción y localización automática de conceptos basado en agregaciones píxel a píxel de mapas de activación de CNN, con un marco de validación riguroso usando conjuntos de datos sintéticos.
SPACE (Scale-Preserving Automatic Concept Extraction): Un algoritmo diseñado para aplicaciones industriales que preserva la información de escala durante todo el proceso de extracción de conceptos, crítico para tareas de control de calidad donde la escala de las características es determinante.
ECLAD-ts: Extensión de la extracción de conceptos al dominio de series temporales, permitiendo la identificación y localización de conceptos temporales significativos.
Regularización de Conceptos: Cerrando el ciclo entre la extracción de conceptos y el entrenamiento del modelo, usando conceptos extraídos como señales de regularización para fomentar representaciones mejor alineadas.