De Excel a los algoritmos: modernizando el mantenimiento con Lean Six Sigma

Durante años, la mejora continua ha sido sinónimo de diagramas de Pareto, reuniones de equipo, análisis de causas con post-its y mucha intuición operativa. En este artículo, utilizo como hilo conductor el enfoque DMAIC (Definir, Medir, Analizar, Mejorar y Controlar), ampliamente utilizado en metodologías Lean Six Sigma, para estructurar las tres grandes fases de evolución que viví —y luego imaginé— en la transformación del mantenimiento industrial. Esta elección no es casual: el ciclo DMAIC permite ordenar el pensamiento, asegurar que cada paso añade valor y conectar la excelencia operativa con decisiones basadas en datos. Sin embargo, la llegada del data science y la inteligencia artificial ha transformado por completo la manera en la que identificamos y resolvemos problemas en planta. Lo que antes dependía casi exclusivamente del conocimiento del personal y del análisis manual, hoy puede acelerarse y amplificarse con sensores, algoritmos y dashboards en tiempo real.

Para ilustrar esta evolución, comparto un caso que viví en primera persona como jefe de mantenimiento: cómo abordamos los fallos recurrentes en los transportadores de carrocerías en una planta industrial, y cómo ese enfoque podría haberse transformado hoy con herramientas de ciencia de datos e inteligencia artificial. Pero más allá del relato, este artículo busca también hacer una lectura crítica de cada etapa vivida. Porque no se trata solo de tecnología, sino de entender qué funcionó, qué no, y por qué.


Fase 1 – Del papel al Excel (2004–2007)

Aplicando el ciclo DMAIC antes de tener sensores y algoritmos

Cuando asumí la responsabilidad del área de mantenimiento y servicios técnicos, uno de los mayores retos eran los paros recurrentes de los transportadores que movían las carrocerías a lo largo de la línea de producción. Aunque los sistemas estaban gestionados mediante PLCs, estos eran modelos arcaicos, sin conectividad ni almacenamiento estructurado de eventos. Cada vez que ocurría un paro, los técnicos intervenían, pero no existía trazabilidad ni posibilidad de análisis posterior.

Define

Nos propusimos reducir significativamente los paros de los transportadores. El objetivo estaba claro: aumentar la disponibilidad de línea atacando las causas recurrentes de fallo. Involucramos desde el inicio a los operarios y técnicos para definir bien el alcance del problema y sus impactos en producción.

Measure

Creamos un sistema de registro manual en Excel, una especie de CMMS rudimentario. Allí documentábamos cada incidencia indicando el tramo del transportador, el tipo de fallo y el tiempo de parada. Esta base de datos permitió cuantificar por primera vez el problema y facilitó la generación de los primeros diagramas de Pareto.

Analyze

Organizábamos workshops de análisis estructurado con el equipo técnico y de mantenimiento. Utilizábamos diagramas de Ishikawa, brainstorming y mucha experiencia operativa para identificar las causas raíz. Algunas recurrentes eran:

  • Desgaste excesivo en sistemas de frenado.
  • Escobillas fuera de carril provocando daños en cadena.
  • Plásticos desprendidos por impactos que afectaban a otros tramos.
  • Dificultades para localizar fallos por falta de segmentación de la electrovía.

Improve

Diseñábamos soluciones específicas para cada causa: rediseño de piezas, ajustes de tolerancias, mejoras en guías o barreras físicas. Las implementábamos y evaluábamos su impacto con nuevos registros.

Control

Establecimos controles visuales, listas de verificación y rutinas de inspección periódicas. Y lo más importante: reforzamos al equipo con formación en redes industriales y gestión económica para dar contexto a cada intervención. Se trataba de un cambio de mindset, y la formación no era solo tecnológica: también era necesario entender el nuevo rol que mantenimiento debía desempeñar dentro de la operación de la planta. Debíamos ser más proactivos y menos reactivos.

Crítica constructiva: Esta fase fue fundamental para crear cultura de mejora y comenzar a analizar datos. Pero era una cultura extremadamente dependiente de la iniciativa individual. Los datos eran incompletos y sesgados, la recogida era manual y tardía, y el análisis estaba limitado a interpretaciones subjetivas. No se podían anticipar fallos ni priorizar intervenciones con criterio técnico-económico. Aun así, fue una buena base para avanzar.


Fase 2 – Evolución hacia la digitalización (2008–2014)

Aplicando DMAIC en la era de la automatización conectada

Define

Aunque ya no estábamos ante un proyecto puntual, definimos un objetivo general: mejorar la fiabilidad y trazabilidad de los equipos de transporte mediante la incorporación de automatización avanzada. El foco se desplazó de la resolución puntual de fallos hacia la necesidad de tener una visión integrada de las incidencias en planta.

Measure

Gracias a la implantación de autómatas Siemens S7 y herramientas del entorno TIA Portal, comenzamos a capturar datos en tiempo real sobre variables clave del proceso. La medición dejó de depender del input manual y se volvió más estructurada y continua, permitiendo una lectura más objetiva del estado de los sistemas.

Analyze

Con la mejora en la calidad de los datos y su trazabilidad (por tramo, hora, operario, etc.), realizamos nuevos análisis de recurrencias y causas. Aun sin herramientas analíticas avanzadas, los dashboards nos ofrecían patrones visibles, como la concentración de fallos en ciertos horarios, líneas o condiciones de operación.

Improve

Algunos PLCs fueron reprogramados para emitir alarmas anticipadas y se crearon automatismos que generaban órdenes en SAP PM tras ciertos fallos. Se rediseñaron rutinas de mantenimiento y se introdujeron inspecciones más específicas, apoyadas por la nueva infraestructura de sensores. También se instalaron más módulos de comunicación y conexiones Ethernet, a menudo como parte de actualizaciones técnicas, sin un plan maestro de datos, pero sentando las bases para el futuro.

Control

Se consolidaron rutinas de monitorización mediante SCADA y sistemas conectados. Se mantuvieron y escalaron las integraciones entre los sistemas de planta y SAP, aunque con limitaciones. El control también incluyó la adopción de nuevos roles más digitalizados en el equipo técnico. Aun así, la trazabilidad y el uso efectivo de los datos seguía dependiendo en gran medida del juicio humano.

Crítica constructiva: Aunque la infraestructura técnica evolucionó claramente, el ciclo DMAIC quedó a menudo incompleto: la mejora se centraba en acciones locales, y el análisis y control no se apoyaban aún en capacidades analíticas profundas ni en decisiones estratégicas basadas en datos. Era una digitalización operativa, pero no una verdadera gestión por datos.: Si bien se avanzó en infraestructura, aún no éramos plenamente conscientes del valor estratégico de los datos. El enfoque seguía centrado en el control operativo inmediato, sin explotar la información para anticipar o priorizar con base en impacto de negocio. Se sembró tecnología, pero no se activó una transformación analítica. Los datos estaban, pero no se veían como un activo clave.


Fase 3 – De la infraestructura al aprendizaje automático (lo que debería ser hoy)

Aplicando el ciclo DMAIC en la era de la IA industrial (en clave hipotética)

A diferencia de las dos fases anteriores, esta tercera no describe una experiencia vivida en planta. Tras esa etapa, me dediqué a otros ámbitos profesionales y no fui testigo directo de cómo evolucionó finalmente la infraestructura digital que habíamos comenzado a construir. En ese momento, tampoco yo era plenamente consciente del verdadero valor que podían tener los datos. Sin embargo, desde entonces he adquirido una formación profunda en ciencia de datos e inteligencia artificial, lo que me permite ver con claridad lo que se podría (y debería) estar haciendo hoy.

Gracias a este conocimiento, me siento plenamente capacitado para plantear cómo completar esa transformación, integrando la potencia del aprendizaje automático en la mejora continua industrial. Al mirar ahora hacia atrás con esta nueva perspectiva, veo con claridad muchas oportunidades que antes no alcanzaba a identificar: patrones, correlaciones y decisiones que en su momento pasaban desapercibidas por falta de datos, herramientas o simplemente por no tener el enfoque analítico adecuado.

Define

Se partiría de un objetivo claro: anticipar fallos, priorizar recursos y maximizar la eficiencia operativa utilizando herramientas de IA y ciencia de datos. A diferencia de fases anteriores, aquí el reto no es solo técnico, sino organizativo: definir nuevos roles, capacidades y una cultura basada en la explotación de datos.

Measure

Con una sensorización IoT adecuada y la lectura automatizada desde PLCs modernos, podemos medir variables críticas como vibración, ciclos, consumo energético o temperatura. Estos datos, almacenados en SQL, MongoDB o data lakes, se convierten en la nueva “materia prima” de la mejora continua.

Analyze

Se aplicarían modelos de aprendizaje automático para descubrir relaciones no lineales, patrones ocultos y segmentaciones operativas que no eran visibles. Se utilizarían librerías como scikit-learn, xgboost, lightgbm y catboost para tareas de clasificación y regresión, y herramientas como DBSCAN, HDBSCAN y k-means para clustering no supervisado. También podrían emplearse técnicas de reducción de dimensionalidad con PCA, t-SNE y UMAP para visualizar comportamientos latentes en grandes volúmenes de datos operativos. Se integrarían análisis de series temporales con prophet, ARIMA, Facebook Kats o incluso LSTM para detectar patrones secuenciales y anticipar tendencias a medio plazo.

Improve

La mejora dejaría de basarse en ajustes manuales o intuiciones. Se diseñarían Digital Twins para simular escenarios complejos, integrando datos históricos y sintéticos mediante entornos como AnyLogic, SimPy o plataformas específicas de gemelo digital conectadas a datos reales vía APIs. Se optimizarían intervenciones y decisiones mediante algoritmos evolutivos y de optimización multiobjetivo, aplicando optuna, hyperopt, scikit-optimize o incluso estrategias bayesianas. Se redefinirían los planes de mantenimiento priorizando el impacto financiero a través de simulaciones Monte Carlo y modelos de priorización usando técnicas de scoring con múltiples variables ponderadas. La mejora es continua, pero también es algorítmica.

Control

El control se ejercería mediante dashboards interactivos diseñados con herramientas como Power BI, Streamlit, Plotly Dash o Grafana, que permitirían desplegar visualizaciones en tiempo real sobre disponibilidad, tendencia de fallos y eficacia de las acciones correctivas. Además, se aplicarían sistemas de alertas tempranas basados en modelos de clasificación, integrados en flujos de trabajo automatizados mediante herramientas como Apache Airflow o Prefect, asegurando trazabilidad y acción inmediata ante desviaciones críticas. Pero sobre todo, el control depende de que las personas estén preparadas para tomar decisiones basadas en datos: perfiles como data scientists de planta o ML engineers operativos aseguran que el sistema sea sostenible y evolutivo.

Crítica constructiva (futura): Este enfoque solo funcionará si se invierte seriamente en la capacitación de las personas. No se trata de importar modelos externos, sino de desarrollar competencias internas que permitan entender, entrenar e interpretar modelos. Sin esa transformación humana, la IA en planta será otra promesa incumplida.

Pero el verdadero cambio no es técnico: es humano y organizativo.

Para que esta visión se haga realidad, no basta con sensores ni algoritmos. Es imprescindible transformar los perfiles profesionales dentro de planta. Donde antes había técnicos que interpretaban gráficas, ahora necesitamos personas capaces de programar scripts, diseñar modelos predictivos y traducir resultados en decisiones de impacto.

La capacitación en data science y machine learning debe dejar de ser un tema exclusivo del área IT o de perfiles externos. Las operaciones necesitan su propia cantera de data scientists operativos y ML engineers de planta: profesionales que hablen el idioma de los datos, pero que piensen en clave de disponibilidad, MTTR, OEE y coste por intervención.

Crítica constructiva (futura): Esta etapa exige algo más que tecnología: requiere la formación de nuevos perfiles como data scientists y machine learning engineers dentro del entorno operativo. El riesgo no está en fallar técnicamente, sino en no generar valor porque nadie traduce los modelos en acciones. La clave estará en formar a los equipos, construir puentes entre operaciones y datos, y asegurar que las decisiones se alineen con el negocio.


Conclusión

El ciclo DMAIC sigue más vigente que nunca. Lo que ha cambiado radicalmente es la potencia, velocidad y profundidad con la que podemos recorrerlo gracias a la tecnología.

Lo que antes se escribía en una libreta, hoy se anticipa con sensores, algoritmos y visualizaciones inteligentes. Pero la transformación no ha sido solo digital: ha sido cultural.

Y como ya apunté en otro artículo —Los puentes siempre son una buena idea (pero no siempre lo vemos tan claro)—, esta evolución necesita más que infraestructura: necesita construir puentes humanos. Porque los datos no hablan solos; necesitan intérpretes comprometidos con el impacto.

Por eso, más allá de los modelos y los algoritmos, seguimos necesitando algo esencial:

personas con criterio operativo que conozcan el valor de los datos y sepan hablar su idioma.


¿Y tú, en qué fase estás?

  1. ¿Qué barreras culturales, técnicas o estructurales has encontrado al intentar evolucionar desde un enfoque tradicional hacia uno basado en datos?
  2. ¿Qué tipo de perfiles (o combinaciones de perfiles) crees que necesita realmente una planta industrial para abrazar la IA con impacto?
  3. ¿Cómo podríamos medir si una organización está realmente preparada para aplicar un enfoque de mejora continua basado en inteligencia artificial?