Necesidad de un Monitoreo y Diagnóstico Automático de Fallas

Dra. Cristina Verde Rodarte
verde@unam.mx

INTRODUCCIÓN

Los sistemas físicos y su operación se han hecho cada vez más complejos, debido a:

  • el número de interconexiones de los dispositivos que los integran; por ejemplo, complejos petroquímicos o redes de distribución,
  • la complejidad de los fenómenos involucrados en ellos, como es el caso de los reactores nucleares y de la industria de bioprocesos y farmacéutica,
  • la distribución y distancia entre los dispositivos; por ejemplo, en los sistemas de transportes o redes eléctricas, y
  • la autonomía demandada en la operación de sistemas como es en caso de los satélites, trenes sin conductores o aviones.

En general, estos sistemas, formados por muchos dispositivos interconectados y controlados por computadoras, frecuentemente distribuidas, rigen su comportamiento a través de interrelaciones con un gran número de variables y se diseñan para operar en diversos ambientes y condiciones, difíciles de predecir. Actualmente, en una central eléctrica se envían más de mil datos por minuto a la computadora encargada del control SCADA, cuya tarea es atender de manera automática, permanente y rápida, la demanda de energía eléctrica de la red.

Una demanda similar se presenta en una red pluviométrica, cuando se presentan lluvias torrenciales en tiempos cortos y donde el control automático tiene que generar acciones para extraer el agua y evitar inundaciones. En el caso de los automóviles, se ha logrado mejorar la eficiencia de los motores y reducir los contaminantes con un mayor número de lazos de control automático para tareas muy sofisticadas. Las herramientas de control y automatización evoluciona paralelamente a la complejidad de los sistemas creados por el hombre y, en consecuencia, es posible concebir y manejar procesos más complicados y de mayor dimensión. Así, se diseñan sistemas más sofisticados producto de los avances actuales, seguros y confiables.

La sociedad desarrollada no acepta un bienestar que pone en riesgo al ser humano y/o al medio ambiente. Las grandes catástrofes en complejos industriales son escasas pero demasiado costosas. Se pueden mencionar varias de la segunda mitad del siglo XX: la explosión de un reactor químico en Seveso, Italia en 1976, que tuvo como consecuencias la contaminación del ambiente y el sacrificio de más de setenta mil cabezas de ganado; en 1984 la catástrofe de las plantas de almacenamiento y distribución de gas en San Juan Ixhuatepec, México, con más de 500 muertos y más de mil desaparecidos; la fuga de gas de Bhopal de 1986, en la India, que produjo en el momento del accidente cerca de diez mil muertos y más de veinte mil en los siguientes veinte años; la explosión de la central nuclear de Chernobyl en la ex-Unión Soviética en 1986, cuyas consecuencias aún no están bien identificadas; la explosión de la planta de la Pacific Engineering Production Company, en Nevada, en los Estados Unidos durante 1988, que provocó cien millones de dólares de gastos y un sismo artificial de 3.5 en la escala de Richter.

Ya en este siglo un accidente, cuyas repercusiones aún se desconocen realmente, es la explosión del pozo de la plataforma Deepwater Horizon de la compañía British Petroleum, en el golfo de México el 20 de abril de 2010 que provocó el mayor derrame de crudo en el mar hasta ahora. En consecuencia, gobiernos e instituciones internacionales se han visto en la necesidad de exigir medidas de regulación y seguridad, usando tecnologías modernas, para tratar de evitar daños a la sociedad y al medio ambiente.

Además de las grandes catástrofes, como las antes mencionadas, ocurren incidentes y accidentes menores de manera frecuente y cuyo costo global es muy alto. Sólo en la industria petroquímica norteamericana, durante 1995 se reportaron pérdidas de veinte mil millones de dólares. En una plataforma marina de extracción de petróleo, donde se registran en la computadora del orden de 500 variables analógicas y 2500 variables lógicas por periodo de muestreo, se sabe que en promedio ocurre un problema sencillo cada media hora y uno grave por semana. Estas averías provocan que, durante algunos minutos, más de cien variables puedan sobrepasar sus valores característicos de seguridad y, por tanto, se activen centenares de alarmas. La Organización Internacional del Trabajo, órgano de la Organización de las Naciones Unidas encargada de los problemas de trabajo, reporta que el 70% de los accidentes industriales son provocados por errores humanos.

Se puede considerar de manera general, que las fallas pueden ocurrir en los propios procesos o en el equipo complementario, como son sensores, actuadores, sistemas de protección, etc. Además, las causas son aleatorias y muy diversas incluyendo a los errores humanos. Ejemplos comunes de éstas son: equipo desgastado, operación fuera de las especificaciones del fabricante, eventos naturales considerados casos extremos más allá de lo esperado. Por otro lado, tomando en cuenta que los sistemas automáticos de control integran de manera sistemática información es comprensible que sea esta disciplina donde surge la inquietud de diseñar sistemas de supervisión.

Como consecuencia, tanto por razones económicas como sociales, es necesario mejorar y especificar nuevas características de diseño en los sistemas de control automático para disminuir accidentes y/o paros no previstos de los sistemas de servicios y procesos industriales. Así, los retos de la teoría de control se han ampliado para responder a dicha necesidad. Si bien, la tarea de un sistema automático de control es garantizar buen desempeño y eficiencia, medidos por la calidad y cantidad del producto, se le ha adicionado actualmente la tarea de mejorar la seguridad en el funcionamiento del proceso a lo largo de su vida útil. Cabe hacer notar que los sistemas automáticos modernos ayudan a prevenir condiciones anormales disminuyendo el riesgo, mas no lo excluyen.

Una opción para diagnosticar el estado de los sistemas y mejorar la seguridad es usar redundancia física, es decir duplicar o triplicar algunos sensores, actuadores o incluso algunas partes del proceso mismo, y a partir de la información y acciones de estos, discernir las condiciones reales de operación. Por ejemplo, se instalan dos bombas o dos válvulas en paralelo para que, en condiciones de mal funcionamiento, una de ellas pueda ser sustituida automáticamente por la otra. De la misma manera, se pueden instalar varios sensores para registrar una variable y tomar el promedio de las lecturas como valor medido, cuando se registran valores similares.

Por el contrario, en caso de que una de las lecturas esté alejada de las otras, se ignora en el cálculo del promedio, dado que existe duda de la operación normal de éste. Este tipo de operación, para determinar la presencia de elementos dañados, se conoce como sistema de voto. Obviamente esta solución es muy costosa y aumenta las dimensiones físicas del sistema, por lo que actualmente se prefiere reemplazar medidores y actuadores redundantes por algoritmos que permiten diagnosticar el estado de algunos componentes del sistema. Para distinguir este tipo de diagnóstico de la redundancia física se le denota redundancia analítica.

El objetivo de este artículo es introducir la idea de usar algoritmos básicos que evitan parte de la redundancia física y la sustituyan por la analítica, que se lleva a cabo vía la instrumentación usada para el control y automatización del proceso. Sin embargo, es importante mencionar que en algunas aplicaciones, la redundancia física sigue siendo una exigencia de seguridad formalmente legislada por acuerdos, incluso internacionales, en algunos casos. Las aplicaciones aeronáuticas son casos donde coexisten cinco o seis computadoras con fuentes de energía independientes para cada actuador y muchos sensores redundantes (Goupil, 2009; Muenchhof et al., 2009).

Recientemente se han publicado libros que difunden las diversas opciones de diseño de sistemas de diagnóstico con redundancia analítica (Gertler, 1998; Blanke et al., 2003; Korbicz et al., 2004; Isermann, 2006, Chen y Patton 1999). Por otro lado, es necesario cubrir en los planes de estudio de los ingenieros temas sobre diseño de sistemas de diagnóstico y seguridad de proceso. Esto motivo a Verde et al (2013) a escribir el primer libro de texto en español que presenta las bases de los sistemas de diagnóstico con redundancia analítica. Sin embargo es necesario generar material didáctico y formal adecuado para los diferentes niveles de las escuelas de ingeniería.

EVOLUCIÓN HISTÓRICA

El nacimiento de los sistemas de diagnóstico surge, de una manera empírica, en los años treinta, ante una demanda de la ingeniería de procesos en refinerías y petroquímicas. En ese entonces, era necesario contar con sistemas seguros apoyados en redundancia física y dispositivos específicos poco flexibles. Los registradores de papel y osciloscopios se usaban como elementos de monitoreo de las variables de mayor riesgo.

En el área de máquinas rotatorias era común, desde los años sesenta, realizar análisis espectrales en el intervalo de frecuencia de señales acústicas para diagnosticar flechas desviadas, alabes dañadas, por mencionar algunos problemas. Durante mucho tiempo este tipo de supervisión se llevaba a cabo con dispositivos analógicos de manera periódica y fuera de línea. En los años setenta, la implementación de algoritmos de control, usando una computadora para aplicaciones de ingeniería de procesos y aeroespaciales, hicieron posible incluir sistemas de protección simples implementados con algoritmos por software en los sistemas automatizados. Se podría decir que estos son los ancestros de los sistemas de monitoreo y supervisión actuales, a veces llamados smart por la mercadotécnia.

Las primeras contribuciones en los años setenta sobre métodos de detección basados en modelos tuvieron como aplicación principal la industria aeroespacial (Willsky y Jones, 1976). Los primeros libros de monitoreo y supervisión surgen de problemas de la industria química y nuclear (Himmelblau, 1978; Pau, 1981) y los procedimientos reportados estaban principalmente basados en análisis de datos históricos, filtrado de señales y métodos cualitativos integrados con experiencia de los operadores.

En los años ochenta, la madurez de la teoría del control, el empuje del área de inteligencia artificial, el desarrollo de la instrumentación y el bajo costo de los dispositivos digitales, impulsaron la búsqueda de técnicas de diagnóstico abriendo las opciones de los algoritmos que se podrían realizar y el tipo de aplicaciones, se incluyeron sistemas mecánicos, redes eléctricas de distribución la industria del transporte en sus diversas opciones, por mencionar algunas. En este contexto surgen diversos marcos de referencias para plantear y resolver de forma sistemática y metódica los sistemas de diagnóstico. En concordancia con (Venkatasubramanian et al., 2003a) se tienen tres grandes grupos de métodos según se basen en: datos históricos, modelos cualitativos o modelos cuantitativos de los procesos.

Apoyándose en herramientas de teoría estadística, de manera natural, grupos de investigadores y tecnólogos se dieron a la tarea de explotar la cantidad de datos históricos que se tenían de muchos procesos para generar métodos generales de diagnóstico basados en funciones de correlación entre variables y pruebas de hipótesis (Wold, 1978), en clasificación estadística de patrones (Schuermann, 1996), en redes neuronales (Venkatasubramanian, 1989), y sistemas expertos (Henley, 1984).

En paralelo con los métodos estadísticos ya mencionados se empezó a usar el filtro de Kalman y el máximo de verosimilitud generalizado para diagnóstico (Willsky y Jones, 1976). El marco general para la detección de cambios con señales se puede consultar en el libro de Basseville (1988) y en el tema desarrollado por la misma autora en la enciclopedia EOLSS de la UNESCO (Basseville, 2002).

Desde los años setenta el interés de la comunidad de control automático por los problemas de diagnóstico se manifestó aprovechando herramientas consolidadas basadas en modelos analíticos, como son el diseño de observadores y los métodos de identificación. La idea de reemplazar la redundancia física por la analítica fue propuesta por Beard (1971) en el Instituto Tecnológico de Massachusetts (MIT) lo cual llevó al diseño de filtros sensibles a ciertas fallas y que se conoce como BeardJones Fault Detection Filter, que posteriormente fue redefinido con el enfoque geométrico por Jones (1973) y Massoumnia (1986).

En este marco de referencia se propusieron tres herramientas básicas; la idea de usar un observador para generar señales representativas de las fallas de los instrumentos (Clark, 1978), el generar directamente relaciones redundantes a partir de las mediciones de un sistema (Chow y Willsky, 1984) y el buscar las desviaciones de estos en condiciones de falla, vía identificación de parámetros (Isermann, 1993). La primera reunión de la IFAC (International Federation of Automatic Control ) en 1991, sobre tópicos específicos de seguridad de procesos, evidenció la potencialidad de los métodos basados en modelos analíticos y dicha reunión sirvió de base para la creación del Comité Técnico de SafeProcess dentro de dicha organización.

El simposio organizado por este comité cada tres años ha incrementado su audiencia de manera permanente evidenciando el interés de la comunidad internacional por la problemática. Las memorias de dichos simposios son buenas fuentes de información de las principales contribuciones desarrolladas dentro de la comunidad de control. El desarrollo de las primeras contribuciones de los métodos basados en modelos analíticos está resumido en los libros de Patton et al. (1989) y en el excelente trabajo de recopilación de Frank (1990). Además, la comunidad logró establecer un vocabulario común (Isermann, 1997; Isermann y Ballé, 1997) que ha facilitado las discusiones. Otra muestra de la consolidación de la comunidad es el hecho de haber establecido problemas tipo para probar los algoritmos de diagnóstico.

Otra comunidad, muy activa en problemas de diagnóstico desde los años ochenta es la de inteligencia artificial que ha enriquecido las discusiones y las opciones de solución. Reiter (1987) propuso atacar el problema desde una perspectiva de razonamiento lógico y se calificó a los eventos de falla como sospechosos y candidatos. Esta idea fue extendida y formalizada por de Kleer y Williams (1987). Los métodos generados con esta idea se identifican con el nombre de DX model based diagnosis dentro de la sociedad de Prognostics and Health Management. Esta es una comunidad sólida que ataca los problemas usando modelos cualitativos y cuantitativos con aplicaciones relevantes en el sector de la salud, las telecomunicaciones y la electrónica.

Un aspecto relevante de los métodos desarrollados a la fecha para el diagnóstico y monitoreo de fallas es que estos requieren de manera directa o indirecta de información del proceso por supervisar en condiciones normales y de falla. Por tanto el ingeniero diseñador de los sistemas de diagnóstico requiere el entendimiento de los fenómenos físicos y químicos que ocurren en el proceso, tanto en condiciones normales como los que provocan las fallas y su propagación; sin el entendimiento del proceso, las posibilidades de diseñar un sistema de diagnóstico seguro y confiable son reducidas.

CONCLUSIÓN

Se puede decir entonces que los sistemas de diagnóstico deben tener varias cualidades como:

Confiabilidad. Antes de tomar acciones, resultado del diagnóstico, se debe verificar que las hipótesis base del método se satisfacen (linealidad, estacionaridad, fallas independientes). Las consecuencias de un sistema de control tolerante a fallas con reconfiguración para una falla ausente, podría traer consecuencias fatales. De la misma manera, si un operador humano se apoya en un sistema de diagnóstico para tomar decisiones en una instalación compleja, y bajo ciertas condiciones, el diagnóstico es incorrecto, el operador perderá la confianza en éste, así que tenderá a dejar de usarlo y confiar de manera prioritaria en su intuición, a pesar de que él también se puede equivocar. Lo deseable es que el sistema de diagnóstico, cuando interactúa y colabora con los operadores, explique el razonamiento y las deducciones que lo llevan a diagnosticar eventos. Existen muy pocos productos comerciales que ofrezcan sistemas con un cierto índice de fiabilidad a pesar de la demanda.

Sensibilidad. El orden de magnitud de las fallas que se pueden determinar afecta la rapidez del diagnóstico, y por tanto, la calidad del diagnóstico. Si las fallas son detectadas hasta que son de una magnitud considerable, se retrasa la detección provocando durante un mayor tiempo efectos colaterales en el proceso. La decisión, si los indicadores o los atributos son representativos de una falla o de las incertidumbres, es un dilema que requiere experiencia en diagnóstico y conocimiento del proceso. Un indicador puede ser sensible a varias fallas, con sensibilidades completamente diferentes, lo que hace difícil escoger el umbral de detección.

Robustez. Por otro lado, se sabe que los datos obtenidos con sensores están normalmente contaminados por ruido. Los modelos son generalmente imprecisos ya sea en el caso de modelos analíticos, de señales o de fallas. Entonces el sistema de diagnóstico necesita cierta robustez. Por tanto, establecer el compromiso entre sensibilidad, rapidez y robustez del sistema, requiere un análisis detallado en cada caso particular.

La posibilidad de localizar las fallas depende, evidentemente, de las mediciones disponibles. Con muy pocas mediciones no se puede aislar y reconstruir el evento provocado por una falla. El caso extremo es un sistema complejo, con muchas variables internas y en el cual se miden sólo la entrada y la salida del proceso. Bajo estas condiciones, cuando no haya coherencia entre ellas, solamente se podrá decir que algo anda mal en el proceso, pero es imposible saber en dónde está la falla. Cuando existen varios residuos con características similares ante fallas, estos están sobrerrepresentados, aumentando la complejidad de la tarea de aislamiento, sin mejorar notablemente el desempeño del diagnóstico.

Si se consideran combinaciones de fallas en un proceso se puede llegar a cubrir un infinito número de posibilidades, y si el sistema de diagnóstico depende de una modelación precisa de todas las fallas, el tiempo del diseño del diagnóstico también se incrementa, lo cual es inaceptable desde un punto de vista práctico.

Otro problema, no trivial y con pocas opciones de solución, es la posibilidad de localizar fallas múltiples. De hecho, puede ocurrir que una falla tenga como consecuencia que se presente otra. Bajo estas condiciones se pueden generar resultados falsos, reportando la presencia de una falla cuando en realidad son dos.

Generalmente, los sistemas de diagnóstico se diseñan tomando en cuenta un cierto número de hipótesis de fallas. Es muy difícil anticipar todas las fallas posibles de un sistema industrial. Es recomendable que el sistema de diagnóstico tenga capacidad para reconocimiento de una situación nueva y aprenda de dicha situación. Algunos algoritmos de clasificación tienen capacidades de aprender ante una nueva falla, pero son muy pocas las aplicaciones industriales existentes.

Tomando en cuenta que la vida de una instalación industrial y de un sistema de servicio es del orden de decenas de años, y que durante este tiempo se modifican las demandas y servicios y se reemplazan unidades, es necesario realizar adecuaciones parciales en las instalaciones. Aún en condiciones de sistemas sin modificaciones, es común cambiar sensores, o partes de procesos, con componentes más eficientes y confiables gracias a los avances tecnológicos de la instrumentación. Si cada vez que se lleva a cabo un cambio, se tuviera que sintonizar de nuevo el sistema de diagnóstico, sería necesario rehacer el modelo, reconstituir una base de datos, por mencionar algunas tareas, resultando poco práctico. Esto lleva a diseñar sistemas modulares para poder eliminar y alterar tareas, o integrar nuevas tareas en el sistema, a medida que los procesos se van modificando y expandiendo.

Otro aspecto que debe tomarse en cuenta al proyectar el sistema de diagnóstico es la capacidad de cómputo y de memoria requerida para su ejecución. Un método funcionando satisfactoriamente en una pequeña aplicación, puede ser ineficiente para un proceso complejo, debido a la combinación de las operaciones y manejo de variables. Un sistema que se puede programar fácilmente en una computadora moderna controlando un proceso industrial de gran tamaño, puede presentar problemas al considerar la implementación como parte de un sistema empotrado, donde todos los algoritmos están limitados por la capacidad de memoria y el tiempo de ejecución en tiempo real.

Se concluye entonces que: son muchas las especificaciones que éste debe cumplir, y no puede pretenderse que un solo método pueda satisfacer a todas. A nivel industrial se manejan varios métodos de manera cooperativa para tratar de cubrir el mayor número de casos. En los laboratorios de investigación, en la mayoría de los casos, se consideran de manera aislada los métodos y normalmente se estudian ejemplos con pocas variables. El sistema de diagnóstico para una aplicación, aun sencilla, en ocasiones requiere usar varios métodos complementarios trabajando de manera cooperativa para complementarse y tener un resultado final aceptable.

Por lo que respecta a trabajo futuro, falta mucho por desarrollar en el área de diagnóstico y una tarea prioritaria y de gran valor dentro de la seguridad de los procesos industriales es conceptualizar e implementar sistemas de diagnóstico infalibles.

Entre los temas que deben incluirse en los sistemas de diagnóstico destacan:

  • Modelos más complejos (no lineales, híbridos, señales no estacionarias, multicomponentes).
  • Integración de modelos, métodos, herramientas y/o tecnologías, con lo cual se lograría una cooperación y colaboración en el diagnóstico de procesos complejos con un diagnóstico global y con fusión de diagnósticos locales.
  • Diagnóstico activo (síntesis de entradas para facilitar el diagnóstico).
  • Interacción control y diagnóstico, tolerancia hacia fallas, reconfiguración.
  • Implantación de algoritmos empotrados, de tiempo real, distribuidos, sincronizados.
  • Interfaces hombre-máquina amigables a los operadores.
  • Normalización, extrapolación y filtraje de datos, estas tareas son de gran importancia en la práctica dado que se deben transformar los datos para tener órdenes de magnitud similares, filtrarlos y completar los faltantes.
  • Pronóstico, esta tarea incluye implementación de algoritmos de predicción a partir de los datos en tiempo real.
  • Detectabilidad y diagnosticabilidad, colocación estática o dinámica de sensores.
  • Generación automática de indicadores a partir del modelo.

REFERENCIAS

  1. Basseville, M. (1988). Detecting changes in signals and systems-a survey. Automatica  24, 309-326.
  2. Basseville, M. (2002). Statistical  methods for change detection. En: The Encyclopedia of Control Systemso Robotics and Automation  (H. Unbehauen, Ed.). Vol. 26. pp. 130-145. Encyclopedia of Life Support  Systems Publishers,  Oxford.
  3. Beard, R. V. (1971). Failure Accomodation in Linear Systems Through SelfReorganization. Tesis de doctorado. Massachusetts Institute  of Technology, Mas.
  4. Blanke, M., M. Kinnaert, J. Lunze y M. Staroswiecki (2006). Diagnosis and Fault Tolerant Control. 2nd. Ed. Springer. Berlin.
  5. Chen, J. y R. J. Patton (1999). Robust Model-Based Fault Diagnosis for Dynamic Systems. Kluwer Academic Publishers. Boston, USA.
  6. Chow, E. y A. Willsky (1984). Analytical redundancy and the design of robust failure detection systems. IEEE-Trans Automatic Control 29,  603-614.
  7. Clark, R. N. (1978). Instrument fault detection. IEEE Trans. on Aerospace and Elec Sys AES-14(3), 456-465.
  8. de Kleer, J. y B. Williams (1987). Diagnosing multiple faults. Artificial intelligence 32, 97-130.
  9. Frank, P. (1990). Fault diagnosis in dynamic systems using analytical and knowledge-based redundancy. Automatica 26(2), 459-474.
  10. Gertler, J. (1998). Fault Detection and diagnosis in engineering systems. Marker-Dekker. Inc. New York, USA.
  11. Goupil, P. (2009). AIRBUS state of the art and practices on fdi and ftc. En: IFAC In- ternational Symposium on Fault Detection, Supervision and Safety of Technical Processes, Barcelona.
  12. Henley, E. J. (1984). Application of expert systems to fault diagnosis. En: AIChE Annual  Meeting, San Francisco, California.
  13. Himmelblau, D. M. (1978). Fault Detection and Diagnosis in Chemical and Petrochemical Pro-cesses. Elsevier. Chemical Eng. Monograph 8.
  14. Isermann, R. (1993). Fault diagnosis of machines via parameter estimation and knowledge processing. Automatica 29, 815-835.
  15. Isermann, R. (1997). Supervision, fault-detection and fault-diagnosis methods: an introduction. Control Eng  Practice  5(5),  639-652.
  16. Isermann, R. (2006). Fault Diagnosis System. Springer.
  17. Isermann, R. y P. Ballé (1997). Trends in the application  of model-based  fault detection and diagnosis of technical  processes. Control Engineering  Practice  5, 709-719.
  18. Jones, H. L. (1973). Failure Detection in Linear Systems. Tesis de doctorado. Massachusetts Intitute of Technology. Cambridge, MA.
  19. Korbicz, J., J. Koscielny, Z. Kowalczuk y W. Cholewa (2004). Fault diagnosis: Models, Artificial Intelligences, Applications. Springer-Verlag.
  20. Massoumnia, M. (1986). A geometric approach to the synthesis of failure detection filters. IEEE Trans on Autom  Control AC-31(9),  839-846.
  21. Muenchhof, M., M. Beck y R. Isermann (2009). Fault tolerant actuators and drives-structures, fault detection principles and applications. En: Ifac International Symposium on Fault Detection, Supervision and safety of Technical Processes.
  22. Pau, L. F. (1981). Failure Diagnosis and Performance Monitoring. Control and System Theory Series, Vol 11 Marcel Dekker, Inc, New York.
  23. Patton, R. J., P. M. Frank y R. N. Clark (1989). Fault diagnosis in dynamic systems: Theory and applications. Prentice Hall. (eds).
  24. Reiter, T. (1987). A theory of diagnosis from First principles. Artificial Intelligence 32, 57_95.
  25. Schuermann, J. (1996). Pattern Classification: A Unified View of Statistical and Neural Approaches. ISBN 0-471-13534-8. Wiley.
  26. Venkatasubramanian, V. (1989). A neural network methodology for process fault diagnosis. American Institute of Chemical Engineers Journal 35(12), 1993-2002.
  27. Venkatasubramanian, V., R. Rengaswamyd, R. Yin y S. Kavuri (2003a). A review of process fault detection and diagnosis; part i: Quantitative model based methods; part ii: Qualitative model and search strategies; part iii: Process history based methods. Computers and Chemical Engineering 27, 293-346.
  28. Verde, C, Gentil S. y Morales-Menéndez R. (2013). Monitoreo y Diagnóstico Automático de Fallas en Sistemas Dinámicos. Trillas –II-UNAM
  29. Wold, H., Cross validation estimation of the number of components in factor and principal components models. Technometrics 20 (4): 397-405, 1978.
  30. Willsky, A. S. y H. L. Jones (1976). A generalized likelihood ratio approach to the detection and estimation  of jumps in linear systems. IEEE Trans Automatic  Control 21, 108-121.
0
Compartir:

Dejar un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.