You are on page 1of 181
CENTRO DE INVESTIGACION Y DE ESTUDIOS AVANZADOS DEL INSTITUTO POLITECNICO NACIONAL DEPARTAMENTO DE CONTROL AUTOMATICO Modelacion y Optimizacion del Mezclado de Petrdleo Crudo con Redes Neuronales TESIS QUE PRESENTA EL: Ing. Rubio Avila José de Jesus PARA OBTENER EL GRADO DE MAESTRO EN CIENCIAS EN LA ESPECIALIDAD DE CONTROL AUTOMATICO DIRECTORES DE TESIS: Dr. Wen Yu Liu Dra. América Morales Diaz México, D.F. Febrero de! 2004. AGRADECIMIENTOS ALCONACYT por haberme otorgado una beca econémica para la realizacién de este documento. Al Departamento de Control Automético del Centro de Investigacién y de Estudios Avanzados del Instituto Politécnico Nacional: muy en especial al Departamento de Control Automatico por darme la oportunidad de pertenecer al programa de Maestria en Ciencias y por albergame en estos liltimos afios, en los cuales se me ha preparado para ser un profesional comprometido con el desarrollo de México. A los profesores por su indeleble labor dentro y fuera de las aulas y a mis condiscipulos con quienes comparti momentos agtadables de estudio, de trabajo, de esparcimiento, pero realmente por un compaiterismo desinteresado, A mi asesor Wen Yu Liu por su confianza, por su comprensién, por su apoyo y por brindarme su asesoramiento y direccién para organizar y mejorar el presente trabajo, sin usted no habria podido desarrollar el presente trabajo ya que me guié desde el principio hasta el final, para adquirir y entender mejor los conceptos. A mi asesora del Instituto Mexicano del Petréleo América Morales Diaz por sus consejos y apoyo ‘moral durante el desarrollo de este trabajo, A los compafieros tanto contratados como bec: Petréleo por brindarme su amistad desinteresada, A mis ex profesores Moisés Bonilla Estrada, Alexander 8. Pozniak Gorbatch, Rubén Alejandro Garrido Moctezuma y Ieroham Salomén Batouh por los conocimientos brindados los cuales fueros fundamentales para no partir de ceto en el desarrollo de éste documento. ‘A mis padres Ignacio Rubio Morales y Rosalia Avila Palomo, para quienes sus hijos son la esencia de su vida, su dicha. Quienes consideran que su esfuerzo y sacrificio no ha sido infructuoso. A ustedes que ademas de privarse de muchas cosas para otorgarlas a nosotros nos hhan proporcionado algo més importante: su amor, su ternura, su comprensidn, e inolvidables momentos de felicidad, nos han hecho sentir sus deseos de superacién, su firmeza, su humildad, pero sobre todo a sentimos comprometidos con nosotros mismos y con mis objetivos. A quienes la ilusién de su existencia ha sido vernos convertidos en personas de provecho, para ellos nuestros logros, tengo la fortuna de ser su hijo. A mis hermanos Angel y Alma Sonia con quienes he tenido la dicha de compartir mi vida, los momentos mas agradables y los més dificiles, a ustedes que han soportado a veces mi conducta hostil, a ustedes que me han apoyado, por su confianza, por su ejemplo. A mis amigos Andrés, José y Agustin por nuestra enorme amistad, sincera, leal y desinteresada, por la aventura de habemos conocido, por que siempre han estado para apoyarme en los ‘momentos mis dificiles de mi existencia A todos mis familiares. A las personas mencionadas Gracias. jos del Departamento en el Instituto Mexicano del Indice general 1, Introduccién 1.1. Motivacién del tema de tesis 1.2. Objetivo de la tesis 1.3. Contenido de la tesis 2, Redes neuronales y optimizacién 2.1, Introduceién 2.2, Redes neuronales . 2.2.1, Modelos de las redes neuronales 2.2.2, Redes neuronales en identi ne. 2.2.3. Algoritmo de propagacién hacia atras (Backpropagation) 3. ‘Técnicas de optimizacion 2.3.1. Problemas de programacién 2.3.2. Optimizacién sin restricciones (Definiciones y teoremas) 2.3.3. Optimizaci6n con restrieciones de igualdad . . 2.3.4. Optimizacién con restricciones de desigualdad . 3, Modelos matemiticos del proceso de mezclado de petréleo crudo 3.1, Introduecién 3.2. Modelos de las propiedades estiticas de mezclado 3.2.1, Relacién de propiedad para sistemas de composicién variable awe ~ u u u 12 16 16 19 19 21 22 QT 33 34 34 0 Modelacién del mezclado de petréleo crudo via redes neuronales y datos INDICE GENERAL 3.2.2. Propiedades molares parciales 3.2.3. Soluciones ideales 3.2.4. Cambio de las propiedades de una mezcla (actividad) . ‘Modelos de las propiedades dinémicas de mezclado 3.3.1, Modelo 1. En funcién de la altura en el tanque 3.3.2. Modelo 2. En funcién de la densidad y del volumen en el tanque Modelos del mezclado de petréleo crudo 34.1, Regla de mezclado para petréleo crudo 3.4.2, Proceso de mezclado que inch 3.4.3. Modelo distribuido diferentes tipos de nodos 3.4.4. Modelo agregado reales 4.3, 44, 4.5. 4.6. 47. Introduccién Least square (LS) para identificar los parémetros del mezelado de petrdleo erudo... Redes neuronales para identificar los pardmetros del mezclado de petréleo crudo Obtencién de los datos desde una base de datos reales Modelacién del modelo distribuido 4.5.1, Identificacién de parametros via least square . 4.5.2. Tdentificacién vfa redes neuronales para el modelo completo . 4.5.3, Identificacin vfa redes neuronales para la parte no lineal Modelacién del modelo agregado 4.6.1, Identificacién de parametros via least square . 4.6.2, Identificaci6n via redes neuronales para el modelo completo . . « 4.6.3, Tdentificacion via redes neuronales para la parte no lineal Conclusion 35 36 37 40 90 92 96 100 INDICE GENERAL Mm Optimizacién de petréleo crudo vfa redes neuronales y actualizacién de datos (bias updating) 103 5.1, Introduecin 103 5.2. Optimizacién del mezclado de petroleo crudo con redes neuronales y un es- quema de actualizacién (bias updating) 104 5.2.1. Optimizacién del mezclado petréleo erudo con un esquema de actual- icin... eee eee 104 5.2.2, Optimizacién fuera de linea del mezclado de petréleo crudo con redes neuronales bce eee eee 107 5.3. Andlisis de robustez del controlador con redes neuronales para mezclado 10 5.3.1. Andlisis de robustez del controlador . ee 5.3.2, Andlisis de robustez del controlador optimizante con redes neuronales 119 5.4, Simulacién de la optimizacién fuera de linea del mezclado de crudo con redes neuronales 120 5.4.1. Obtencién de los datos y algoritmo empleado 120 5.4.2, Optimizacién del modelo distribuido 123 5.4.3. Optimizacién del modelo agregado . bee eee ee eee. 182 5B. Comelusiom ees 189 Conclusiones 141 Simulacién con GUI 145 A.1. Estructura del GUI 145 A.11, Entrada . ne a oa oa ne a . 145 A.1.2. Salida 147 A.1.3. Simulador de las redes neuronales y del controlador optimizante . . . 147 . Método Simplex 151 B.1. Forma esténdar de un problema de programaci6n lineal... 0... 2. 151 B.2. Algoritmo simplex 154 Vv C. Modelos matematicos del proceso de mezclado de gasolina B.3. Identificando un punto éptimo B.3.1. Mejorando una, solucién factible basica no éptima B.4, Las dos fases del método simplex C.1. Niimero de octanos C.1.1. Método ideal del miimero de octanos mezclados C.1.2. Método Ethil RT-70 C13. C14. C.1.5. Método en exceso C.1.6. Método Zahed C.2. Presién de Vapor Reid C.2.1. Método de Iteracion C.2.2. Método de mezcla indexada C.3. Destilacién ASTM ©.3.1. Método de Iteracion ©.3.2. Modelos empfricos INDICE GENERAL 155 157, 161 161 162 162 163 164 166 167 168 168 169 169 169 170 Indice de figuras 1 1.2 13. 21 2.2, 3.1 3.2, 3.3, 34, 3.5, 3.6, 41 4.2, 4.3, 4.4. 45, 46, Controlador optimizante comercial para el mezclado de petréleo crudo Controlador optimizante con redes neuronales para el mezclado de petrdleo erudo... Diagrama a bloques de los tépicos del documento. . « Modelo no-lineal de una neurona Perceptrén multicapa Propiedades dindmicas del flujo en el tanque Altura y su derivada en el tanque Densidad y Volumen en el buque tanque ‘Mezcla homogénea de m componentes Stapa de mezclado de la industria petrolera nacional Representacién distribuida del proceso de mezclado Representacién agregada de la etapa de mezelado Modelos de identificacién del mezclado de petréleo crudo . Comunicacién Execl-Matlab Densidad a la salida del mezelador 1 Densidad de salida del modelo agregado Least square para cl mezclador 1 Least square para el mezclador 2 6 13 15 40 VI 47. 48, 49, 4.10. 411 4.12. 4.13. 4.14. 4.15. 4.16. BL 5.2, 5.3, 5.6, 5, Al AD INDICE DE FIGURAS Least square para el mezclador 3 Red neuronal para el modelo completo del mezelador 1 Red neuronal para el modelo completo del mezclador 2 Red neuronal para el modelo completo del mezclador 3 Red neuronal para la no linealidad del mezelador 1 Red neuronal para la no linealidad del mezclador 2 Red neuronal para la no linealidad del mezclador 3 Least square para el modelo agregado Red neuronal para el modelo completo del modelo agregado Red neuronal para la no linealidad del modelo agregado Diagrama de la optimizacién fuera de linea del mezelado de crudo con nn . . Optimizacion para el modelo completo del Mezelador 1 Optimizacién para el modelo completo del Mezelador 2 Optimizacion para el modelo completo del Mezelador 3 Optimizacion para la no linealidad del Mezelador 1 Optimizacion para la no linealidad del Mezelador 2 Optimizacion para la no linealidad del Mezelador 3 Optimizacion para el modelo completo del Modelo Agregado . Optimizacién para la no linealidad del Modelo Agregado GUI en la opcién de la red neuronal para la no lincalidad del mezelador 2 GUI en la opcién del controlador optimizante para el modelo completo del modelo agregado 76 80 81 83 86 87 89 91 95 98 108 125 126 128 130 131 133 135 137 49 Capitulo 1 Introduccién Las operaciones de mezclado son muy comunes en las industrias petroquimicas, ce menteras, de refinacién, ete. La operacién consiste en obtener una mezcla de dos 0 més componentes con diferentes propiedades a una especificacin requerida como son temperatu- ra, densidad, flujo, ete. El control de estas operaciones se considera un punto muy importante dentro de este tipo de industrias, ya que su rentabilidad depende de estas operaciones. Por ejemplo, en la industria petrolera nacional se ha visto que realizar de manera constante las operaciones de mezclado de petrdleo crudo con téenicas de control avanzadas podria garan- tizar condiciones favorables y reportar beneficios econémicos muy importantes, como en el caso del crudo ligero de exportacién [1 Es muy comtin que las propiedades de los componentes a mevelar varfen de una manera indeterminada y que las reglas de mezclado utilizadas ¢ sin mod- ntengan términos no lineales clar, llevando a un modelo inadecuado del proceso y como consecuencia que el controlador no encuentre el punto de operacién éptimo. Para garantizar las especificaciones requeridas en una operacién de mezclado y manejar incertidumbres en el modelo se ha propuesto utilizar un controlador retroalimentado lamado controlador optimizante [1 2 Introduccién 1.1. Motivacién del tema de tesis El mezelado de petréleo crudo es una operacién de optimizacién basada en una gran can- tidad de conocimiento y experiencia. Las propiedades de crudo éptimas son proporcionadas por los modelos de refinerfa que definen el empleo dptimo de las unidades de torrente para varios tipos de crudo. Se han desarrollado muchos controladores optimizantes de petréleo crudo basados sobre Ja técnica de programacién lineal [4]. En general, la regla de mezelado es no lineal, un méto- do alternativo es adicionar un término de correccién (incertidumbre) a la regla de mezelado lineal. Un esquema de actualizacién (bias updating) es una herramienta que resuelve el prob- Jema de la optimizacién en tiempo real, la principal desventaja del esquema de aetualizacion es que requiere de la obtencién de las propiedades de mezclado a través de la medicién de Jos datos en Itnea, pero, algunas veces se necesita la optimizacién fuera de Iinea, por ejem- plo cuando se espera encontrar la fraccion de flujo 6ptima a la entrada basada sobre datos hist6ricos, el control fuera de Iinea es ritil para supervision y control Se han desarrollado una gran cantidad de algoritmos numéricos para resolver el problema de optimizacién usando la computadora, tales como el Toolbox de Optimizacién de Matlab, la principal desventaja de éstos algoritmos es que generalmente convergen lentamente. Un método alternativo es emplear un circuito eléctrieo dedicado el cual simule la funcién objetivo y las restricciones Se han propuesto recientemente muchas técnicas de control avanzado para mejorar las propiedades de mezclado de petrdleo crudo, todos éstos modelos requieren de un buen mod- elo de la operacién de mezclado, pero es muy complejo manejar analiticamente el modelo matemitico exacto del mezclado de petréleo crudo y por lo tanto se hicieron muchos inten- tos para introdueir un modelo simplificado, Un método comrin de aproximar la operacién de ‘mezclado es usar un modelo lineal (ideal) el cual tiene una pequeia incertidumbre ya que en la préctica la mayoria de los modelos de mezclado ideales son no lineales. Para los ingenieros es muy importante un modelo real para el mezclado de petréleo erudo basado sobre los datos de operacién. Resultados recientes muestran que la técnica de redes 1.1 Motivacién del tema de tesis 3 neuronales es muy efectiva para modelar gran cantidad de sistemas no lineales cuando no se tiene informacién completa del modelo, pero, debido a la carencia de un modelo matemético de la planta se tiene la necesidad de probar la estabilidad del aprendizaje del modelo neuro, por esta raz6n es muy importante tener un resultado tedrico que asegure de la estabilidad del modelo neuro. Foxboro propone un controlador optimizante comercial con un control PID para el mez- clado de petréleo crudo, (ver Figura 1.1) [4] Hay varios problemas para el esquema de control propuesto en la Figura 1.1 entre los cuales destacan los siguientes: 1. Para producir los puntos de operacién emplea el algoritmo de programacién lineal el cual considera datos lineales, pero el modelo real tiene una no linealidad de los datos que varia entre el 10% y el 20%. 2. El controlador optimizante de Foxboro tiene una tinica etapa de mezclado, éste tiene que considerar los tres procesos de mezclado en serie de la Figura 1.1 como un solo mezclador. 3. El algoritmo del controlador optimizante de Foxboro es un analizador NMR (de reso- nancia magnética nuclear) el cual no es flexible y por lo tanto no se puede modificar. En este proyecto se propone un nuevo esquema de control mostrado en la Figura 1.2. El controlador optimizante empleado esta compuesto por un conjunto de subsistemas, como se muestra en la Figura 1.2 y su forma de operar se describe en los siguientes pasos: 1. Datos. En este paso el controlador toma lecturas de los datos en un intervalo de tiempo para actualizar el modelo que lo representa, Es muy comrin que los datos se analizen, para evitar la presencia de datos erréneos. 2. Modelo. Se pueden emplear el modelo Least Square o el modelo de Redes Neuronales para una estimacién del comportamiento del proceso, con esto se evita el usar un modelo matemético ya que el modelo matematico puede introducir mas errores que el emplear uno de los modelo citados [6](8] 4 Introduccion 3. Actualizacién del modelo. Los datos obtenidos se utilizan para actualizar los parémet- ros en el modelo del proceso. Se utilizan téenicas de estimacién para los parémetros que no estén disponibles, las téenicas son Least Square o Redes Neuronales. 4, Optimizacion, Una vex actualizado el modelo del proceso. Si se requiere, se utilizan téenicas de estimacién para obtener las nuevas referencias que utilizarén los contro- ladores. Los principales algoritmos de optimizacién utilizados son los algoritmos de programacién lineal (LP) y no lineal (NLP) {11][20). En algunas ocasiones, los resulta- dos de la optimizacién son examinados antes de enviarlos a los controladores para una. operacion dptima del proceso. 5. Control. Los resultados de la optimizacién son utilizados por los controladores para aplicarlos al proceso. Los controladores pueden ser lineales, PI, PID 0 incluso téenicas avanzadas como el control predictivo [19]. 1.2. Objetivo de la tesis El objetivo de esta tesis es mostrar que cl proceso de mezclado de petréleo crudo de la industria petrolera nacional se pueden mejorar levando a cabo el siguiente desarrollo: 1. Realizando un andlisis de los modelos distribuido y agregado del proceso de mezclado de petrdleo crudo. 2. Realizando la identificacién via redes neuronales para los modelos distribuido y agre- gado del proceso de mezelado de petrdleo crudo. 3. Aplicando un controlador optimizante con redes neuronales al proceso de mezclado de petrdleo crude. Con los puntos anteriores se pretende encontrar una combinacién adecuada de la materia prima a utilizar tal que se produzea la mezcla de interés a un costo mfnimo y al mismo 1.2 Objetivo de la tesis ‘Austes (punto de operacién de la fraccién de fujo de entrada) mami — PesPy | Pope PnPePs <_< Mezclado digital ‘Optimizacion de mezclado (orogramacion lineal} Puntos de operacion ~ — 4. b>) Mezclador Mezclador Mezclacor 22° 4) decudo 1 de crudo 2 ay) do crus 3 vee Pi 1 1 1 l 1 l Aer Figura 1.1: Controlador optimizante comercial para el mezclado de petréleo erudo 6 Introduc ‘Alvses (punlo de operacion de le (accién de vo de entrada), predicclon ut 1 Modelacin via minimos evadredos 0 2. Optimizacién fuera de linea con redes newronales 3, Protein and ands de resultados = 1. > one Malader WMazclador Wazcacor | 2% de cso 4 4:,) de cvso 2 deere 3 v0 XD 1 1 1 L L L >| datos istics Figura 1.2: Controlador optimizante con redes neuronales para el mezelado de petréleo crudo _ 1.3 Contenido de la tesis tiempo, que cumpla con las condiciones de calidad requeridas, junto con las restrieciones fisieas del proceso, 1.3. Contenido de la tesis an este capitulo se presenta en que consisten las operaciones de mezclado y su impor- tancia dentro de las industrias. Se describe la estructura y la forma tipica de operar de los controladores que comtinmente se utilizan para el control de las operaciones de mezclado. = El capitulo 2 presenta un panorama general de las redes neuronales como la descripeién de los modelos mas comtines de las redes neuronales, las redes neuronales en identifi. cacién y cl algoritmo de Backpropagation que es cl algoritmo mayormente empleado en. identificacion y también es el més simple [8}[9). Posteriormente se presenta un panora- ma de la optimizacién en donde lo mas importante son la optimizacién con restrieciones de igualdad donde se describe la solucién por el método de multiplicadores de Lagrange y la optimizacin con restricciones de desigualdad donde se describen las condiciones de Kuhn-Tucker (20). = En el capftulo 3 se presentan los modelos de la propiedades estaticas del mezclado de petréleo crudo [18]. Mas adelante se presentan dos modelos para el tanque, el modelo dependiente de la altura y el modelo dependiente de la densidad y del volumen en el tanque [1][25]. Posteriormente se analizan los procesos de mezclado que contienen més de un nodo de mezclado, para los cuales se utilizan el modelo distribuido y el modelo agregado [1]. En el modelo distribuido, el modelo de mez clado se representa por puntos de mezclado independientes con un controlador para cada uno, teniendo solo informacién local del proceso. En el modelo agregado, el proceso de mezclado se representa como un solo punto de mezclado utilizando solo un controlador el cual tiene informacién global del proceso. Al final se presenta como se modelan cada uno de sstos modelos los cuales representan en el proceso de mezclado. 8 Introduceién = En el capitulo 4 se presenta como se obtienen los datos reales que se tienen una base de datos reales en un programa de Excel, se establece la comunicacién para extraer los datos de Excel con una sentencia de Matlab (22), posteriormente estos datos se emplean para desarrollar la estimacién del comportamiento del proceso de mezclado para el modelo agregado y para el modelo distribuido, via Least Square, via Redes neuronales y se presentan los resultados para cada uno de los casos, por tiltimo se presenta una tabla comparativa que muestra los resultados para cada caso. = En el capitulo 5 se presenta como se aplica el controlador optimizante con redes neu- ronales al proceso de mezclado, para ello en primer lugar se demuestra la robustez del controlador optimizante [12], después se demuestra la robustez, del controlador opti- mizante con redes neuronales [26], posteriormente se realiza una comparacién entre el controlador optimizante que opera fuera de linea al cual se le introducen datos reales y el controlador optimizante con redes neuronales que opera fuera de linea, por iiltimo se presenta una tabla comparativa que muestra los resultados para cada caso. = En cl capitulo 6 se presentan las conclusiones finales. En la Figura 1.3 se muestra un diagrama a bloques de la relaci6n entre los t6picos de este documento. 1.3 Contenido de la tesis Fignra 1.3: Diagrama a bloques de los t6picos del documento 10 Introduccién Capitulo 2 Redes neuronales y optimizacién 2.1. Introduccién te capftulo presenta un panorama general de las redes neuronales como la deseripeién de los modelos mas comtines de las redes neuronales, las redes neuronales en identificacién y el algoritmo de Backpropagation que es el algoritmo mayormente empleado en identificacién y también es el més simple [8][9]. Posteriormente se presenta un panorama de la optimizacién en donde lo més importante son la optimizacin con restricciones de igualdad donde se describe la solucién por el método de multiplicadores de Lagrange y la optimizacién con restrieciones de di sigualdad donde se describen las condiciones de Kuhn-Tucker [20] 2.2. Redes neuronales Un sistema de control tiene la habilidad de aprender si adquiere la informacion durante la operacién, acerca de comportamientos desconocidos de la planta y su ambiente tal que se mejora la ejecucién completa. Con este requerimiento del controlador, es posible expandir Ja regién de operacién y finalmente la implementacién de sistemas auténomos. Una clase de modelos que tiene la potencialidad de implementar este aprendizaje son las redes neuronales artificiales. Ciertamente, la morfologia neuronal del sistema nervioso es mucho més compleja, 12 Redes neuronales y optimizacin no obstante, se puede desarrollar una analogia simplificada, la cual se podrfa utilizar en aplicaciones de ingenierfa. Baséndose en esta analogfa, se pueden desarrollar las estructuras de las redes neuronales artificiales [8] 2.2.1. Modelos de las redes neuronale: Una red neuronal artificial (RNA) es un elemento capaz de procesar gran cantidad de informacién de forma, paralela y distribuida, inspirada de las redes neuronales biolégicas, las cuales pueden almacenar conocimiento y tenerlo disponible para su uso [13]. Esta tiene algunas similaridades con el cerebro, como lo son: = El conocimiento es adquirido a través del proceso de aprendizaje. = La conectividad entre neuronas es llamada pesos sinépticos y son utilizados para al- macenar el conocimiento. La funcién del pro: ceso de aprendizaje es modificar los pes s de las redes neue os opti ronales con cl objetivo de minimizar una funcién de costo. La modificacién de los pesos sin6pticos es el método tradicional para cl discfio ¢ implementacién de las redes ncuronales. La neurona, es la unidad fundamental para la operaci6n de la red neuronal. La Figura 2.1 muestra el esquema de una red neuronal, el cual esta compuesto por: 1. Unconjunto de uniones sinépticas, con cada elemento caracterizado por su propio peso 2. Un sumador el cual suma los componentes de la sefial de entrada, multiplicados por su respectivo peso sindptico. 3. Una funcién de activacién no-lineal que transforma la salida del sumador en la entrada de la neurona siguiente . Al esquema de la red neuronal también se aplica un umbral para reducir la entrada a la funcién de activacién. En términos matematicos, la i-¢sima neurona se puede deseribir como: w= eyes 2.2 Redes neuronales 13 wir 1 ™ Setaies x2 we we snépticos Figura 2.1: Modelo no-lineal de una neurona. vi = Olu pi) (24) 1 j-ésimo componente de la entrada. wij peso de la conexién entre la j-6sima componente de la entrada y la iésima neurona, uj salida del sumador. p umbral, o(-) funcién de activaci6n no lineal. yy salida de la i6sima neurona. La funei6n de activacién no-lineal denotada por g(-), recibe como entrada x y genera el elemento de la salida y; como se describe en la siguiente ecuacién: g (xi) (2.2) Una clasificacién de este tipo de funcién es: 1. Diferenciable y no diferenciable. rey Redes neuronales y optimizacin 2. Tipo pulso y tipo escaldn. 3. Positiva y de promedio cero. La clasificacién 1 se distingue por tener funciones suaves y discontimuas. Las fnciones suaves son necesarias para algunos algoritmos de adaptacién como el de propagacién hacia atrés, mientras que las funciones discontinuas (por ejemplo las funciones de umbral) se emplean para generar una salida binaria, La clasificacién 2 se distingue por tener funciones, las cuales solo tienen un valor signi- ficativo de la salida cuando las entradas estin cerca del cero, dado que las funciones solo cambian significativamente alrededor del cero. La clasificacién 3 se refiere a las funciones tipo escalén. Las funciones positivas que cambian de 0 en -90 a 1 en oo. Las funciones de promedio cero cambian de -1 en -oc a en oo. La forma como se interconectan las neuronas de una red neuronal determina su estructura. Para propésitos de identificacién y control, las estructuras més usadas son: 1. Redes con conexién hacia adelante de una capa. 2. Redes con conexién hacia adelante multicapa. 3. Redes de funciones radiales basicas. Las redes neuronales anteriores se les conoce como redes neuronales con conexién hacia adelante 0 redes neuronales estéticas. Redes neuronales con conexién hacia adelante multicapa Estas se distinguen por la presencia de una 0 més eapas ocultas, (ver Figura 2.2), cuyos nodos computacionales se llaman neuronas ocultas. T{picamente, las neuronas en cada capa tienen como sefiales de entrada, las seiiales de salida de la capa precedente. Si cada neurona en cada capa es conectada con todas las neuronas de las capas adyacentes, entonces la 2.2 Redes neuronales 15 Figura 2.2: Perceptrén multicapa. red neuronal es llamada totalmente coneetada, en el caso opuesto es llamada parcialmente conectada (8][9] El perceptron multicapa tiene las siguientes caracterfsticas: 1. La funcién de activacién para cada neurona es suave a diferencia a la de limites extremos usada en el perceptrén de una sola capa. Comtinmente, la funcién no-lineal empleada es el sigmoide, definida como: (ver Figura 2.2) 1 ae) = oe 2, La red esta compuesta por una o mas capas de neuronas ocultas. 3, La red presenta un alto grado de conectividad, El perceptrén multicapa obtiene su poder computacional a través de la combinacién de estas caracteristicas y su habilidad de aprender de Ia experiencia. Sin embargo, la presencia de no-linealidades distribuidas y la alta conectividad de la red complican el andlisis tedrico. 16 Redes neuronales y optimizacin 2.2.2. Redes neuronales en identificacién Las redes neuronales tienen el potencial de ser aplicadas para modelar sistemas no- si el sistema es identificable, i.e., si la red neuronal lineales. Una pregunta importante puede modelar el comportamiento del sistema sin ser necesario dar un modelo estructura- do particular. La identificabilidad en redes neuronales est relacionada a la unicidad de los pesos y si dos redes con diferentes parémetros pueden producir un comportamiento idéntico entrada/salida (13). Para representar los sistemas no-lineal .on redes neuronales, una aproximacién correcta ¢s incrementar las entradas de las redes con sefiales correspondientes a sus entradas y salidas. Asumiendo que el sistema no-lineal esta descrito por: yk +1) = glylk).y(b + 1),.--.y(k = m)su(k),u(h + 1),...,ulk—m)} (2.8) yweRmen Este modelo no considera las perturbaciones directamente. Una aproximacin obvia del método del sistema es seleccionar la estructura de entra- da/salida de la red neuronal para que sea la misma que tiene el sistema. 2.2.3. Algoritmo de propagacién hacia atrés (Backpropagation) El algoritmo de aprendizaje usado para ajustar los pesos sinépticos del pereeptrén mul- ticapa estatico es conocido como backpropagation. El algoritmo prove un método eficiente para cl entrenamiento del perceptron multi-capa [8][9 Elerror en la salida de Ja ma neurona de la capa de salida, esta dado por: e,(k) = dj(k) — ys() (24) donde: d, es la salida deseada. y; es la neurona de salida. k indica la ke 2.2 Redes neuronales 17 La suma instanténea del cuadrado de los errores de salida esta dado por: ie (8) = 7 GH) (25) donde | es el ntimero de neuronas de la capa de salida. El error medio cuadratico se obtiene al sumar (k) para todas las mnestras (en uma iteracién) y normalizar con respecto al tamafio de la iteracién. N a= = elk) (2.6) faa con N como el ntimero de muestras, que forman cada iteracién. Usando el algoritmo del gradiente descendente, los pesos de las conexiones entre iésima neurona y la j-ésima neurona se actualiza como: ) (27) Awin(k) =wy(k-+1) ay ih) = La correccién que realiza Awj,(k) es conocida como la regla delta, donde el término 4h se puede calcular como: de(k) Bes(k) By, ® i(k) — == 2.8) uwys(k) — Gej(K) Oys(k) Ov5(k) urjs(k) e8) Las derivadas parciales estn dadas por: est me = 1 con g,(vj(h)) = Gea (2.9) duj(h) =ulk) Bw(h) ) Asi, la regla delta puede ser reeserita como: Awyi(k) = 0d5(R)yi(k) (2.10) 18 Redes neuronales y optimizacién donde el gradiente local 5;(k) se define de la siguiente manera: (k) = Bej{k) Oys(k) PE By sk) Bvj() ilh)oslus(k)) (2.11) Para el gradiente local 5;(k) se distinguen dos casos: la j-ésima neurona esta en la capa de salida 0 se encuentra en una capa oculta. Casol: Sila j-ésima nenrona esta localizada en la capa de salida es correeto calcular 6;(k) como se define en la ecuacién (2.11) Caso 2: Si la j-ésima neurona est localizada en la capa oculta, no hay una respuesta deseada para esta nenrona. Asf, la seiial del error se tiene que propagar desde la salida hacia la neurona de la capa oculta donde se requiera el valor del gradiente local 6,(k). En este caso ¢s posible establecer la siguiente ecuacién: - ae Ou;(k) 58) Sa Kanab) (12) donde n indica la conexién de la n-ésima a la j-ésima neurona y m es el mimero total de estas neuronas. Este algoritmo se ha convertido en el més popular para el entrenamiento del perceptron multicapa, Es muy eficiente y tiene la capacidad de clasificar informacién que debe ser separada de forma no-lineal, El algoritmo es una técnica de gradiente que implementa la minimizacion en una sola direcci6n, la cual puede ser la éptima, debido a esto, no es posible demostrar la convergencia del algoritmo a un minimo global. Las redes neuronales permiten obtener un mapeo entrada-salida del comportamiento del sistema, con lo cual no es necesario obtener un modelo matematico del mismo, esto, puede ser una ventaja al tratar con sistemas muy complejos de los cuales es muy dificil obtener su modelo matemético. Por otra parte las redes neuronales nos permiten implementar un controlador para un sistema a partir de la informacién obtenida de la red. 2.3 Técnicas de optimizacién 19 2.3. Técnicas de optimizacién La optimizacién es el acto de obtener el mejor resultado bajo determinadas circunstan La meta final de todas las deci jones es minimizar el esfuerzo requerido. La minimizacion se define como encontrar las condiciones que nos dan el maximo o el minimo de un valor de una funcién. No existe un método individual para resolver por completo el problema de la opti- mizacién de manera eficiente. Se han desarrollado diferentes métodos para resolver diferentes problemas de optimizacion. Existen tres métodos de programacién los cuales son: téenicas de programacién matematica, técni cas de procesos estocisticos y métodos estadisticos. Para €l propésito de este desarrollo solo interesan las téenicas de programacién matemética y cial, Ia programacién lineal. Las téenicas de programacién matemética son titiles para encontrar el minimo de una funcién de varias variable bajo un espacio preserito de restricciones [20]. 2.3.1. Problemas de programacién Un problema de control éptimo (OC) usualmente de describe mediante dos tipos de variables, nombradas, variables de control (disefio) y las variables de estado. Las variables de control gobiernan la evolucién del sistema desde una etapa a la siguiente y las variables de estado describen el comportamiento del sistema en cualquier etapa. Explicitamente, el problema de control dptimo es un problema de programacién matemtica envolviendo un ntimero de etapas, donde cada etapa esta envuelta desde la etapa previa en una manera prescrita, el problema es encontrar un espacio de variables de control o variables de disefio tales que se minimize la funcién objetivo total sobre un mimero de etapas sujeto a ciertas restrieciones sobre las variables de control y las variables de estado [20]. Este se puede 20 Redes neuronales y optimizacin enunciar como sigue: Encontrar X el cual minimize: 1 F(X) =D flew) sujeto a las siguientes restricciones: (2.13) a(eiY) + Ui = Yer, F=1,2,.. gi(tj) <0, F=1j2%eeyt Ia(ax) $0, R=12 00,0 donde «; es la i-ésima variable de control, y; es la iésima variable de estado y f; es la contribucién de la i-ésima etapa para la funcién objetivo total; gi, fy y q: Son funciones de 5, Yer Ws Y ys respectivamente. Problema de programacién lineal Si la funcién objetivo y todas las restricciones en ecuacién (2.13) son funciones lineales de las variables de control, al problema de programacién matemstica se le llama problema de programacién lineal (LP). Un problema de programacién lineal se enuncia de la siguiente forma estandar: Encontrar: a x |@ a El cual minimize la funcién: . LX) = Yeas (2.14) a sujeto a las siguientes restricciones: ante =o), F=1 2.05 2.3 Técnicas de optimizacién 21 x, > 0, donde ¢,, ayy y b; son constantes. Problema de programacién no lineal Si cualquiera de las funciones entre las funciones objetivo y las funciones de restriccién on la ecuacién (2.13) es no lineal, a este se Ie Hama problema de la programacién no lineal (NLP). Este es el problema de programacién mas general y todos los demas problemas se iales del problema NEP. Los métodos clasicos de optimizacién son titiles para encontrar el éptimo de funciones pueden considerar casos esp diferenciales y continuas. Estos métodos son analiticos y hacen uso de las téenicas de los eal- culos diferenciales en la localizacién de los puntos éptimos. En vista de que algunos problemas préeticos envuelven funciones objetivo que no son continuas ni diferenciables, las téenicas de optimizacién clésica estén limitadas por las aplicaciones précticas. 2.3.2. Optimizacién sin restricciones (Definiciones y teoremas) La r-€sima diferencial de f. Si todas las derivadas parciales de la funcin f de orden completo r > 1 existen y son continuas en el punto X*, entonces el polinomio: a p(X") = > > hats = (2.15) se le Hama la tésima diferencial de X*. Note que hay r sumatorias y un hy esta asociado con cada sumatoria en la ecuacién (2.15) Teorema 2.1 Si {(X) tiene un punto extremo (un ménimo oun ménimo) en X = X* y si las primeras derivadas parciales de f(X) existen en X*, entonces: Hex = Lexy Ox," d (x*) (2.16) Oa a“ (216) 22 Redes neuronales y optimizacién Teorema 2.2 Una condicién suficiente para que el punto estacionario X* sea un punto extremo es que la matriz de las segundas derivadas parciales (matriz Hessian) de f(r) evalu- ‘ada en X* sea: (i) positiva definida cuando X* es un punto mtnimo, y (ii) negativa definida cuando X* es un punto mézimo, Nota: Una matriz A sera positiva definida si todos sus eigenvalores son positivos, i.e. todos los valores de A los cuales satisfagan el determinante: \A-AI| deben ser positives. Otro examen que se puede aplicar para encontrar sila matriz A de orden n es positiva definida es la evaluacién de los determinantes: Ay=| an | .Ar= yy =| aor aor aos [yess An =| da. sz 33 ++ Gan La matriz A seré positiva definida si y solamente si todos los valores Aj, Ao,...,An son. positivos. La matriz A seré negativa definida si el signo de A, es (~1}! para j = 1,2,....m. Si algunos valores son positivos y algunos son cero, la matriz, A sera positiva semidefinida, 2.3.3. Optimizacién con restricciones de igualdad Se considera la optimizacién de funciones continuas sujetas a las siguientes restricciones: minimiza f = f(X) sujeto a g(X)=0, 7 =1,2,....m (2.17) 2.3 Técnicas de optimizacién 23 donde: a By Ln Aqut, m < n; en el otro caso (si m > n), el problema se convierte en sobre-definido, y, en general, no habré solucién. Hay varios métodos para solucionar este problema, los métodos de la sustitucién directa, variacién restringida y multiplicadores de Lagrange son algunos de ellos [20]. Solucién por el método de sustitucién directa En el problema no restringido, hay n variables independientes, y la funcidn objetivo se puede evaluar para cualquier espacio de n ntimeros. De cualquier manera, en el problema restringido, al menos una variable independiente pierde su arbitrariedad con la adicién de cada restriccién de igualdad. Asf, el problema con m restricciones en n variables tendré solamente (n — m) variables independientes. Si se selecciona cualquier espacio de n — m variables, los valores de las variables restantes estén determinados por m restricciones de igualdad. Asi, te6ricamente es posible resolver simultdneamente las m restricciones de igualdad y expresar cualquiera im variables en términos de las n — m variables restantes. Cuando se substituyen estas expresiones dentro de la funcién objetivo original, resulta uma nueva funcién objetivo que considera solamente n —m variables. La nueva funcién objetivo no esta sujeta a ninguna restriccién y por lo tanto se puede encontrar su éptimo con las técnicas de optimizacién no restringidas clasicas. Este método de la sustitucién directa, aunque parece en teorfa simple, no es conveniente desde el punto de vista préctico. La raz6n es que las restricciones serén no lineales para la mayorfa de los problemas précticos y se hace imposible el resolver el expresar om. variables en términos de las n —m variable restantes 24 Redes neuronales y optimizacién Solucién por el método de variaciones restringidas La idea bésica empleada en el método de variaciones restringidas es encontrar una ex- presién en forma cerrada para la diferencial de primer orden de f(df) de todos los puntos en los cuales se satisfacen las restri ‘ones g;(X) = 0, j = 1,2,...,m. Los puntos 6ptimos deseados se obtienen por la solucién de la ecuacién diferencial en cero. Un problema con n = 2 y m= 1. Considere el problema: Minimizar: f(t, %2) (2.18) Sujeto a: g(v1,2) = 0 (2.19) Para resolver la restriccién g(r1, 02) = 0 obtenemos 22 como: 2 = h(a) (2.20) Por la sustitucién de (2.20), la solucién objetivo se convierte en una funcién de una sola variable como f = f (1, h(«:)]. Una condicién necesaria para que f tenga un mfnimo en algtin punto (17,03) es que la derivada total de f(1,.r2) con respecto ar, sea cero en (e],}). La ecuacién diferencial total f(r1,:r2) se puede escribir como sigue df(a,«2) shaw, + su, Cuando esta ecuacién es igual a cero nosotros obtenemos: df (x1, 22) FS to, + ES ty =0 (2.21) On Ona Desde que g(2j,3) = 0 en el punto minimo, cualquier variacién dr, y dry que se tome alrededor del punto (x7, 73) se lama variacién admisible proporcionada por la relacién: Glay + day,a3 + drz) = 0 (2.22) La expansién en series de Taylor de la funcién en la ecuacién (2.22) alrededor del punto (2,23) es: * * ot) 4 9 pas ge 29 pe ys glx} + dary, + dry) ~ g(2},23) + 2 (ay, o3)der + 57 (03, 23)dr» = 0 (2.23) Se ez 2.3 Técnicas de optimizacién 25 donde se consideran dir, y dir pequefias. Desde que g(:rj,«3) = 0, la ecuacién (2.23) se reduce a: (2.24) Asf, la ecuacién (2.24) se debe satisfacer para todas las variaciones admisibles. Considerando que, la ecuacién (2.24) se escribe como: (g/d) dry = SST (ot, 25) = 0 (2.25) (09/8x2) Esta relacién nos indica que una vez que se escoge na variacién arbitraria en x(dry), la variacién r9(dr») de fija autométicamente desde que dz; y dr son las tinicas variaciones admisibles. Por la sustitucién de la ecuacién (2.25) en ecuacién (2.21) se tiene: af _ (Og/dx:) af Bx, (g/Ox2) x2 | leqegdm = 0 (2.26) Note que la cenacién (2.26) se tiene que satisfacer para todos lo valores de d;. Desde que 2; se puede clegir arbitrariamente, la ecuacién (2.26) es equivalente a: (Ze- wm) 2.21 Om, Arq Ox Ox ° @2n) La ecuaci6n (2.27) da las condiciones necesarias para tener un punto extremo (r}, 73) (minimo 0 maximo) Solucién por el método de Multiplicadores de Lagrange En el método de multiplicadores de Lagrange, se introduce una variable adicional por cada restricci6n, Asf, si el problema tiene n variables y m restricciones de igualdad, se adicionan 1m variables al problema, asf que el mimero final cambia de n incégnitas a n +m. De hecho, hay algunas simplificaciones disponibles por las adicién de las nuevas variables [20]. Considerar el problema de: minimizar {(21,22) sujeto a g(x1,22) = 0 (2.28) 26 Redes neuronales y optimizacién Este problema se consideré para el caso anterior y se eneontré que una con para la existencia de un punto extremo en X = X* es: af (affirs) do) a: (a5 ~ fanaa) lees = 8 29) Definiendo el multiplicador de Lagrange A como: __ (afloe an (Fe) began e230 La ecuacisn (2.29) se puede escribir como: (2.31) (2.32) En adicién, se satisface la ecuacién de restriccién en el punto extremo, i.e, ala, 2) | (2.33) ‘Asf, las ecuaciones (2.31) a la (2.33) representan las condiciones necesarias para que el punto sea un punto extremo, Las condiciones necesarias dadas por las ecuaciones (2.31) a la (2.33) también se pueden generar por la construccién de una funcién L, conocida como la funcién de Lagrange, como: L(x, 22,A) = flarste) + dg(erst2) (2.34) Si las derivadas parciales de la funci6n de Lagrange con respecto a cada uno de los argumentos €s ignal a cero, se obtienen las condiciones necesarias dadas por las eouaciones (2.31) a (2.33). Asf tienen las siguientes ecuaciones: BE (eta, d) = BL (os, 2) + ZE(01,42) PE ler, 22,0) = ZL(er, 22) + GL (1,22) (2.35) $E(01,@2,d) = g(a1,42) =0 2.3 Técnicas de optimizacién 27 Las condiciones necesarias deducidas anteriormente se pueden extender al problema gen- eral con n variables y m restriceiones de igualdad. El resultado se encuentra en el siguiente teorema ‘Teorema 2.3 Una condicién necesaria para que una funcién {(X) sujeta a las restricciones 9)(X) = 0, j = 1,2,...,m tengan un minimo relativo en el punto X* es que las primeras derivadas parciales de la funcién de Lagrange definida por L = L215 25 00, 2ny hy lay ees bm) con respecto a cada uno de sus argumentos sea cero. Construyendo la funcién de Lagrange como: 1X) = f(X) + > s9i(X) (2.36) ‘Tomando las derivadas parciales de L, con respecto a cada uno de sus argumentos, iguales a cero se tienen las condiciones necesarias para cl mfnimo relativo de f(X) en X*. 2.3.4. Optimizacidn con restricciones de desigualdad Est Minimizar /(X) sujeto a: seecién es concerniente con la solucién del siguiente problema: g(X) <0, 7 =1,2,...,m (2.37) Las restricciones de desigualdad se pueden transformar a restricciones de igualdad adicio- nando variables lentas no negativas, y? ,como sigue: g(X)+yf=0, f= 1,2,...,.m (2.38) donde los valores de las variables lentas atin no se conocen. El problema ahora esta en forma. tal que se pueden aplicar los métodos discutidos en la seccién anterior: Minimizar {(X) sujeto a G,(X,Y) = 9)(X) + y? = F=1,2..,m (2.39) 28 Redes neuronales y optimizacién nH ye donde Y = es el vector de variables lentas. Ym Este problema se puede resolver convenientemente por el método de multiplicadores de Lagrange. Para este, se pude construir la funcién de Lagrange como L(X,Y,2) = f(X) + SAGX) (2.40) ma » ro ae donde \ = s cl veetor de multiplicadores de Lagrange. dwn Los puntos estacionarios de la funcién de Lagrange se pueden encontrar resolviendo las siguientes ecuaciones (condiciones necesarias): Sexy) = Hon i=1,2,...,.n (2.41) aL Oat 9.49 FROM A) = GX) = 9(X) +5 = sm (2.42) ees Y,A) = 2Ayy =1,2...m (2.43) li La ecuacién (2.42) asegura que se satisfacen las restrieciones gj(X) <0, 7 = 1,2,....m. Mientras (2.43) implica que cualquiera A; = 0 0 y; = 0. Si Ay = 0 esto significa que las restricciones son inactivas y por lo tanto se pueden ignorar estas. Por otro lado, si yj = 0 esto significa que las restricciones son activas (gj = 0) en el punto dptimo. Considerar la divisién de las restrieciones en dos subespacios J, y Jz donde Jy + J) representan las restricciones del espacio total. Sea Jj, indica los {ndices para las restriceiones las cuales son activas en el punto 6ptimo y sea Jy incluye los indices para todas las restricciones inactivas. 2.3 Técnicas de optimizacién 29 Asf, para j € J, yj = 0 (restricciones activas), y para j € Jz, A; = 0 (restricciones: inactivas), y la ecuacién (2.41) se puede simplificar como: 99; 9 on Doe, 0, i=1,2,...,n (2.44) Similarmente, las ecuaciones (2.42) se pueden escribir como: a(X)=0, jek (2.45) a(X)+y=0, jet (2.46) Las ecuaciones (2.44) a (2.46) representan n+ p+ (rm — p) = n-+m ecuaciones con n +m. 1,2...) b (i € +h) ¥ yy G € +2) donde p denota el numero de inedgnitas x; (i restricciones activas, Asumiendo que las primeras p restrieciones son activas, la ecuacién (2.44) se puede ex- presar como: SE Sth nS = + Ape, FH 1,2... (2.47) estas ecuaciones se pueden escribir colectivamente como: —VIEM VIF MT G24 +--+ ADT Ip (2.48) donde Vf y Vg; son el gradiente de la funcién objetivo y la j-ésima restriccién dados, respectivamente, por: Of [Ox 93/8 Of [O02 94/802 vi : y VG Of {0x 895/820 Asi el negativo del gradiente de la funcién objetivo se puede expresar como una combinacién lineal de los gradientes de las restricciones activas en el punto éptimo. Mas all, se puede considerar el easo de un problema de minimizacion dj (j € J) tienen que ser positivos. 30 Redes neuronales y optimizacin Suponga que son activas solamente dos restricciones (p = 2) en el punto dptimo, entonces la ecuacién (2.48) se reduce a: -VFEMVHtEMV HR (2.49) Sea S una direecién factible en el punto éptimo, premultiplicando a ambos lados de la ecuaci6n (2.49) por 37 se tiene: PUL=MS 7m +S? 7H (2.50) Desde que S$ es la direccién factible, esta debe satisfacer las relaciones: S99 <0 STU 92 <0 Asi, si ky > Oy Ay > 0, la cantidad ST 7 f indica la direccién del gradiente, a lo largo de la cual el valor de la funcién se incrementa en un valor maximo, S7 vf representa el componente del incremento de f a lo largo de la direccién S. Debido al andlisis previo, si A: y Ag son positivos se considera que la ecuacién (2.50) proporciona el valor (mfnimo) éptimo de la funeién f. Por un procedimiento similar, se puede mostrar que los js tienen que ser negativos para el problema de maximizacién. Condiciones Kuhn-Tucker Ast, las restricciones que se tienen que satisfacer para un punto minimo, X*, del problema tratado en ecuacién (2.37), se pueden expresar como: ar 895 _ ia! ae mo ich M>0 FEA (2.53) an (2.52) Estas condiciones no son en general suficientes para asegurar un minimo relativo. De cualquier manera, hay una clase de problemas, para los cuales, son necesarias y suficientes para un mfnimo global [20] 2.3 Técnicas de optimizacién 31 Si no se conoce el espacio de las restricciones activas (yj = 0 y Aj = 0), las condiciones Kuhn-Tueker se denotan como sigue: FEL AHN) = G=1,2,...,n jeh Aig = 0, §=1,2,-..50 (2.54) g <0, §=1,2,...5m A420, F512, Note que si el problema es de maximizacién o si las restricciones son del tipo g, > 0, entonces Aj tiene que ser no positivo en la ecuacién (2.54). Problema de programacién convexa Cualquier problema de optimizacién descrito por la ecuacién (2.37) se le llama el problema. de programacién convexa donde se proporcionan la funcién objetivo f(X) y las funciones de restriccién g;(X) la cuales son convexas. Suponga que f(X) y gj(X), J = 1,2,....,m, son funciones convexas, la funcién de Le- grange de la ecuacién (2.40) se puede escribir como L(X,¥,2) = F(X) + OAs [ao(X) +] (2.55) Si Aj > 0, entonees A;9;(X) es convexa (dado que g;(X) es convexa) y ya que Ajyj = 0 desde la ccuacién (2.43), L(X,Y,A) también es una funcién convexa. Se tiene que obtener la derivada de las condiciones necesarias para que f(X)) sea un minimo relativo en X*. De cualquier manera, si L(X,Y,) es una funcién convexa, su derivada es cero solamente en un punto y por tanto este punto debe ser un minimo absoluto para la funeién f(X). Ast, las condiciones de Kune-Tucker son necesarias y suficientes para asegurar un minimo absoluto de f(X) on X*. 32 Redes neuronales y optimizacin Capitulo 3 Modelos matematicos del proceso de mezclado de petréleo crudo 3.1. Introduccién En este capitulo se presentan los modelos de la propiedades estéticas del mezclado de petréleo crudo [18]. Mas adelante se presentan dos modelos para el tanque, el modelo depen- diente de la altura y el modelo dependiente de la densidad y del volumen en el tanque [1][25) Posteriormente se analizan los procesos de mezclado que contienen més de un nodo de mez- clado, para los cuales se utilizan el modelo distribuido y el modelo agregado [1]. En el modelo distribuido, el modelo de mezclado se representa por puntos de mezclado independientes con un controlador para cada uno, teniendo solo informacion local del proceso. En el modelo agregado, el proceso de mezclado se representa como un solo punto de mezelado utilizando enta como se solo un controlador el cual tiene informacién global del proceso. Al final se pres modelan cada uno de estos modelos los cuales representan en el proceso de mezclado, 34 Modelos mateméticos del proceso de mezclado de petréleo crudo 3.2. Modelos de las propiedades estaticas de mezclado La termodinémica de las mezclas o soluciones homogéneas es un tema complejo. Las rep- resentaciones elementales de los sujetos complejos frecuentemente restringen el tratamiento a casos especiales que no requieren el desarrollo completo de la teorfa general, la. cual est acompaiiada de terminologias y notaciones especiales. Por otro lado, la solucién ideal no representa adecuadamente el comportamiento de muchos sistemas de interés practico para, ingenierfa quimica [18] 3.2.1. Relacién de propiedad para sistemas de composicién vari- able La propiedad fundamental para los sistemas homogéneos (fase-individual) es: (nl!) = Td(nS) = Pd(nV) + (nsdn) (3.1) Como resultado de las definiciones de entalpfa, energfa libre de Helmoltz, y la energfa libre de Gibbs, se pueden escribir T(n8) dG = nl + P(nV) — T(n8) La diferenciacién de estas ecuaciones y la substitucién por d(nU/) como se da en la ecuacién (3.1) da como resultado las siguientes expresion generales para d(nH), (nA) y d(nGi) d(nH) = Ta{nS) — (nV)aP + Y(u,dns) (3.2) a(n) = —(nS)dT — Pd(nv) +S (usdni) (3.3) d(nG) = -(nS)aT + (nV)dP + S(udni) (3.4) Estas ecuaciones .¢ aplican para los cambios en los estados de equilibrio en cualquier sistema de fluido homogéneo, sin importar si es abierto 0 cerrado. Cuando las n; son todas constantes 3.2 Modelos de las propiedades estaticas de mezelado 5 (dn; = 0), se reducen las ecuaciones a las aplicables a sistemas de masa constante y de composicién constante. Ademas, considerando que las n; son todas constantes (dn, = 0), el iiltimo término de ecuaciones (3.1) y (3.2) a (3.4) se reescribe de la siguiente manera: [a(nv) a(nH) (nA) ‘a(nG) Bam Sasaving | OM On, On: Np ng (3.5) donde el indice n, indica la constancia del numero de moles total sin considerar n, Aplicando el criterio de Ja exactitud a las expresiones diferenciales al lado derecho de las ecuaciones (3.1) y (3.2) a (3.4) se tienen 16 ecuaciones generales, de las cuales, 4 son ecuaciones de Maxwell. Dos ecuaciones seguidas de Ja ecuacién (3.4) son de considerable utilidad: | (3.6) , ‘A(nV’ nV) 3 7) Pada & donde el indice n indica la constancia del mimero total de moles 3.2.2. Propiedades molares parciales Cada. una de las derivadas de las ecuaciones de la (3.5) a la (3.7) es una derivada parcial ‘anv om Ney termodinamicas, y se les llama propiedades derivadas parciales del componente i en solucién, de la forma [ Tales derivadas tienen un significado especial en las soluciones designado por 17. Asf por definicién: ~ 9} ag) 7, = - |S (38) donde M representa cualquier propiedad termodinamica molar de una solucién en la cual i es un componente. La variable con barra, identifica como una propiedad molar parcial. Los componentes de una solucién estén intimamente interrelacionados y no pueden tener propiedades de componentes puros. Las propiedades molares parciales se les puede tratar 36 Modelos mateméticos del proceso de mezclado de petréleo crudo exactamente como si ellas representaran las propiedades molares de los componentes en sohucién. Las propiedades para las cuales se aplica la ecuacién (3.8) se conocen desde la expe mentacién como extensivas; esto es, si una solucién se construye de ny moles del componente 1, np moles del componente 2, n; moles del componente i, ete, tiene una propiedad inicial total nM, donde n = S7n,, entonces incrementando cada n; por el factor constante a en T y P produce una solucién con una propiedad total de a(nM). Matemsticamente, las propiedades nM se dice que son funciones homogéneas de primer grado en el mimero de moles de los constituyentes, y para tales propiedades el teorema de Euler propor: na una relaci6n general: nM = S7(n,™) (3.9) Dividiendo por n produce la expresién alternativa: M= (eM) (3.10) donde «x; es la fraccién mol del componente i en la solucién. Las ecus nes (3.9) y (3.10) resultan aplicando balances de materia a la ecuacién (3.8), Ja cual se describe como la propiedad de una solucién la cual se distribuye entre sus compo- nentes. Esta expresién trata de ser lo més simple posible para la propiedad de una solucién en relacién a las propiedades molares parciales, la ecuacién (3.10) muestra que la propiedad de la solucién es el promedio fraccién-peso de moles de las propiedades parciales. Las propiedades de Ia solucién las cuales se representan por el sfmbolo M pueden estar sobre una base en unidades-masa asf como sobre una base de moles. 3.2.3. Soluciones ideales Para algunos sistemas, el volumen molar parcial de un componente en una solucién es linealmente el mismo que el volumen lineal de un componente puro. Se toman como referencia los sistemas llamados soluciones ideales, para los cuales el término significa que para una solucién el volumen molar pareial de cada componente en solucién es igual al volumen del componente puro a la misma temperatura y presién [18] 3.2 Modelos de las propiedades estéticas de mezclado 37 El lado derecho de la ecuacién (3.8) representa el cambio en el volumen de n moles de una mezcla cuando se adicionan dn; moles del componente i a'T y P constantes, y nj, para una soluci6n ideal, es simplemente el volumen molar puro i. Por lo tanto, la ecuacién (3.8) se convierte en [ae —— vi (3.11) On; Den ‘ 1) desde que el volumen molar parcial es igual al volumen molar del componente puro para una solucién ideal, la. contraparte de ecuaciones ( nV = o(niVi) (3.12) 9) y (3.10) son: v= Vea) (3.13) Las ecnaciones (3.11) a la (3.13) se pueden emplear para las propiedades extensivas como la entalpfa y la energfa interna, pero no para la entropfa y la energfa de Gibbs. Hay una diferencia entre 5, y S; atin para soluciones ideales, la diferencia es debida a la irreversibilidad inherente del proceso de mezclado considerado a temperatura y presién constantes. 3.2.4. Cambio de las propiedades de una mezcla (actividad) La ecuacién (3.13) muestra que el volumen molar de una solucién ideal es simplemente el promedio de los volumenes molares de los componentes puros a a misma temperatura y presién, cada peso acorde a su fraccién mol. Si esto fuera cierto en general para todas las propiedades extensivas termodinamicas, se podria escribir: M=So aM Desafortunadamente, esta ecuacién es cierta solamente para casos especiales. Para que tenga ‘una validez universal se adiciona un término AM. Asf la propiedad de la mezcla general se expresa mediante la siguiente ecuacién: M=SOxiM+AM (3.14) 38 Modelos mateméticos del proceso de mezclado de petréleo crudo Donde A.M es la diferencia es la diferencia entre la propiedad de la solueién M y la suma de las propiedades de los componentes puros los cuales construyen esta, todos a la misma temperatura y presién como en la solucién. Por lo tanto el término AM es llamado cambio de propiedad 0 no linealidad de la mezela. Una definicién més general de esta ecuacién esté dada por: AM =M-SO ame (3.15) donde M? es la propiedad molar de el componente i en un estado esténdar especificado. Si, por ejemplo, M es el volumen molar de una solucién liquida y si todos los componentes cexisten en un estado liquido a la misma presién y temperatura como en la solucién, entonees Mf se convierte en V2 = Vj. en este easo la ecnacion (3.15) se reescribe de la siguiente manera: AV=V-SOavi donde AV es el cambio de volumen de la mezcla observado cuando 1 mol de mezcla se forma a Py T constantes desde los componentes liquidos puros. Los cambios de propiedad de la mezcla son funciones de la. temperatura, la presién, la composicién, la afinidad molecular, as{ como cualquier otra propiedad termodinémica. La ecuacién (3.10) relaciona las propiedades termodinamicas molares M de una solucién a las propiedades molares parciales de los componentes: M=S\(@i™M) La sustitucién de esta ecuacién para M dentro de la ecuacién (3.15) da como resultado: AM = 72M, — So Me = 0 2,1, — Mp) Si se define el cambio de la propiedad molar parcial como: aM, = M?) (3.16) entonces la ecuacién (3.15) se puede reescribir como: AM =o, @.n) 3.2 Modelos de las propiedades estéticas de mezclado 39 donde la cantidad 217; representa el cambio de propiedad de i cuando 1 mol de i puro en su estado estandar se convierte en un componente de una solucién de una composicién dada ala misma T y P. Esta en también una propiedad molar parcial con respecto a AM, y esta en funcién de T, P y La relacién general dada por la ecuacién (3.17) se puede aplicar a diferentes tipos de cambios de la mezcla. Asf, se pueden escribir las siguientes funciones iG = i Lb a Pat BL (Vi 3b ards (nH) f= 2D [mG 57) y haciendo manipulaciones matematicas se obtienen la siguiente ecuaciones: AG Rr SY lena] (3.18) PAV ana 9) RT zs (8 +), | @.19) AH sf (ama 99) RT rf (ser), ] (320) AS S = Ina, Fe = Dlena- YO |» (SEF), (3.21) donde la siguiente proporcién se le llama la actividad @; del componente # en solucién: ach RB donde f; es la fugacidad del componente puro i, y fi es la fugacidad del componente en (3.22) solucién. Esta ecuaciones muestran la importancia de la proporcién @; = 4 juega en las soluciones termodinamicas. Los valores de los cambios de las propiedad de la mezcla dependen de la eleccién de los estados estdndar. 40 Modelos mateméticos del proceso de mezclado de petréleo crudo Ps Figura 3.1: Propiedades dinémicas del flujo en el tanque 3.3. Modelos de las propiedades dindmicas de mezcla- do 3.3.1. Modelo 1. En funcién de la altura en el tanque Se emplean las siguientes consideraciones para el tanque: 1). mezclado perfecto; 2). op- eracién isotérmica; 3). reaccién quimica que toma lugar en el iquido del tanque [25] La Figura 3.1 muestra las propiedades dinmicas en el tanque. A partir de un balance de masa de este sistema se tiene: d bn = Sao donde m es la masa total en el tanque, m = p,V = pyAh, p; es la densidad del producto de salida, V, A y h son volumen, area de la superficie y la altura del Iiquido del tanque (en el caso de mezela perfecta se tiene 4p, = 0), de In ecuacién anterior se tiene: a a “ \ an = eAGh x a4 (3.23) 3.3 Modelos de las propiedades dinamicas de mezclado 41 La velocidad de flujo mésico de salida se puede escribir en términos de la velocidad de salida vs, por tanto se tiene: 45 = py Agog (3.24) donde A; sumatoria de la energfa interna, la energfa potencial y el trabajo del flujo, un balance de s el area de cruce-seccional en Ja salida. Desde que la energfa almacenada es una energfa en el puerto de salida (puntos a, y a) es d if GE Om ayes ea) +3 (Fo) Haya er) + (BP) Si se asumen también cambios insignificantes en la energia interna (u = ug) y en la elevacién (21 = 22 ), que v1 es pequefio comparado a v2, la conserva de estados da: mn de la energia en la ecuacion 2 ae pygh — P,) = V2gh =(P.-P)= iy | " vy = = donde P, es la presién atmosférica. Desde (3.23), (3.24) y (3.25) se tiene: a ® , ppATh = —ppAr/2h 4 va (3.26) Asi, la ecuacién para este sistema de primer orden es no lineal. Esta expresién dice que la velocidad del cambio de masa dentro es igual a la velocidad de flujo masico de entrada menos la velocidad de flujo mésico en la salida, donde la masa en el tanque y la velocidad de flujo en la salida son ambos esc {tos en términos de la altura (/) del fluido en le tanque. Si se define: h © ppAp gh La ecuacién (3.26) se convierte: a0tAh og R he (3.27) donde u => g;, «= h 42 Modelos mateméticos del proceso de mezclado de petréleo crudo Las propiedades quimicas son exotérmicas (liberan energfa) o endotérmicas (requieren la entrada de energia) y por lo tanto requieren ya sea eliminar 0 adicionar energfa al reactor para que se mantenga en este una temperatura constante. Las reacciones exotérmicas son los sistemas més importantes para el easo de estudio debido a los problemas de seguridad (un 0") y la posibilidad de un comportamiento exético como un estado mniltiple (para el mismo valor en la variable de entrada podria haber vai répido incremento en la temperatura, algunas veces llamado comportamiento "encen posibles valores de la variable de salida). Se considera que 1m elementos de los n flujos de entrada tienen reaceién quimica, la reaecién es exotérmica irreversible de primer orden, Ay + Ay---+ Am > B. En la Figura 3.1 se observa que se alimentan continuamente m torrentes de fluido al reactor y un torrente de fluido se elimina en forma continua desde el reactor. Debido a que el reactor mezcla perfectamente, el torrente de salida tiene la misma coneentracion y temperatura que la del fluido en el reactor. El balance de material total correspondiente al volumen es: d, no en) = pV + SOV) (3.28) a donde V es el volumen del tanque, V; es el volumen de entrada y V; es el volumen de salida. El balance sobre el componente A; (i = 1 +++) es: d GlenY) = ei + ai nV (3.29) donde ¢,; 8 la concentracién en el reactor correspondiente al componente A; , ¢; es la concentracién en el flujo de alimentacién, r; es la velocidad de reaccién en Aj. El balance sobre el componente B es: a dt donde c,7 es la concentracién en el reactor del componente y B, cy es la concentracién a la (eg Vp) = eng Vj + eyV5 + gV salida del tanque, ry es la velocidad de reaecién en B. Las dos propiedades para el mezelado del tanque discutidas en este documento son: el nivel del tanque hel cual esté descrito en la ecuacién (3.27); la coneentracién de cada elemento esté. deserita en la ecuacién (3.29). 3.3 Modelos de las propiedades dinémicas de mezclado 43 Ejemplo: El modelo del tanque en funcién de la altura se describe mediante la ecuacién (3.27) la cual se enuncia de nuevo a continuacién: 1 1 Rao *o" R= ¢ u= Da a anh donde: A drea de la superficie. Ay rea de eruze seccional en la salida. ps densidad a la salida del tanque equivalente a la densidad en el tanque. g aceleraci6n de la gravedad. 4 flujo on la i-ésima entrada del tanque. jor ecuacién se tiene: Realizando la sustitucién de los elementos en la anter = —Feot + ou eA VR, | a Ay ~ . h= 2 Yy/2gh+ (3.30) h fV2gh 7A Le (3.30) La ecuacién (3.30) describe la propiedad dinamica de la altura en el tanque. Como un 44 Modelos mateméticos del proceso de mezclado de petréleo crudo Altura del Tanque ° 10 20 30 40 30 Derivada de la altura del Tanque ht 10 20 30 40 50 60 tiempo Figura 3.2: Altura y su derivada en el tanque ejemplo, para los siguientes datos: A= 100 m? Ag = 100 m? py = 32,23 °API g = 9,81 Kg/m? 2 Yai = 59903 m¥/h, E] resultado esta expresado en la grafica de la Figura 3.2. 3.3 Modelos de las propiedades dinamicas de mezclado 3.3.2. Modelo 2. En funcién de la densidad y del volumen en el tanque Para simular el comportamiento dinémico de la densidad y el volumen de la seecién de almacenamiento y carga a buque tanques se utiliza la siguiente ecuacién: din TL fin fe (3.31) afin =f ) donde m representa la masa de petréleo crudo contenido en el tanque. fix y fo son los flujos de entrada y de salida respectivamente en el tanque, con la diferencia de que en el buque tanue f, = 0 [1]. Las variables de interés son la densidad y el volumen en el tanque y el Duque tanque, desarrollando (3.31) se tiene: ate = fin — fo E+ VE = fin - dv _fe dp L ts ) rT (i fo ve): (3.32) La ceuacién (3.32) describirfa el volumen, pero cl problema es que contiene dos variables y solo una ecuacién lo cual hace imposible encontrar una solucién, Para solucionar este problema, en la prictica se observa que el comportamiento dinémico de la densidad en un tangue puede ser descrita por: de _ (bin ~ Kap) at Ei donde ky, son los parémetros de ajuste y p,, es la densidad de la corriente que ingresa al (3.33) tanque o al buque tanque. Sustituyendo la ecuacién (3.33) en la ecuacién (3.32) se tiene: (fin — fo Vi) 4 = fo-V (x)]2 =) oa 46 Modelos mateméticos del proceso de mezclado de petréleo crudo La ecuacién (3.33) describe el comportamiento dindmieo de la densidad y la ecuacién (3.34) describe el comportamiento dinémico del volumen en la seccién de almacenamiento, por tanto, las ecuaciones (3.33) y (3.34) describen el comportamiento dinamico en el tanque y en el buque tanque Ejemplo: El modelo del tanque en funcién de la densidad y del volumen se describe mediante las ecnaciones ( 3) y (3.34) respectivamente, las enales se enuncian de nuevo a continuacién: donde: fin flujo de entrada al tanque o al buque tanque Jo flujo de salida al tanque o al buque tanque. Para el caso del buque tanque se tiene fo Pin densidad de la corriente que ingresa al tanque o al buque tanque, V__ volumen del tanque o del buque tanque. p densidad del tanque o del buque tanque. ky pardmetros de ajuste. Para el caso del buque tanque donde se tienen los siguientes datos: Pan, = 32,23 °APT fan = 176979 m®/h fo=0 El cual se ajusta para los siguientes parametros de ajuste: k=6 kp=1 El resultado de la densidad y el volumen en el buque tanque estén expresados en la gréfica de la Figura 3.3 Modelos de las propiedades dindmicas de mezclado Densidad en el Tanque tiempo Figura 3.3: Densidad y Volumen en el buque tanque 48 Modelos mateméticos del proceso de mezclado de petréleo crudo 3.4. Modelos del mezclado de petréleo crudo En la Figura (3.5) se muestra el arreglo fisico de un proceso de mezclado de petrdleo crudo, considerado representativo de los que se utilizan actualmente en la industria petrok era nacional. Bl proceso consiste de dos etapas: una etapa de mezelado y una etapa de almacenamiento y carga a buque tanques [1 La etapa de mezclado est compuesta por tres tipos de nodos: nodos de mezclado (Mez- cladores), un nodo de deshidratacién (Deshidratador) y un nodo divisor de corriente (Cir- culo). Los mezcladores tienen dos corrientes de entrada y una de salida cada uno, el nodo divisor de corriente es utilizado para el envio de una mezcla considerada para consumo na- cional y el nodo deshidratador se utiliza para la separacién del agua contenida en el petrdleo crude. Se utilizaré un modelo agregado y uno distribuido para representar el proceso de mez- clado. En el modelo distribuido, el proceso se representa por nodos de mezcla individuales con un controlador para cada uno, donde solo se dispone de informacién local del proceso. En el modelo agregado, el proceso se representa como un solo nodo de mezclado wtilizando solo un controlador, el cual tiene informacién global del proceso. La etapa de almacenamiento consta de tanques cerrados para almacenar el petrdleo crudo que produce en la etapa de mezclado y cargar los buque tanques. Actualmente, las operaciones de mezclado en la industria petrolera se realizan de manera tal, que las propiedades de la mezela que entregan estén por encima de lo requerido ocasio- nando una fuga econémica por producir una mezela fuera de especificacién. Esta situacién crea una oportunidad para la aplicacién de técnieas de control avanzadas en las operaciones de mezclado para entregar una mezcla que cumpla con las propiedades requeridas y al mismo tiempo obtener un beneficio econémico extra. 3.4.1. Regla de mezclado para petréleo crudo Considere el mezelador de la Figura (3.4) con una corriente de salida Syy como la mezcla homogénea de las m corrientes de entrada $ [1]. Cada corriente de entrada es representada 3.4 Modelos del mezclado de petréleo crudo 49 > Su Figura 3.4: Mezcla homogénea de m componentes por un vector de propiedades como {fimins Fimexs Pir © G=1,2,...,m donde: © fioinmix) €8 €l flujo minimo y maximo disponible de la i-ésima corriente de entrada, (kg/h). i es la densidad de la corriente de salida , (API, donde °API es una medida indirecta de la densidad empleada en el Instituto Mexicano del Petr6leo) 6 es un costo asociado a la corriente por su utilizacién en la mezela, (USD/kg). Mientras que la corriente de salida se define por el vector: Sar = (fat nios Fst mives Par ins Pat mis} donde: Sr(aninmax) €S €l flujo minimo y maximo requerido, (kg/h). 50 Modelos mateméticos del proceso de mezclado de petréleo crudo Pattminnax) €8 la densidad mfnima y maxima permi cw es el costo de produccién de la mezela, (USD/ke) Si la mezela fuera ideal su densidad, para todo t > 0 (con t denotando la variable tiempo), se puede obtener como: pult) = y Me (3.38) pero en general la ecuacién (3.35) no es representativa del proceso, ya que la regla de mezclado esta dada por una funcién que depende de las densidades y una no Tinealidad en los flujos de las corrientes de entrada, py,(t) = g(f(#),p)- Una alternativa es agregar un término de correccién Apy(t) a (3.35), Hamado "propiedad en exceso.° "desviacién de Io ideal" Siguiendo la idea de las ecuaciones de las propiedades en exceso en soluciones no ideales, el término Ap,;(t) se propone como: Apus(t) = (3.36) donde 73; es el coeficiente de iteracién entre los componentes j e i que se mezclardn y su valor es obtenido empiricamente como: m3 = —8 (0; +p) donde 4 es un pardmetro de ajuste. Se sabe que para el petrdleo crudo se cumple la siguiente relacién: Alia x fr ‘pa (3.37) Entonces la densidad de la mezcla se obtiene ae una regla de me Apylt) $0.1 lado definida como la suma de una funci6n lineal y un término de correccién que es una funcién no lineal: Purlt) = Pyy(l)tineat + Past) wotineat oul Ae Se TT ae psi la ecuacién (3.38) es la que describe el proceso de mezclado general. (3.38) 3.4 Modelos del mezclado de petréleo crudo 51 Figura 3.5: Etapa de mezclado de la industria petrolera nacional 3.4.2. Proceso de mezclado que incluye diferentes tipos de nodos Para mostrar como se incluyen los modelos de los distintos tipos de nodos en el modelo de un proceso de mezelado, considere el mezclado de la Figura 3.5, el cual tiene um nodo deshidratador y un nodo divisor de corriente [1] Para obtener el modelo del deshidratador se sabe que las corrientes Sar: y Sip» estén compuestas por una cantidad de petréleo crudo O y una cantidad de agua W. La corriente Sp est compuesta tinicamente por la diferencia de agua entre Siri y Spa fatr = Of + Wore = afer + bf (3.39) fon = Wray, — When fr2 = Ofp, + Wyn, = efp2 + Ure (3.41) donde a, b, ¢ y d representan las fracciones mésicas de los componentes. Asumiendo que la (3.40) masa total de petréleo erudo que ingresa al deshidratador se conserva a la salida (s6lo se separa el agua en el proceso), entonees se tiene: Of, = Ofna 52 Modelos mateméticos del proceso de mezclado de petréleo crudo fps = ofan Jeo = Bfsn (3.42) donde 8 = (a/b) y la cantidad de agua en Sp» se obtiene como: id Woes = ara =“ far entonces (3.40) queda como: ud fo = bin ~ “far fer =afen (3.43) donde @ = (be — ad)/c, La nueva densidad de la corriente que sale del deshidratador pp, se obtiene como: — funprs = frvppr 2 os fre utilizando (3.42) y (3.43) se tiene lo siguiente: (3.44) donde a, son las constantes de deshidratacién y pp; es la densidad del agua dada en °API, la ecuacién (3.44) es la que describe la relacién que existe entre las densidades de los crudos ala entrada y a la salida del deshidratador. Ahora, realizando una resta de la ecuaciones (3.39) menos la ecuacién (3.41) se tiene lo siguiente: Farr — fea = Wore — Woes + Ofsas — Ofna = (bfiats — Afra) + (afar — ef r2) (3.45) pero como se asumié que la masa de petrdleo erudo que ingresa al deshidratador se conserva ala salida deserito por la siguiente eenacion: Of = Ones fps = afan 3.4 Modelos del mezclado de petréleo crudo 53 entonces sustituyendo este resultado en la ecuacién (3.45) se tiene el siguiente resultado: fan — fea = bfan — dfpr 1-d T= cas de agua a la entrada y a la salida del deshidratador, fas fra (3.46) donde b y d son las fracciones mas respectivamente, con la ecuacién (3.46) se obtiene el flujo que se tiene que introdneir a la entrada del deshidratador debido a la restric salida del deshidratador. n impuesta por el flujo que se requiere a la Para cl modelo de un divisor de corriente se considera que Ia densidad de Ia corriente de entrada es la misma en las corrientes de salida, esto es pyro = Pps = Pps, €l balance de materiz os Sua = fra + fre (3.47) 3.4.3. Modelo distribuido Des se muestra en la Figura 3.6 [1 de este enfoque, cada punto de mez« lado es visto de una forma independiente, como Cada nodo mezclador solo tiene informacién de las propiedades de las corrientes que ingresan en él y las caracterfsticas requeridas en las corrientes de salida o la mezcla deseada. Esto hace que la informacién que obtiene el controlador asignado a este punto de mezcla solo conozca informacién local del proceso y por lo tanto desconoce las capacidades fisicas de los demas puntos de mezclado. De la Figura 4.2, el flujo firs y la densidad py,, de la corriente Syj se obtienen como: fas = foi) + fi Pus = (fasevBni-n) + fi + Seopa) G=12..5m, fsitl La representacién distribuida de la etapa de mezclado de la Figura 3.5 solo considera los nodos de mezclado en el control, la informacién de los otros nodos como el deshidratador 5d Modelos mateméticos del proceso de mezclado de petréleo crudo Swi \/ Su s Figura 3.6: Representacién distribuida del proceso de mezelado y el divisor de corriente se incluyen de manera indirecta y no forman parte del modelo de control, por tanto se utiliza la misma regla de mezclado. 3.4.4. Modelo agregado El modelo consiste en representar el modelo en linea de petréleo crudo de manera agre- gada, como se muestra en la Figura 3.7 [1]. Bajo esta representacién la relacién existente entre las corrientes de entrada S y la de salida Sy, ¢s obtenida a partir de las ecuaciones de balance de materia y regla me mezclado existentes en cada mezclador. De la Figura 3.7, el flujo fy y la densidad py, en la corriente Sy: estsin dados por: fur = hit fe (3.48) while) 1 Px = (@ fitPafe+ _ (3.49) fan) fas y para el flujo fie y la densidad pyyz en la corriente Syy2 se tiene: fare = fan + fo 3.4 Modelos del mezclado de petréleo crudo 55 Figura 3.7: Representacién agregada de la etapa de mezclado B 1 Pre = (Zfun +P afs + Biuh) Fa utilizando (3.48) y (3.49) se tiene lo siguiente: fue = fit fot fa (3.50) 5 =. mihi) (ith) |. malfit fr)fa] 1 3.5 oo [(ni rm AE) (FA) ora ETB] Tan finalmente, separando (3.51) en parte lineal y no lineal se tiene: =lp 5. s. mifife | malfit Hh) 1 4 Pea = [an + Pobe + Bafa + hth + Fith+h | heheh (3.52) El modelo agregado de la etapa de mezelado de la Figura 3.5, se muestra en la Figura 3.7. Bajo esta representacién, la relacién entre las corrientes de entrada y la de salida se obtienen de las ecuaciones de balance de materia y de la regla de mezclado existentes entre cada mezclador. Siguiendo el mismo procedimiento donde se obtuvieron las ecuaciones (3.50) y (3.52) para calcular el flujo y la densidad final en una representacién agregada, se obtienen las siguientes 56 Modelos mateméticos del proceso de mezclado de petréleo crudo relaciones: tus = 8(f + fa) + fs + fs — Fes G1 = pp) fi + Ba = err) f2 + Pala + Piha +O 293 Se Sirs donde: m1 pots 5 _ \ = Ps mafrasfs a (file tall (1-42), opm) 2 ean) ts i (fal) ML Sua Sure Sure fus @ representa la parte no lineal de la mezcla. Aqui la no linealidad de la mezcla es distinta que la del modelo distribuido. Capitulo 4 Modelacién del mezclado de petréleo crudo via redes neuronales y datos reales 4.1. Introduccién En este capitulo se presenta como se obtienen los datos reales que se tienen una base de datos reales en un programa de Excel, se establece la comunicacién para extraer los datos de Excel con una sentencia de Matlab [22], posteriormente estos datos se emplean para desarrollar la estimacién del comportamiento del proceso de mezclado para el modelo agregado y para el modelo distribuido, via Least Square, via Redes neuronales y s presentan, los resultados para cada uno de los casos, por tiltimo se presenta una tabla comparativa que muestra los resultados para cada caso. Para la model: én del proceso de mezclado de petréleo crudo se consideran 3 tipos de modelos de identificacién del mezclado de petréleo erudo: la identifieacién de parémetros via least square descrita mediante el inciso (a) de la Figura 4.1, la identificacién de parémetros via redes neuronales para el modelo completo deserita mediante el inciso (b) de la Figura 4.1 y la identificacién de parémetros via redes neuronales para la no linealidad descrita mediante 58 Modelacién del mezclado de petréleo crudo via redes neuronales y datos reales Figura 4.1: Modelos de identificacién del mezclado de petrdleo crudo el inciso (¢) de la Figura 4.1 4.2. Least square (LS) para identificar los parametros del mezclado de petréleo crudo La propiedad estatica del mezclado de petréleo crudo se puede expresar mediante la siguiente relacisn: Y= 921 + nae +... + Ont n (4.1) donde (x;,:12,...,2,y) son datos conocidos y (8, 42,...,9,) son los pardémetros [24](10]. Experimentalmente estos datos no se pueden considerar como una relacién exacta, por 4.2 Least square (LS) para identificar los parémetros del mezclado de petréleo crudo 59 tanto se expresan como sigue: th = Ota + Ostia +... + Opti +1 Y2 = 9221 + Oota2 +... + Onan + €2 Yen = lm + Ooi + 6+ + Onn + Cm En forma matricial: Y=XO4E (4.2) donde: Y= [ss del” Tt Tin Bm 8 Limw = [O.- Oal” B= ley-enl” Aplicando minimos cuadrados al modelo de la ecuacién (4.2) se tiene: ~ al ET B= 2 ‘in J — least ==0 = emia J ~ least square (2 donde JJ es la funcién de costo. Se aplica la derivada a la funcién de costo con respecto al vector de los parémetros a identificar para obtener el minimo de la funcién de costo como sigue: 2E ge (Y — XO) 2(Y — xe)" (-X) = -2¥TX 4 20TXTX = Asf la estimacién de los pardmetros se obtiene mediante: al tx) ytx (4.3) La no singularidad de XTX depende de los datos de entrada (1, 60 Modelacién del mezclado de petréleo crudo via redes neuronales y datos reales Para el modelo ARX (Auto-Regresivo Ay con entrada eXtra Bu) se tiene Ay(k) = Bu(k) (44) donde: Aa tag? +...+anq™ Bott... + 0nq™ 7 = unidad de retraso Este se puede expresar en forma regresiva lineal de la siguiente manera: yk) = —ary(k — 1) —...— any(k — n) + byu(k — 1) +... + bulk — m) Cuando se da uma entrada u(f) a la planta, hay una correspondiente salida y(k). El vector de pardmetros es: = [ay y,b3 bl” El veetor de datos es: (8) = [Hulk 1) 2. yl =n) yul = 1) e-esute= ml Desde que estos datos no pueden describir exactamente la planta, ésta se puede escribir de Ja siguiente manera: uk) = 9"(K)8 + e(k) (45) donde: elk) = [-y(k = 1)... y(n), u(k — 1)... ,u(k — m)]” B= [areas bem)” e(k) = vector que contiene los errores de modelado, el cual es idependiente de la entrada u(k) y de la salida y(k) Aplicando minimos cuadrados al modelo descrito por la eenacién (4.5) se tiene: ) ~ as =Sr ei ‘1 east square (22 — J= x e(K), min J — least square (3 4.3 Redes neuronales para identificar los pardmetros del mezclado de petréleo crudo 61 donde | > méx(in,n). Se aplica la derivada a la funcién de costo con respecto al vector de los parémetros a identificar para obtener el mfnimo de la funcién de costo, aplicando la regla de la cadena y sustituyendo el error de modelado de la ecuacién (4.5) se tiene lo siguiente: 2s ay Beli) _ B= Dane = & = 297 [ylk) — 98(4)6] [-wP(8)] = a i ! 2S 0 ylkye"(k) — 2 = swe] 0-90 a a Asi la imaci6n de los pardmetros se obtiene mediante: L aa Ye wets] LHe) (4.6) t donde la no-singularidad de >" (k)ip(%t) depende de los datos de entrada [u(k — 1)... u(k —m) 4.3. Redes neuronales para identificar los pardmetros del mezclado de petréleo crudo Las propiedad a la salida del modelo de mezclado de petréleo erudo se puede escribir en la siguiente forma general: ® (uy, ua, ta,...] = ®[X(K) (47) donde: X(h) = [ur uz, u3,..]" (48) (-) es una funcién lineal eonocida que representa la operacién de mezclado, u; es una entrada esealar medible, esta puede ser la fraccién volumen del componente, y(k) es el valor de la propiedad a la salida del modelo de mezclado al tiempo k. Este es el modelo NARMA [24] 62 Modelacién del mezclado de petréleo crudo via redes neuronales y datos reales Se considera una red neuronal multieapa (o perceptrén multicapa, MLP) al modelo es- tético del proceso de mezclado de la ecuacién (4.7), la eeuacién que describe la red neuronal multicapa es la siguiente G(k) = Vib [We X(K)] (4.9) donde la salida escalar es 7(k) € RM, el vector de entrada es X(k) € R" definido en ecuaci6n (4.8), los pesos sindpticos en la capa de salida son Vi € R'"", los pesos en la capa oculta son W, € R™", ¢ es una funcién vectorial m-dimensional, la representacién t{pica de Ja funcién 4,(-) es una funcién sigmoidal debido a que se necesita una funcién continua para poder obtener su derivada ya que la derivada también se emplea en el algoritmo [25][26). El error de identificacién en la capa de salida se define mediante: e(k) = Hh) — yl) Bl sistema de mezclado de la eenacién (4.7) se puede reeseribir como: y(k) = V"o(W*X(k)] ~ w(h) donde V* y W* son los pesos sindpticos desconocidos de la capa de salida y de la capa oculta respectivamente, los cuales pueden minimizar el error de modelado j:(k). La planta no-lineal de ecacién (4.7) se puede también expresar como: u(k) = V°o|W*X(k)] — 3(k) (4.10) donde V? es un veetor seleccionado por el usuario. En general, |6(&)]| > u()|]. Usando la Serie de Taylor alrededor del punto Wi,X(k), el error de identi la siguiente manera: ek) = Vio (WiX (k)] — VO9 [W*X(K)] + 4(K) ‘ub [W.X (K)] — V20 [WeX(h)] + V6 [WiX(R)] —VOO[W*X(R)] + 4(K) (4.11) = Vib [WaX(k)] + V°STHLX(k) + Ch) ion se puede expresar de donde ¢es la derivada de la funcién de activacién no-lineal 4(-) en el punto W,.X(k), We = We —W*, Vi = Vi —V% 6k) = V%(k) + 6(K), aqui e(K) es la aproximacién de segundo orden del error de la Serie de Taylor. 4.3 Redes nenronales para identificar los pardmetros del mezclado de petréleo crudo 63 En este documento solamente se esté interesado en la identificacién en lazo abierto, se puede asumir que la planta de la ecuacién (4.7) es acotada en la entrada, acotada en la salida, por lo tanto, es estable, i.e., u(k) y y(k) en ecuacién (4.7) son acotadas. Desde que X(k) = [ur, ua, us,...]", X(k) es acotada. Debido a que la funcién ¢ es acotada se asume que 5(k) de la ecuacién (4.10) es acotada, también ¢(k) es acotado. Asf ¢(k) en ecuacién (4.11) es acotada. El siguiente teorema prueba la estabilidad del algoritino backpropagation como un algoritmo para una red neuronal multicapa en tiempo discreto [25)(26) ‘Teorema 4.1 Si se usa la red neuronal multicapa de la ecuacién (4.9) para identificar el proceso no-lineal de la ecuacién (4.7) el siguiente algoritmo parecido al backpropagation puede hacer el error de identificacion e(k) acotado. Wear = Wi — me(k)oVT XT (hk) 4.12) Veni = Ve — meh) o™ we) donde n= aaragaF O< 1S 1. Hl promedio del error de identificacién satisface ie 1 ~ ims 24) < AE J = limsups, » ens (4.13) donde: feu [2— A] >0 k= méx (|]ov"x") |? + [o)?) i F = Bax e(4)6(0)) Demostracién. Se selecciona la matriz positiva definida Ly como: Ly = | aK | + ran.ve | (1) donde WW, = Wi — W*, Vi = Vi — V®. Desde la ley de actualizacion de los pesos sinépticos de la ecuacién (4.12) se tiene: Wen = We — nye(h)oV7XT (k) Visa = Ve ~ mek)" 64 Modelacién del mezclado de petréleo crudo via redes neuronales y datos reales desde que la matriz ges una matriz diagonal, y usando la ecuacién (4.11) se tiene: Ala = |Win KuiPe| + [ViamoF.|| —||Mamoiee | — ax.re ALy= | ( ~ nge(k)VTXT(k)) Ky (Wi ~ nye) 6VPXT(k)) |- +| (We metho") Ke (Th —meettys")" | - fViwuive| - |ew.vel) |] Webui — Wide (meV NT)” — me(OV NT (b) Keli + eC B)OVEXT(K) Ky (neelB)OVXT(K))” + [VAI — Vato (ne(R6")” = ne(l8" Kota” + ne(R)O™ Ke (nue(bOY" | = =x - frase WK (mpe(k)OVEXT (k))” — mee(R\OVEX! (k) Ky We + nek) OVEXT (k) Ky (mol) OVEX? (K))” + | Vex (nelh)0")” — melo KVe + melo" Ke (melb)9")’ |] = - [Pex — fox Wik (nel OVTXT(b))” — me(AVTXT (RK ule + E(B OVTXT (KK (me(RVXT(H))" + |] Vik (me(6Y" — me(BOT KM + me(BO7Ke (melB)0") | < | -ance(yaVX? (K)KuiFi |] + | npe(BOVXT Ke (nyelBOVXT (EH) "| + +(f-2nclns"K0e" | + fmetRe"K. (ne(K)9")"| < -2m, [le(#)|) Joverxt annul +6 KV | + |pne(ROVT XT (RK (me(R}OVXT(K))" | + | ne(&)0" Ke (uel }0")"| Si kK, = Ky = Ky < =2K ang let) | (Dex (R V+ Vad)" ] + Ka IimeOVXA |? + Ke |me&O" S ~ 2a |]e(K) ~ e()C7(R) || + Kanke2(&) || VTXT(R)|? + Karke) lO"? < —Kane(h) [2 — ne (lov XP |? + lol?)] + 2KancelRVGT EH) < — HSE 2 — Fe] PR) + elk ICT (R) + « anit [Wert < AL, < —e?(k) +00 (4.15) 4.3 Redes nenronales para identificar los pardmetros del mezclado de petréleo crudo 65 donde 7 se define en la ecuacién (4.13). Desde (4.11) y (4.14) se tiene que V_ esta en funcién de e(k) y ¢(k), asf se admite que Ly es una funcién de Lyapunov suave, la dinémica del error es entrada-a-estado estable. Debido a que la "ENTRADA"G(.) es acotada, el "ESTADO" e(k) es acotado, lo anterior se comprueba en la siguiente desarrollo, la ecuacién (4.15) se puede reescribir como: Aly < —ne%(k) + n@(h) < —ne(K) +1 (4.16) Considerando el intervalo de Ly de la ecuacién (4.16) desde 1 a T, y considerando que Ly > 0 y que L; es una constante se tiene: t Lp — Ly <= I (k) + TH r (hk) < Ly — Ly + TH SL + TH STH a 2 tLewH sk a de donde el se tiene el promedio del error de identificacion de la ecuacién (4.13) el enal es estable, con el desarrollo anterior se comprueba el teorema. Comentario 4.1 V? no tiene efecto sobre la propiedad de estabilidad de la neuroidentifi- cacién, pero esta tiene influencia sobre la exactitud de la identificacion, ver ecuacién (4.13). Se ha diseiiado un método off-line (fuera de linea) para encontrar el mejor valor de V°. Si se fija V? = Vo, el algoritmo de la ecuacién (4.12) puede hacer convergente el error de identificacion, i.c., Vi. hard el error de identificacion més pequento que el de Vo, V° se puede seleccionar empleando los siguientes pasos: 1. Inicia desde cualquier valor inicial para V° = Vo. 2. Hacer la identificacion con este V° hasta Ty. 3. Si lle(Ta)|| <[le(0)]|, entonces Vp es el nuevo V°, i.e., V? = Veo, ir al paso 2 y repetir el proceso de identificacién. 66 Modelacién del mezclado de petréleo crudo via redes neuronales y datos reales 4. Sille(To)|| > \le(0)]|, termina la identificacién off-line (fuera de linea), ahora Vio es el valor final para V°. Conociendo con anterioridad V°, se puede iniciar la identificacion con el algoritmo de la ecuacién (4.12). 4.4. Obtencién de los datos desde una base de datos reales Para los datos reales se tiene el reporte de medicién tomado diariamente del mes de noviembre del 2002 para el proceso de mezclado de la Figura 3.5 tomando en cuenta las siguientes equivalencias en los simbolos: $1 = Lg, Sz = Puerto Ceiba (PC), 55 Sin = Qa, Sure = 5s = Maya (M), S; = El Golpe (EG) -s = Recibo en Tanques (RT) Spr = Sei, Spo =Qs, Sea = Envio a Nueva Etapa, Sp = Qu (47) b= (Fraccion masica de agua en la entrada) d=d (Fraccién mésica de agua en la salida) Los segundos simbolos después del signo de igualdad corresponden a los simbolos que se cmplean a partir de este momento, ya que estos se emplean en cl programa de Excel y son los datos que vienen en el reporte diario del mes de Noviembre del 2002; Puerto Ceiba, Maya y El Golpe corresponden a tipos especiales de crudo que se caracterizan por tener un valor diferente de °API (donde °API es una medida indirecta de la densidad empleada en cl Instituto Mexicano del Petréleo) (15). Los datos de densidad en “API para cada etapa del proceso de la Figura 3.5 vienen reportados en el reporte diario del mes de Noviembre del 2002. La cantidad de flujo para cada etapa del proceso de la Figura 3.5 se obtiene de la siguiente 4.4 Obtencién de los datos desde una base de datos reales 67 manera: Dispositivo Flujo (m*/h) Mezclador M3 Spq = (Recibo en Tanques) ~ (El Golpe) Divi de corriente — Qe = Qu + (Envio a Nueva Etapa) (41s) Mezclador M2 a — (Maya) Deshidratador Qa = HQ, Mezelador M1 Ly = Qu — (Puerto Ceiba) Note que la ecuaci6n para el deshidratador es no lineal, esta ecuacién es la que se describié como la ecuacién (3.46) en donde viene la obtencién detallada de esta ecuacién. Se obtiene el dato de la no linealidad para la densidad de salida de cada mezclador del modelo distribuido para posteriormente enviar los datos a un programa de Matlab. Los datos se obtienen de la siguiente manera: Dispositivo No linealidad de la densidad en APT Mezclador M1 NLD1= Qeapr— [(@ ae) + Lae ari] — re) * PCsapi| Mezclador M2 NLD2 = Quapr — [' dy * Quearr| — (a) * Mears] Mezclador M3. NLD3 = RToap1 — es * Quarr| — | (4.19) fie) * BGeap1| Se obtienen las fracciones de flujo a la entrada de cada mezclador del modelo distribuido para posteriormente enviar los datos a un programa de Matlab. Los datos se obtienen de la siguiente mancra: Dispositivo Fraccién de flujo en entrada 1 (s/u) Fraceién de flujo en entrada 2 (s/u) Mezelador M1 u(1, k) = Be u(2,k) = Get Mezclador M2 u(1,k) = de u(2,k) = xs Mezclador M3 (lk) =e (2, k) = Fre (4.20) Se obtiene el dato de la no linealidad para la densidad de salida de todos los mezcladores del modelo agregado para posteriormente enviar el dato a un programa de Matlab. El dato 68 Modelacién del mezclado de petréleo crudo via redes neuronales y datos reales se obtiene de la siguiente manera: No linealidad de la densidad en°API NLA = RP aps ~ [( 4)» Lvarr] ~ [(ESR) * PCeae1] From rom = {RED + Mears] = [(E2E) « BGs arr prom = Lsy + PCy + My + EG, (4.21) Se obtienen las fracciones de flujo en cada entrada para todos los mezcladores en el mod- clo agregado para posteriormente enviar los datos a un programa de Matlab. Los datos se obtienen de la siguiente manera: Flujo, entrada 1 (s/u) Flujo, entrada 2 (s/u) Flujo, entrada 3 (s/u) Flujo, entrada 4 (s/u) u(1,) = at (2, k) = £oe u(3,k) = 2 u(4,k) = 2S Prom From Se extraen los datos del programa de Excel hacia programas de Matlab con la instruccién: A= alsread(data) donde A es la matriz donde se alojan en Matlab todos los datos numéricos, data es el nombre del programa en Excel (Ver Figura 4.2) [22]. Las propiedades estiticas en una mezela de petréleo erudo se describen mediante la ccuaci6n (3.14) [18], la cual se enuncia de nuevo a continuacién: M=SouM+AM donde: AM cambio de propiedad de la mezcla. x fraccién mol del componente # en la solucién. AM se obtiene mediante la ecuacién (3.15) la cual se enuncia a continuacién: AM=M-CxM? donde: 4.4 Obtencién de los datos desde una base de datos reales 69 Base de datos _A=xlsread(data) Programa Excel Matlab Matlab Figura 4.2: Comunicacién Excel-Matlab M? propiedad molar esténdar del componente i en un estado estdndar especificado. Para este documento interesa la propiedad de la densidad. Para el caso de los modelos distribuido y agregado y si todos los componentes existen en un estado liquido a la misma presién y temperatura como en solucién, entonees M? se convierte en: M= 0 donde: o, densidad para cada componente a la entrada del mezclador, dada en °APT y at; se convierte a: Lon nau DV fin donde: Jin flujo de cada entrada del mezelador, dado en m/h. uu; flujo parcial de cada componente, sin unidades 70 Modelacién del mezclado de petréleo crudo via redes neuronales y datos reales Entonces la ecuacién (3.15) se convierte en la siguiente ecuacién: Ae Vue (4.22) donde 9 densidad a la salida del mezclador, en la caso agregado es la densidad a la salida del ultimo mezclador, dada en °APT ‘Ap no linealidad de la densidad en la mezela, dada en °APT. y la ecuacién (3.14) se convierte en la siguiente ecuacién: dwg t Ae (4.23) La ecuacién (4.23) describe el comportamiento de la densidad de la mezcla por cada dia, y e a ecuaci6n (4.22) describe el comportamiento de la no linealidad en la mezcla por cada dia, para este documento se tiene el dato de 26 dias. Por ejemplo, para el caso del modelo distribuido del mezclador 1 se tienen las siguientes ecuaciones: y se tiene la repuesta dada por la Figura 4.3. Para cl caso del modelo agregado se tienen las siguientes ecuaciones: a - ve y se tiene la repuesta dada por la Figura 4.4. 4.4 Obtencién de los datos desde una base de datos reales 7 Dense a3 a2 Figura 4.3: Densidad a la salida del mezclador 1 Figura 4.4: Densidad de salida del modelo agregado 2 Modelacién del mezclado de petrdleo crudo via redes neuronales y datos reales 4.5. Modelacién del modelo distribuido Para el modelo distribuido se consideran cada uno de los 3 mezcladores por separado (ver Figuras 3.5 y 3.6) teniéndose un programa para cada mezclador. Se obtienen 26 datos de una base de datos reales los cuales se emplean para realizar cada programa, Se consideran 3 programas para identificacion de parémetros via least square (uno por cada mezclador), se tienen 6 programas para identificacién de parémetros via redes neuronales debido a que hay dos modalidades que son para el modelo completo y para la no linealidad las cuales se explicarén més adelante. 4.5.1. Identificacién de pardmetros via least square Basta con explicar solamente un programa dado que los tres programas de identificacion de parametros via Least: square son idénticos, con la diferencia que cada programa contiene los datos correspondientes a cada mezelador. Para este programa se emplea la formula descrita por la ccuacién (4.3) para el Least square monovariable la cual se vuelve a citar a continuacién: a= (XTX) TTX X = [r(1),2(2),...2(26) Y = [y(0),9(2),---9(26) (424) x(k) =u(1,k)«u(2,k), k= 1,2,...,26 yl(k) =ae2(k), k= 1,2,...,26 donde u(1, f) es la fracci6n de flujo de la entrada 1 para cada mezclador, u(2,k) es la fraceién de flujo de la entrada 2 para cada mezclador, a es el pardmetro a identificar via least square, y(k) es la salida proporcionada por los datos reales y y1(k) es la salida identificada via least square. Posteriormente se grafican los resultados, que son tres gréficas en una Figura y una Figura para cada mezclador (ver Figuras 4.5, 4.6 y 4.7): 4.5 Modelacién del modelo distribuido 73 = La primer gréfica compara la sefial deseada de los datos proporcionados por el programa de Excel contra sefial de salida que se tiene con la identificacion via Least square, = La segunda gréfica los puntos de la entrada contra la salida para el programa de Excel, también grafica en una linea recta la pendiente que se obtiene via Least square la cual es el valor del parémetro a, donde a es el parémetro de iteracién del modelo de iteracion. = La tercer gréfica proporciona el error promedio cuadrético de la sefial deseada y la sefial de salida para el algoritmo de Least square. A continuaci6n se analizan las gréficas de los programas de Matlab de Least square para cada mezelador De la gréfiea del inciso (a) de la Figura 4.5 donde se encuentran la sefial deseada con la estimada del mezelador 1 se observa que la sefial estimada es una linea recta que pasa por en medio de todos los valores de la sefial deseada. De la gréfiea del inciso (b) de la Figura 4.5 donde se encuentra la pendiente para el mezclador 1 proporciona una pendiente muy cercana a cero. De la gréfica del inciso (c) de la Figura 4.5 donde se encuentra el error promedio cuadrético del mezclador 1 se observa que el valor del error promedio cuadrético es de 0,2046. De la gréfica del inciso (a) de la Figura 4.6 donde se encuentran la sefial deseada con la estimada del mezclador 2 se observa que la sefial estimada es una linea recta que pasa por en medio de todos los valores de la sefial deseada. De la gréfica del inciso (b) de la Figura 4.6 donde se encuentra la pendiente para el mezelador 2 proporeiona una pendiente muy cercana a cero. De la gréfica del inciso (c) de la Figura 4.6 donde se encuentra el error promedio cuadrético del mezclador 2 se observa que el valor del error promedio cuadratico es de 0,0869. De la gréfica del inciso (a) de In Figura 4.7 donde se encuentran la seftal deseada con la estimada del mezclador 3 se observa que las sefiales son muy aproximadas debido a que la sefial deseada el altamente lineal. De la gréfica del ineiso (b) de la Figura 4.7 donde se encuentra la pendiente para el mezclador 3 proporciona una pendiente muy cereana a cero. 74 Modelacién del mezclado de petréleo crudo via redes neuronales y datos reales Identificacion via Least Square para Mezclador 1 (a)Deseada vs LS (b)Pendiente 0.062 0.063 0.064 0.065 0.066 0.067 0.068 0.069 0.07 0.071 0.072 (©)Error promedio 0 5 10 15 20 25 tiempo Least square para el m 4.5 Modelacién del modelo distribuido Identificacion via Least Square para Mezclador 2 33 32 (a)Deseada vs LS é 0.168 0.17 0.172 0.174 0.176 0.178 0.18 0.182 0.184 2 01 E / 8 0.05 & fo 0 5 10 15 20 25 tiempo a 4.6: Least square para el m 76 Modelacién del mezclado de petréleo crudo via redes neuronales y datos reales Identificacion via Least Square para Mezclador 3 2099 8099 (a)Deseada vs LS 8099 (b)Pendiente {6)Etror promedio ° 8 tiempo ra 4.7; Least square para elm 4.5 Modelacién del modelo distribuido 17 De la grafica del inciso (c) de la Figura 4.7 dond encuentra el error promedio cuadratico 031 del mezclador 3 se observa que el valor del error promedio cuadrético es de 5,0487¢ 4.5.2. Identificacién via redes neuronales para el modelo completo Basta con explicar solamente un programa dado que los tres programas de identificacién de parmetros via redes neuronales son idénticos, con la diferencia que cada programa con- tiene los datos correspondientes a cada mezclador. Para este programa se cmplea cl algoritmo denominado de aprendizaje con parémetros de aprendizaje variables descrito al principio de éste capitulo, este algoritmo es parecido al algoritmo backpropagation, de hecho en el camino hacia adclante son idénticos, el camino hacia adelante es obtener Ja salida de cada neurona a partir de sus entrad , para esto se cmplea la formula (2.1) la cual se vuelve a citar a continnacién para la i-ésima neurona: w= Yuya = y= o(us— pi) donde: imo componente de la entrada. ty wiz peso de la. conexién entre la j-sima componente de la entrada y la ésima neurona. u; — salida del sumador. umbral ) funeién de activacién no lineal yi Salida de la i-ésima neurona. En este caso no se emplea el umbral quedando la salida de cada neurona como sigue us = (us) Para el modelo distribuido se tienen dos entradas que son u(1,k) y u(2, k). Para el caso del camino hacia. atrés se tiene como se propaga el error de la salida a través de cada neurona en la red neuronal, la diferencia entre el algoritmo de aprendizaje 78 Modelacién del mezclado de petréleo crudo via redes neuronales y datos reales con parametros de aprendizaje variables y el backpropagation estriba en que en el caso del algoritino de aprendizaje con parémetros de aprendizaje variables emplea el pardmetro de aprendizaje que varfa con cada iteracién y ademas, en éste se puede comprobar la estabilidad. La actualizacion de los pesos sinépticos se describe mediante la ceuacién (4.12) la enal se vuelve a citar a continuacién: Wear = We — me(k)oV°T XT (k) Vie = Vi—me(hjo” donde la salida escalar de la red neuronal es 9(k) € R'™, el vector de entrada a la red es X(k) € R'™! definida en ecuacién (4.8) donde se emplean las dos entradas que son u(1,k) y 1u(2,k), los pesos sindpticos en la capa de salida son Vj, € R'”, los pesos en la eapa oculta son W, € R=", es una funcidn vectorial m-dimensional, la representaci6n tipica de la funcién ¢,(-) es una funci6n sigmoidal, pero para propésitos del programa se seleceiona la funcién tangente hiperbélica ya que esta ademas de ser derivable (se emplea la derivada en €l algoritmo) también es asimétrica por lo que considera valores menores y mayores a cero proporcionando mejores resultados en la simulacién, El error de identificacion en la capa de salida se define como: e(k) = G(k) — yk) donde 7 ¢s el parémetro de aprendizaje inicial que tiene cl valor de 1. V? es un vector seleccionado por el usuario para calibrar la red que para propésitos del programa en Matlab se pone como V° = rand lo cual quiere decir que puede tomar cualquier valor entre 0 y 1. Para el entrenamiento y examinacién se emplean las siguientes formulas: U = [u(1,),u(2,k)), DE = (DE(1,k), DE(2,)] y(k) =(DE*UT)+NLDU(I,K), = 1,2,...,26 yn(k) =(DE*UT) + yn(k), 1,2,...,26 (4.25) donde DE(I,k) es la densidad de la primer entrada para cada mezclador, DB(2,k) es Ia densidad de la segunda entrada para cada mezclador, NLD1(1,k) es la no linealidad del 4.5 Modelacién del modelo distribuido 79 modelo distribuido para el mezeladorl, u(1,k) es la fraccién de flujo de la entrada 1 para cada mezclador, u(2,k) es la fraceién de flujo de la entrada 2 para cada mezelador, y(k) es la salida deseada para cada mezelador y yn(k) es la salida de la red neuronal para cada mezelador Posteriormente se grafican los resultados, que son cuatro gréficas en una Figura y una Figura para cada mezclador (ver Figuras 4.8, 4.9 y 4.10): = La primer gréfica compara la sefial deseada de los datos proporcionados por el programa de Excel contra sefial de salida que se tiene con la identificacién via Redes Neuronales para el caso del entrenamiento, = La segunda gréfica compara la sefial deseada de los datos proporcionados por el pro- grama de Excel contra sefial de salida que se tiene con la identificacion via Redes Neuronales para el caso de la generalizacion, = La tercer gréfica proporciona el error promedio cuadrético de la sefial deseada y la seiial de salida para el entrenamiento del algoritmo de Redes Neuronales. = La cuarta grifica proporciona el error promedio cuadratico de Ja sefial deseada y la sofial de salida para la generalizacién del algoritmo de Redes Neuronales. A continuaci6n se analizan las graficas de los programas de Matlab de Redes neuronales para el modelo completo de cada mezelador: En la Figura 4.8 se simula una red neuronal con pardmetro de aprendizaje variable, 2 entradas, 1 salida, 5 neuronas en la capa oculta, una ganancia para la funcién tangente hiperbélica de 4, 20 patrones con 100 épocas para.el entrenamiento y 6 patrones con 50 épocas para la generalizacién. De la grafica del inciso (a) de la Figura 4.8 donde se encuentran la sefial deseada con la estimada para el entrenamiento del mezelador 1 se observa que ambas sefiales son muy aproximadas teniéndose por consi ‘uiente un buen entrenamiento. De la gréfica del ineiso (b) de la Figura 4.8 donde se encuentran la sefial deseada con la estimada para la generalizacién del mezclador 1 se observa que ambas seiiales son aproximadas teniéndose por 80 Modelacién del mezclado de petréleo crudo via redes neuronales y datos reales Redes Neuronales para el modelo completo del Mezclador 1 32.8 33 gue 5 shoal : E324 ges £ s £322 2 G g 2 Sw S 31.8 318 900 1950 2000 320240260280 # de iteraciones # de iteraciones 0.08 02 ~ 0.07 aq Ot8 g s 8 0.06 2 04 © 0.05 = 0.05 0.04 ; : ; o 0 600 1000 1500 2000 ° 100 200-300 # de iteraciones # de iteraciones Figura 4.8: Red neuronal para el modelo completo del mezclador 1 4.5 Modelacién del modelo distribuido 81 Redes Neuronales para ol modelo completo del Mezclador 2 328 325 2 5 B x 8 s2f- 5 s £ z Bats 5 sts}- S z a1 31 *'s00 71950 zo00 © “haga ~C SC # de iteraciones 02 (¢) Error (E) (@) Error (@) 0 500 1000 1500 2000 # de iteraciones 100 200 300 # de iteraciones Figura 4.9: Red neuronal para el modelo completo del mezclador 2 consiguiente una buena generalizacién. De la gréfica del inciso (c) de la Figura 4.8 donde se encuentra el error promedio cuadratico para el entrenamiento del mezelador 1 se observa que el valor del error promedio cuadrético de entrenamiento es de 0,0538. De la grafica del inciso (a) de la Figura 4.8 donde se encuentra el error promedio cuadrético para la generalizacién de] mezclador 1 se observa que el valor del error promedio cuadratico de generalizacién es de 0,0197. En la Figura 4.9 se simula una red neuronal con parémetro de aprendizaje variable, 2 entradas, 1 salida, 5 neuronas en la capa oculta, una ganancia para la funcién tangente 82 Modelacién del mezclado de petréleo crudo via redes neuronales y datos reales hiperbélica de 4, 20 patrones con 100 épocas para el ent enamiento y 6 patrones con 50 épocas para la generalizacion. De la gréfica del inciso (a) de la Figura 4.9 donde se encuentran la sefial deseada con la estimada para el entrenamiento del mezelador 2 se observa que ambas sejiales son muy aproximadas teniéndose por consiguiente un buen entrenamiento. De la gréfica del ineiso (b) de la Figura 4.9 donde se encuentran la sefial deseada con la estimada para la generalizacion del mezclador 2 se observa que ambas seiiales son aproximadas teniéndose por consiguiente una buena generalizacién. De la gréfica del inciso (c) de la Figura 4.9 donde se encuentra el error promedio cuadratico para el entrenamiento del mezelador 2 se observa que el valor del error promedio cuadrético de entrenamiento es de 0,0931. De la gréfica del inciso (d) de la Fignra 4.9 donde se encuentra el error promedio cuadrético para la. generalizacion del mezclador 2 se observa que el valor del error promedio cuadratico de generalizacién es de 0,0243. En la Fignra 4.10 se simula una red neuronal con pardmetro de aprendizaje variable, 2 entradas, 1 salida, 5 neuronas en la capa oculta, una ganancia para la funcién tangente hiperbélica de 4, 20 patrones con 100 épocas para el entrenamiento y 6 patrones con 50 6pocas para la generalizacion. De la gréfica del inciso (a) de la Figura 4.10 donde se encuen- tran la sefial deseada con la estimada para el entrenamiento del mezclador 3 se observa que ambas sefiales son muy aproximadas teniéndose por consiguiente un buen entrenamiento. De la gréfiea del inciso (b) de la Figura 4.10 donde se encuentran la sefial deseada con la estimada para la generalizacién del mezclador 3 se observa que ambas sefiales son aproxi- madas teniéndose por consiguiente una buena generalizacion. De la gréfiea del inciso (¢) de la Figura 4.10 donde se encuentra el error promedio cuadrético para el entrenamiento del mezclador 3 se observa que el valor del error promedio cuadratico de entrenamiento es de 0,0867. De la gréfica del inciso (d) de la Figura 4.10 donde se encuentra el error promedio cuadratico para la generalizacién del mezelador 3 se observa que el valor del error promedio cuadrético de generalizacion es de 0,0433. 4.5 Modelacién del modelo distribuido (a) Entrenamiento (c) Error (E) Redes Neuronales para el modelo completo del Mezclador 3 32.5 - 325 32h 8 s2l- a 315 é 3 1900 1950 2000 220««240~=««260——280 # de iteraciones ot 0.08} c 0.06 < e 0.04 a 0.02 ~ ° : : : ° ‘0600 1000 1500 2000 ° 100 200-300 # do iteraciones # de iteraciones Figura 4.10: Red neuronal para el modelo completo del mezclador 3 83 84 Modelacién del mezclado de petréleo crudo via redes neuronales y datos reales 4.5.3. Identificacién via redes neuronales para la parte no lineal Basta con explicar solamente un programa dado que los tres programas de identificacién de pardmetros via Redes Neuronales son idénticos, con la diferencia que cada programa contiene los datos correspondientes a cada mezclador. Este programa es idéntico al programa de redes neuronales para el modelo completo con la siguiente diferencia: Para el entrenamiento se emplean las siguientes formulas: J = [u(1,k),u(2,h)), k= 1,2,...,26 DE = [DE(1,k), DE(2,k)] b= 1,2,...,26 y(k) = (NLDI(1,k) * P). =1,2,...,26 yn(k) = yn(k), k= 1,2,...,26 (4.26) donde DE(1,k) es la densidad de la primer entrada para cada mezclador, DE(2,k) es la densidad de la segunda entrada para cada mezclador, NLD1(1,k) es la no linealidad del modelo distribuido para el mezclador 1, u(1,k) es la fraccién de flujo de la entrada 1 para cada mezclador, u(2,k) es la fraccién de flujo de la entrada 2 para cada mezclador, y(k) es la salida deseada del entrenamiento para cada mezclador, yn(k) es la salida de la red neuronal del entrenamiento para cada mezclador, P es una ganancia para la salida deseada, este pardmetro se emplea debido a que NLDI(1,k) es muy pequefio y se necesita amplificar para que la funeién tangente hiperbélica pueda operar adecuadamente. Para la examinacién se emplean las siguientes formulas: ya(k) =(DE*UT)+NLDI(,A), = 1,2,...,26 yna(k) = (DE * UT) + (yn(k)/P), k=1,2,...,26 (4.27) Note que en esta etapa se le divide por el parametro P debido a que este pardmetro se multiplica a la salida deseada para tener un mejor aprendizaje, ya(k) es la salida deseada de la examinacién para el modelo, yna(k) es la salida de la red neuronal de la examinacién para el modelo. Posteriormente se grafican los resultados, que son cuatro gréficas en una Figura y una Figura para cada mezclador (ver Figuras 4.11, 4.12 y 4.13) 4.5 Modelacién del modelo distribuido 85 = La primer gréfica compara la sefial deseada de los datos proporcionados por el programa de Excel contra sefial de salida que se tiene con la identificacién via Redes Neuronales para el caso del entrenan nto. = La segunda gréfica compara la sefial deseada de los datos proporeionados por el pro- grama de Excel contra sefial de salida que se tiene con la identificacién via Redes Neuronales para el caso de la generalizacion. = La tercer gréfica proporciona el error promedio cuadratico de la sefial deseada y la seiial de salida para el entrenamiento del algoritmo de Redes Neuronales. = La cuarta gréfica proporciona el error promedio cuadratico de Ja sefial deseada y la seal de salida para la generalizacién del algoritmo de Redes Neuronales. A continuacién se analizan las gréficas de los programas de Matlab de Redes neuronales para la no linealidad de cada mezelador: En la Fignra 4.11 se simula una red neuronal con pardmetro de aprendizaje variable, 2 entradas, 1 salida, 5 neuronas en la capa oculta, una ganancia para la funcién tangente hiperbélica de 0.001, una ganancia de la salida deseada de 0.01, 20 patrones con 100 épocas para el entrenamiento y 6 patrones con 3 épocas para la generalizacién. De la gréfica del ineiso (a) de la Figura 4.11 donde se encuentran la sefial deseada con la estimada para el entrenamiento del mezelador 1 se observa que ambas sefiales son muy aproximadas teniéndose por consiguiente un buen entrenamiento. De la gréfica del inciso (b) de la Figura 4.11 donde se encuentran la sefial deseada con la estimada para la generalizacién del mezclador 1 se observa que ambas seiiales son muy aproximadas teniéndose por consiguiente una buena generalizacion, De la gréfica del inciso (c) de la Figura 4.11 donde se encuentra el error promedio cuadrético para el entrenamiento del mezelador 1 se observa que el valor del error promedio cuadrético de entrenamiento es de 0,2314. De la gréfica del inciso (d) de la Figura 4.11 donde se encuentra el error promedio euadrético para la generalizacién del mezclador 1 se observa que el valor del error promedio cuadrético de generalizacién es de 0,1053. Modelacién del mezclado de petréleo crudo via redes neuronales y datos reales 86 Redes Neuronales para la no linealidad del Mezclador 1 ‘oquojweuenus (2) sé - (9) 1013 (p) 8 S 8 (a) sou (9) 30 «35 += 40 # de iteraciones 25 20 1500 2000 1000 500 # de iteraciones Red neuronal para Ja no linealidad del mezclador 1 Fignra 4.11: 4.5 Modelacién del modelo distribuido 87 Redes Neuronales para la no linealidad del Mezclador 2 32.3 32.4 g 22 & 32.2 2 021 i 2 g G é E319 S 318 316, 800 7950 2000 2025 ~«30~=«SS«O 4# de iteraciones 4# de iteraciones 02 02 0.18 c ct = 0.16 & 2 £ D o14 a ~ 0.12 ~ on Po 5 Poo 0 500 1000 100 2000 20.25 ~«302~«35 SCO # de iteraciones # de iteraciones Figura 4.12: Red neuronal para la no linealidad del mezelador 2 88 Modelacién del mezclado de petréleo crudo via redes neuronales y datos reales En la Figura 4.12 se simula una red neuronal con parémetro de aprendizaje variable, 2 entradas, 1 salida, 5 neuronas en la capa oculta, una ganancia para la funci6n tangente hiperbélica de 0.001, una ganancia de la salida deseada de 0.01, 20 patrones con 100 épocas para el entrenamiento y 6 patrones con 3 épocas para la generalizacién, De la gréfica del ineiso (a) de la Figura 4.12 donde se encuentran la sefial deseada con la es ‘imada para el entrenamiento del mezelador 2 se observa que ambas sefial son muy aproximadas teniéndose por consiguiente un buen entrenamiento. De la gréfica del inciso (b) de la Figura 4.12 donde se encuentran Ja sefial deseada con la estimada para la generalizacién del mezclador 2 se observa que ambas sefiales son muy aproximadas teniéndose por con iente una buena generalizacion. De la gréfica del inciso (c) de la Figura 4.12 donde se encuentra el error promedio cuadratico para el entrenamiento del mezclador 2 se observa que el valor del error promedio cuadrético de entrenamiento es de 0,1463. De la gréfiea del inciso (d) de la Figura 4.12 donde se encuentra el error promedio cuadrético para la generalizacién del mezclador 2 se observa que el valor del error promedio cuadrético de generalizacién es de 0,0337. En la Figura 4.13 se simula una red neuronal con pardmetro de aprendizaje variable, 2 entradas, 1 salida, 5 neuronas en la capa oculta, una ganancia para la funci6n tangente hiperbélica de 0.001, una ganancia de la salida deseada de 0.01, 20 patrones con 100 épocas para el entrenamiento y 6 patrones con 3 épocas para la generalizacién. De la gréfica del inciso (a) de la Figura 4.13 donde se encuentran la sefial deseada con la estimada para el entrenamiento del mezelador 3 se observa que ambas sefiales son muy aproximadas teniéndose por consiguiente un buen entrenamiento. De la gréfica del inciso (b) de la Figura 4.13 donde se encuentran Ja seiial deseada con la estimada para la generalizacién del mezclador 3 se observa que ambas sefiales son muy aproximadas teniéndose por consiguiente una buena generalizacion. De la gréfiea del inciso (c) de la Figura 4.13 donde se encuentra el error promedio cuadratico para el entrenamiento del mezclador 3 se observa que el valor del error promedio euadrético de entrenamiento es de 6,7055e — 006. De la gréfica del inciso (d) de n del mezclador 3 se observa que el valor del error promedio cuadrético de generalizacién es de 1,9722¢ — 010. la Figura 4.13 donde se encuentra el error promedio cuadratico para la generaliza 4.5 Modelacién del modelo distribuido 92.5 32.5 (a) Entrenamiento (c) Error (E) 3 Redes Neuronales para la no linealidad del Mezclador 3 wb eeeee (6) Generalizacion 31 1900 1950 2000 35 x10 1s gf! 5 = 0.5}-- 7 re , oO 500 1000 1500 2000 20 25 30 36 40 # de iteraciones # de iteraciones Figura 4.13: Red neuronal para Ja no linealidad del mezelador 3 89 90 Modelacién del mezclado de petréleo crudo via redes neuronales y datos reales 4.6. Modelacién del modelo agregado Para el modelo agregado se consideran los 3 mezcladores en un modelo (ver Figuras 3.5 ¥ 3.7) teniéndose un programa para todos los mezcladores. Se obtienen 26 datos de una base de datos para identificacion de parametros via least square ales los cuales se emplean para realizar el programa. Se considera 1 programa se tienen 2 programas para identificacion de parémetros via redes neuronales debido a que hay dos modalidades. 4.6.1. Identificacién de pardmetros via least square Para este programa se emplea la formula deserita por la ecuacién (4.3) para el Least square monovariable la cual se vuelve a citar a continuacién: a= (XTX) TYTX X = [x(1),2(2),...(26)] ¥ = [y(1),vQ),..-u(26) (4.28) (k) = u(1,k) * u(2,h) « u(3,h) « u(4,&), 126 yl(k)=axx(k), k=1,2,. donde u(1, ) es la fraceién de flujo de la entrada 1 para el modelo, u(2,) es la fraccién de fiujo de la entrada 2 para el modelo, u(3,k) es la fraccién de flujo de la entrada 3 para el modelo, u(4,) es la fraccién de flujo de la entrada 4 para el modelo, a es el parémetro a identificar via least square, y(k) es la salida proporcionada por los datos reales y y1(k) es la salida identificada via least square. Posteriormente se grafican los resultados, que son tres gréficas en una Figura (ver Figura 4.14): = La primer gréfica compara la sefial deseada de los datos proporcionados por el programa de Excel contra sefial de salida que se tiene con la identificacin via Least square. = La segunda gréfica los puntos de la entrada contra la salida para el programa de Excel, también gréfica en una linea recta la pendiente que se obtiene via. Least square la 4.6 Modelacién del modelo agregado 91 Identificacion via Least Square para Modelo Agregado & 8 (@)Deseada vs LS 8 8 g 32 (b)Pendiente (©)Error promedio 10 15 20 25 tiempo Figura 4.14: Least square para el modelo agregado cual es el valor del pardmetro a, donde a es el parémetro de iteracién del modelo de iteracién. = La tercer gréfica proporciona el error promedio cuadratico de la sefial deseada y la sefial de salida para cl algoritmo de Least square. A continuacién se analiza la grafica del programa de Matlab de Least square para el Modelo agregado: De la gréfica del inciso (a) de la Figura 4.14 donde se encuentran la sefial deseada con 92 Modelacién del mezclado de petréleo crudo via redes neuronales y datos reales ial la estimada del modelo agregado se observa que la sefial estimada se aproxima a la s deseada. De la gréfica del inciso (b) de la Figura 4.14 donde se encuentra la pendiente para el modelo agregado proporciona una pendiente con valor aproximado a 4. De la gréfica. del ‘0 (c) de la Figura 4.14 donde se encuentra el error promedio cuadratico del modelo agregado se observa que el valor del error promedio cuadratico es de 0,7155. 4.6.2. Identificacién via redes neuronales para el modelo completo Para este programa se cmplea cl algoritmo denominado de aprendizaje con parémetros de aprendizaje variables descrito al principio de éste capitulo, este algoritmo es parecido al algoritmo backpropagation, de hecho en el camino hacia adclante son idénticos, el camino hacia adelante es obtener la salida de cada neurona a partir de sus entrad: , para esto se cmplea la formula (2.1) la cual se vuelve a citar a continacién para la i-ésima neurona: w= Yuya = y= o(us— pi) donde: imo componente de la entrada. ty wiz peso de la. conexién entre la j-sima componente de la entrada y la ésima neurona. u; — salida del sumador. umbral ) funeién de activacién no lineal yi Salida de la i-ésima neurona. En este caso no se emplea el umbral quedando la salida de cada neurona como sigue: w= (ui) Para el modelo agregado se tienen cuatro entradas que son u(1,k), u(2,k), u(3, k) y u(4, hk) Para el caso del camino hacia. atrés se tiene como se propaga el error de la salida a través de cada neurona en la red neuronal, la diferencia entre el algoritmo de aprendizaje 4.6 Modelacién del modelo agregado 93 con pardmetros de aprendizaje variables y el backpropagation estriba en que en el caso del algoritmo de aprendizaje con parémetros de aprendizaje variables emplea el parémetro de aprendizaje que varfa con cada iteracién y ademas, en éste se puede comprobar la estabilidad. La actualizacién de los pesos sinépticos se describe mediante la ecuacién (4.12) la cual se vuelve a citar a continuacién: Wiser = Wi — me(k)oVOTXT() Vier = Va ~ melh)o™ donde la salida escalar de la red neuronal es 9(k) € R", el vector de entrada a la red es X(k) € R™ definida en ecuacién (4.8) donde se emplean la cuatro entradas que son u(1,k), u(2,k), u(3, 4) ¥ u(4,h), los pesos sindpticos en la capa de salida son Vj, € R2*™, los pesos en la capa oculta son Wi, € R™*, es una funcién vectorial m-dimensional, la representacién tipiea de la funcién @,(-) es una funcién sigmoidal, pero para propésitos del programa se selecciona la funcién tangente hiperbélica ya que esta ademas de ser derivable (se emplea la derivada en el algoritmo) también es asimétrica por lo que considera valores menores y ‘mayores a cero proporcionando mejores resultados en la simulacién. El error de identificacién en la capa de salida se define como: ek) = 9(k) — y(h) donde 7 es el parémetro de aprendizaje inicial que tiene el valor de 1. V? es un vector seleccionado por el usuario para calibrar la red que para propésitos del programa en Matlab se pone como V° = rand lo cual quiere decir que puede tomar cualquier valor entre 0 y 1. Para el entrenamiento y examinacién se emplean las signientes formulas: U =[u(1,A),u(2,h),u(3,h), uA), k= 1,2,...,26 B = [DE(1,k), DE(2,k), DE(3,k), DE(A,k)), k= 1,2,...,26 y(k) =(DE*UT)+NLAQ,K), k= 1,2,...,26 yn(k) =(DE*UT) +yn(k), Kk =1,2,...,26 (4.29) donde DE(1,) es la densidad de la primer entrada para el modelo, DH(2, k) es la densidad de la segunda entrada para el modelo, DE(3,k) es la densidad de la tercer entrada para el 94 Modelacién del mezclado de petréleo crudo via redes neuronales y datos reales modelo, DE(4,k) es la densidad de la cuarta entrada para el modelo, NLA(1, ) es la no linealidad del modelo agregado, u(1, k) es la fraccién de flujo de la entrada 1 para el modelo, 1u(2,k) es la fraccién de flujo de la entrada 2 para el modelo, u(3, 4) es la fraccisn de flujo de la entrada 3 para el modelo, u(4,f) es la fracei6n de flujo de la entrada 4 para el modelo, y() ¢s la salida deseada para el modelo y yn(lt) es la salida de la red neuronal del entrenamiento para el modelo. Posteriormente se grafican los resultados, que son cuatro gréficas en una Figura (ver Figura 4.15) = La primer gréfica compara la sefial deseada de los datos proporcionados por el programa de Excel contra sefial de salida que se tiene con la identificacién via Redes Neuronales para el caso del entrenamiento. = La segunda gréfica compara la sefial deseada de los datos proporeionados por el pro- grama de Excel contra sefial de salida que se tiene con la identificacion via Redes Neuronales para el caso de la generalizacion, = La tercer gréfica proporciona el error promedio cuadrético de la sefial deseada y la seiial de salida para el entrenamiento del algoritmo de Redes Neuronales. = La cuarta grifica proporciona el error promedio cuadratico de Ja sefial deseada y la sefial de salida para la generalizacién del algoritmo de Redes Neuronales. A continuacién se analiza la gréfica del programa de Matlab de Redes neuronales para el modelo completo del modelo agregado: En la Figura 4.15 se simula una red neuronal con pardmetro de aprendizaje variable, 2 entradas, 1 salida, 5 neuronas en la capa oculta, una ganancia para la funcién tangente hiperbélica de 4, 20 patrones con 100 épocas para.el entrenamiento y 6 patrones con 50 épocas para la generalizacién. De la gréfica del inciso (a) de la Figura 4.15 donde se encuentran la sefial deseada con la estimada para el entrenamiento del modelo agregado se observa que ambas sefiales son muy aproximadas teniéndose por consiguiente un buen entrenamiento. 4.6 Modelacién del modelo agregado Redes Neuronales para el modelo completo del Modelo Agregado 32.5 - 32.5 5 5 2 2 ge 2 s g 2 Bars §a15 3 3 1900 1950 2000 220««240~=««260——280 # de iteraciones ot 0.08} = g g 8 0.06 e © 0.04 = oe : : : ° : : © 600 1000 1500 2000 ° 100 200-300 # do iteraciones # de iteraciones Figura 4.15: Red neuronal para el modelo completo del modelo agregado 95 96 Modelacién del mezclado de petréleo crudo via redes neuronales y datos reales De la gréfica del inciso (b) de la Figura 4.15 donde se encuentran la sefial deseada con la estimada para la generalizacion del modelo agregado se observa. que ambas sefiales son aproximadas teniéndose por consiguiente una buena generalizacién. De la gréfica del inciso (0) de la Figura 4.15 donde se encnentra el error promedio cuadrético para el entrenamiento del modelo agregado se observa que el valor del error promedio cuadratico de entrenamiento es de 0,0929. De la gréfica del inciso (d) de la Figura 4.15 donde se encuentra el error promedio cuadratico para la generalizacion del modelo agregado se observa que el valor del error promedio cuadrético de generalizacion es de 0,0447. 4.6.3. Identificacién via redes neuronales para la parte no lineal Este programa es idéntico al programa de redes neuronales para el modelo completo con Ja signiente diferencia: Para el entrenamiento se emplean las siguientes formulas U =u hu), & DE = |DE(1,k), DE(2,k)] y(k) = (NLDA(1,k) +P), yn(k) = yn{k), k= 1,2,...,26 (4.30) donde DE(1,) es la densidad de Ia primer entrada para el modelo, DH(2, k) es la densidad de Ia segunda entrada para el modelo, D#(3,k) es la densidad de la tercer entrada para VLA(L, k) es a no linealidad del modelo agregado, u(1,k) es Ia fraccién de flujo de la entrada 1 para el el modelo, DE(4,k) es la densidad de la cuarta entrada para el modelo, modelo, 1(2,k) es la fraceién de flujo de la entrada 2 para el modelo, u(3,4) es la fraccién de flujo de la entrada 3 para el modelo, u(4, k) es la fraccién de flujo de la entrada 4 para el modelo, y(k) es la salida deseada del entrenamiento para el modelo, yn(k) es Ia salida de la red neuronal del entrenamiento para el modelo, P es una ganancia para la salida deseada, este pardmetro se emplea debido a que NLA(1,k) es muy pequefio y se necesita amplificar para que la funcién tangente hiperbdlica pueda operar adecuadamente. 4.6 Modelacién del modelo agregado 97 Para la examinacién se emplean las siguientes formulas: ya(k) =(DE*U")+NLDIQ,b), yna(k) =(DE =U") +(yn{k)/P), k= 1,2,...,26 (431) Note que en esta etapa se le divide por cl parametro P debido a que este pardmetro se multiplica a la salida descada para tener un mejor aprendizaje, ya(k) es la salida descada de la examinacién para cl modelo, yna(k) es la salida de la red neuronal de la examinacién para el modelo. Posteriormente se grafican los resultados, que son cuatro gréficas en una Figura (ver Figura 4.16) = La primer gréfica compara la sefial deseada de los datos proporcionados por el programa de Excel contra sefial de salida que se tiene con la identificacién via Redes Neuronales para el caso del entrenamiento, = La segunda gréfica compara la sefial deseada de los datos proporcionados por el pro- grama de Excel contra sefial de salida que se tiene con la identificacién via Redes Neuronales para el caso de la generalizacion. = La tercer gréfica proporciona el error promedio cuadratico de la sefial deseada y la seiial de salida para el entrenamiento del algoritmo de Redes Neuronales. = La cuarta grifica proporciona el error promedio cuadrético de la sefial deseada y la sefial de salida para la generalizacién del algoritmo de Redes Neuronales. A continuacién se analiza la gréfica del programa de Matlab de Redes neuronales para Ja no linealidad del modelo agregado: En la Figura 4.16 se simula una red neuronal con pardmetro de aprendizaje variable, 2 entradas, 1 salida, 5 neuronas en la capa oculta, una ganancia para la funcién tangente hiperbélica de 0.001, una ganancia de la salida deseada de 0.01, 20 patrones con 100 épocas para el entrenamiento y 6 patrones con 3 6pocas para la generalizacién. De la gréfica del inciso (a) de la Figura 4.16 donde se encuentran la sefial deseada con la estimada para Modelacién del mezclado de petréleo crudo via redes neuronales y datos reales Redes Neuronales para la no linealidad del Modelo Agregado 31 31 g 005 gos 2 e £ 2 & 30 & 3 29.5 29.5 300 1950 2000 20-25 = «8085S # de iteraciones, # de iteraciones 35 8 (c) Error (E) 25. 0 0 600 1000 1500 2000 20 «425 «630 «35S AO # de iteraciones # de iteraciones Fignra 4.16: Red neuronal para la no linealidad del modelo agregado 4.6 Modelacién del modelo agregado 99 cl entrenamiento del modelo agregado se observa que ambas sefiales son muy aproximadas teniéndose por consiguiente un buen entrenamiento. De la gréfica del ineiso (b) de la Figura 4.16 donde se encuentran la sefial deseada con la estimada para la generalizacién del modelo agregado se observa que ambas sefiales son muy aproximadas teniéndose por consiguiente una buena generalizacién. De la gréfica del inciso (¢) de la Figura 4.16 donde se encuentra el error promedio cuadrético para el entrenamiento del modelo agregado se observa que el valor del error promedio cuadratico de entrenamiento es de 3,4020. De la grafica del inciso (d) de la Figura 4.16 donde se encuentra el error promedio euadrético para la generalizacion del modelo agregado se observa que el valor del error promedio cuadrético de generalizacién es de 1,082. 100 Modelacién del mezclado de petréleo crudo via redes neuronales y datos reales 4.7. Conclusién En el desarrollo de esta seccién se realiza una comparacién entre la identificacién via least square contra la identificacién via redes nenronales para el modelo completo y contra la identificacién via redes neuronales para la no linealidad teniéndose mejores resultados para la identificacién via redes neuronales para la no linealidad dado que en éste caso se tiene una generalizacion excelente ji , las sefiales identificada y la deseada son muy aproximadas, y ademés, se ocupa un menor mimero de épocas para la generalizacién, comprobéndose con esto que es recomendable el empleo de las redes neuronales para tener mejores resultados en la identificacién para el proceso de mezclado de crudo. El resultado anterior se corrobora mediante la siguiente tabla. M1 = Mezelador 1 LS = Least square ‘M2 = Mezclador 2 NNMC = Red neuronal para el modelo completo ‘M3 = Mezclador 3 NNNL = Red neuronal para la no linealidad MA =M. Agregado error promedio # # Goncratizacion cuadratico entradas salidas LSM1 0,2046 2 1 Mala LSM2 0,0869 2 1 Mala LSM3__5,0487e ~ 031 2 1 Buena LSMA 0.7155 4 1 Regular 4.7 Conclusion 101 # # Ganancia la de funcién — Ganancia de la entradas salidas _tangente hiperbdlica__salida deseada NNMCM1 2 1 4 NNMCM2 2 1 4 NNMCM3 2 1 4 4 1 4 2 1 0,001 0,01 2 1 0,001 0,01 2 1 0,001 0,01 NNNLMA 4 1 0,001 0,01 error promedio error promedio ff meuronasen Gay de entrenamiento de generalizacién —_la eapa oculta NNMCM1 0,0538 0,0197 Buena NNMCM2 0,0931 0,0243 Buena NNMCM3 0,0867 0,0433 Buena 0,0929 0.0447 Buena 0,2314 0,1053 Excelente 0.1463 0,0337 5 Excelente 6,7055¢ — 006 1,9722e — 010 Excclente NNNLMA 3.4020 1,0822 Excelente # patrones de # patronesde -# épocasde —_-# Epocas de entrenamiento _generalizacién —_entrenamiento —_generalizacién NNMCML 20 6 100 50 NNMCM2 20 6 100 50 MCM3 20 6 100 50 NMCMA, 20 6 100 50 NNLM1 20 6 100 3 NNNLM2 20 6 100 3 NNNLM3 20 6 100 3 NNNLMA 20 6 100 3 102 Modelacién del mezclado de petréleo crudo via redes neuronales y datos reales Capitulo 5 Optimizacién de petréleo crudo via redes neuronales y actualizacién de datos (bias updating) 5.1. Introduccién En este capitulo se presenta como se aplica el controlador optimizante con redes neu- ronales al proceso de mezclado, para ello en primer lugar se demuestra la robustez del con- trolador optimizante [12], después se demuestra la robustez del controlador optimizante con redes neuronales [26], posteriormente se realiza una comparacién entre el controlador op- timizante que opera fuera de Iinea al cual se le introducen datos reales y el controlador optimizante con redes neuronales que opera fuera de linea, por tiltimo se presenta una tabla comparativa que muestra los resultados para cada caso. Muchos controladores optimizantes de mezclado de petrdleo crudo estén basados sobre Ja técnica de programacién lineal. En general, la regla de mezclado es no lineal, un método alternativo es adicionar un témino de correceién (incertidumbre) a la regla de mezclado lineal. Para llevar a cabo la operacién de mezclado con las incertidumbres, se ha propu Ja optimizacién en tiempo real. El esquema de actualizacién de datos es una herramienta Optimizacién de petrdleo crudo via redes neuronales y actualizacién de datos (bias 104 updating) para resolver el problema de optimizacién en tiempo real (3](12]. La desventaja principal del esquema de actualizacién es que requiere de la medicién en linea de las propiedades de mezclado. Algunas veces también se necesita la optimizacién fuera de linea, por ejemplo, si se espera encontrar la fraccién de velocidad de flujo a la entrada éptimo sobre datos histéricos, este tipo de control es itil para decisién, supervision y control [26 Un modelo real para el mezelado de petrdleo erudo basado sobre los datos de operacién es muy importante para los ingenieros. Res Itados recientes muestran que la técnica de redes neuronales es muy efectiva para modelar una. gran cantidad de sistemas no lineales complejos donde no se tienen informacién completa del modelo. Es muy importante asegurar la estabilidad del modelo neuro te6ricamente antes de usarlo en algunas aplicaciones reales. 5.2. Optimizacién del mezclado de petréleo crudo con redes neuronales y un esquema de actualizacién (bias updating) 5.2.1. Optimizacién del mezclado petréleo crudo con un esquema de actualizacién El proceso de mezclado de aceite crudo esta sujeto a un mimero de restricciones. Los objetivos del mezclado de petréleo crudo son maximizar el valor de todos los productos mientras se satisfacen sus restricciones, o minimizar el costo del mezclado [26]. El mezclado de aceite crudo se puede considerar como una mezcla de n componentes con: 9 = [a.---.4n]” = velocidad de flujo en la entrada p= [pi.---.Pal’ = propiedad en la entrada gy = velocidad de flujo en la salida pj = propiedad en la salida T [2 | = fraccién de flujo en la entrada 5.2 Optimizacion del mezclado de petréleo erudo con redes neuronales y un esquema de actualizaci6n (bias updating) 105 Considerando los efectos dindmicos insignificantes, la regla de mezclado es una funcién no lineal: py = f (up) (5.1) El problema control de mezclado es la optimizacién del costo sobre las variables manipu- lables el veetor de flujo en la entrada de control u, la funcién objetivo esta en forma de programacién lineal: mine" w (5.2) donde c es el vector de pardmetros de costo del alimentacién. Las restricciones son como sigue: 1. Disponibilidad minima y maxima: Usnin Sy S Us (5.3) 2, Balance de masa: . Susy (5.4) a 3, Requerimientos de las propiedades cualitativas: Praia < Bf S Pie (5) Una forma estndar la cual se puede resolver con el método simplex es: mine’ y sujeto a: Ausb (5.6) Aegtt = beg Us min S Uy S Uiymix Se puede ver que ecnaciones (5.3) y (5.4) estén incluidas en la forma esténdar de la ecuacion (5.6), pero la ecuacién (5.5) no se puede aplicar en la ecuacién (5.6) directamente, se emplea Optimizacién de petrdleo crudo via redes neuronales y actualizacién de datos (bias 106 updating) el esquema de actualizacién para resolver este problema. Una suposicién bésica del esquema de actualizacién es que la regla de mezclado de la ecuacién (5.1) se puede expresar como una parte lineal conocida y una parte no lineal desconocida: , pape a (7) Le donde py es medible, p es un vector constante, se dei idiré el valor de u mediante la opti- mizacién, en aplicaciones, A se puede estimar por el valor previo de u = £ = q. Desde una cial para A, por ejemplo A(0) = 0, A se pnede estimar después de caleular condicién uu = 4q mediante de la optimizacién. a (kp Lu De las ecuaciones (5.5) y (5.7) se tiene lo siguiente: Atk +1) = p9(k) glk) — p* (kyu(h) (5.8) 7 <2 LAW S Pyne (6.9) Py f 7 Pravin ~ A(R) S Ea S Pymix — A(R) = pain — M(h)) > -Za ~ ES —Ppamin + A(R) Za S Pjmix ~ ACh) [% Jos [ Pate A(8) 7 jamin + A(K) Ahora, las ecuaciones (5.2), (5.3), (5.4), (5.7) y (5.8) se transforman en la forma esténdar de la programacién lineal: min u(k) sujeto a: Au(k) us (5.16) Pmin S pTu+ N(u) < Pmsx Umin SUS Uméx donde: N(u) = no linealidad u=[ty,...,un)” = fraccién de flujo en la entrada © = [e1,....¢n]” = funcidn de costo p= [pr pal’ = propiedad del flujo en la entrada, gsi = [Unase1s +++; Umaxn)” = fraccin de flujo maxima en la entrada tys-+)Umian]” = fraccién de flujo minima en la entrada Hin = [a Pmix = propiedad del flujo méxima en la salida Pmin = propiedad del flujo mfnima en la salida Realizando el siguiente desarrollo matemitico se tiene: Uy beh tly SL uy be tty 10 US time FU Use <0 UZ Umin + —U+ Umin SO Put N(u) S Passe + PTu+ N(U) ~ Pins SO pT ut N(u) > Paso + —pTu— N(u) + Pin SO 5.3 Analisis de robustez del controlador con redes neuronales para mezclado ul Tuen Umax On Treen Umin On mm ag ' , |0 Sustituyendo la funcién de Lagrangiano de la ecuaci6n (5.19) en las condiciones de la ecuacion (5.20) se tiene: c+ AD: + [Da + Vulu))” w= 0 Dlu+b=0 (5.21) Dy + be + w(u) = wre0 donde: 4 a glu) = [HOY BHOD] & ponesin rr ue Considerando solamente las condiciones referentes a las restricciones de Ia ecuacién (5.21) se tiene: Dt 0 by D; jut] ulu) Onn Vu(u)hn —c— AD, — DE 5.3 Analisis de robustez del controlador con redes neuronales para mezclado 13 El sistema algebraico se puede eseribir como: Ac + M(2) = Yep (5.22) donde se requiere para el analisis de estabilidad que la matriz. A sea invertible, por tanto se completan los términos de la siguiente manera: p=3nt3 Dt 0 D, O09) |e peer Opon Lone2e—49) 0 M(t)=| pw) | eR Valuyn c-)°™ |e u —b Usp = aby eR AD, — DE Se asogura que la matriz A es invertible debido a que: ty det (A) = det | D, mG) 29 Open Lonesietemss) De este modo, solamente para la prueba de estabilidad (y no para encontrar el 6ptimo), resolver el problema de programacién no lineal de la ecuacién (5.16) es equivalente a resolver cl sistema algebraico de la eeuacién (5.22) [12]. Para simplificar el anélisis, se consideran las siguientes suposiciones: AJL srgp ¢s la tinica solucién del sistema algebraico de la eenacién (5.22) para todo t > 0; es decir, existe solamente un valor ‘tgp tal que Aitep + M (ap) = Yap- Esto significa que top Optimizacién de petrdleo crudo via redes neuronales y actualizacién de datos (bias 14 updating) €s un extrem tinico del programa de la ecuaci6n (5.16). Si tigy no es una solucién inca, 1 resultado de la convergeneia descrito a continuacién se sostendré solo localmente (i. en una region de rep) A.2 Si Acs un estimado de A, ambas, A y A son matrices invertibles, esto significa que se supone una regularidad de tg relativo al problema de la ccuacién (5.16). Se asegura que la matriz. A es invertible debido a que: ae One(2n- det (A) =] Dy Oe) 120 9, [ansdean49) De este modo, acorde a las suposiciones A.1 y A.2 la solucién del problema de progra- macién no lineal de la ecuacién (5.16) es equivalente a resolver el sistema de ecuaciones algebraicas de la ecnacién (5.22) donde la no linealidad M(z) es no conocida. Desde la estructura de la teorfa de control, este problema se puede ver como el disefio de una estrategia de control robusto (contra las incertidumbres de la no linealidad) u(t) tal que u(t) — top asintoticamente. Sea la estrategia de control con esquema de aetualizacién correspondiente a la ecuacién (5.22) Se define el error de modelado asociado al sistema algebraico de la ecuacién (5.22)de la siguiente manera: A~A| «2+ M(c) (5.23) donde A es una matriz invertible estimada de la matriz A dado que A = A(qx) y A es el valor de A en un instante, De la ecuacién (5.28) se tiene: M(x) = B(x) — Ar + Ax Sustituyendo en la ecuacién (5.22) se tiene Ax + Bix) — Av + Ax = ysp 5.3 Andlisis de robustez del controlador con redes neuronales para mezclado 5 B(x) + Aw = yop (5.24) La correspondiente iteracién para la ecuacién (5.24) esta dada por: Atk = Yop — Be (5.25) La correspondiente iteracién para la ecuacién (5.23) esta dada por: By = |A- 4] t+ M(x) = Any + M(zx) — Ary By = yp — Ate (5.26) Este procedimiento lleva a un optimizador impropio debido a que se requiere ag para caleular la sefial del error de modelado de la ecuacién (5.26) el cual se requiere para la optimizacién y obtener el valor de 24, esto es, se requiere 2g para calcularse él mismo. Para resolver este problema se emplea una estimacién, es decir, en aplicaciones se puede emplear el valor anterior de 2, para caleular su valor actual (bias update) [3][12], de esta manera, de la ecuacién (5.26) se tiene: Beata Ate (5.27) siendo By el esquema de actualizacién para el optimizador en donde yg es la salida medida Optimizacién de petréleo crudo via redes neuronales y actualizacién de datos (bias 16 updating) cn un instante y ysp ¢s la salida deseada del sistema algebraico de la ecuaci6n (5.22) 0 es: 1 Une nin —b ~ “Prix —by Prin ~e~ AD, — DE Tun)" a = Yop = Yop(P) como ys depende de la propiedad de entrada p, y como p varfa con cada iteracién, entonces si se puede introducir yy. En virtud de la suposicin A.1, la afirmacién dada por las ecuaciones (5.25) y (5.27) es calcular la trayectoria de la entrada de control 2», tal que yz; —> Yop asintticamente. Las ecuaciones (5.25) y (5.27) se pueden combinar para dar: Ag+ M(t) = Yep a T= Fe1+A (Yop — Ye) (5.28) La salida medida introduce el término de correecin A (ysp— yx-1), con el cual xp se actualiza. Entonces es claro que si yy —> Yop asintoticamente, el evento de iteracién de la ecuacién (5.28) es estable. Por la suposicion A.1, esto implica que x, — zp asintoticamente (por tanto uy — top asintéticamente.) como se desea. 5.3 Analisis de robustez del controlador con redes neuronales para mezclado LT s, de la eenacién (5.28) se tiene Se tiene que yx = Ary + M(x), para todo k > 1, Entonet lo siguiente: a T= tet A (Yap — Ate I (tx-1)) (5.29) Ato + M (op), Se pueden sustituir en Sea ey, = rp — Lop ¥ dado que yop = Any + Bla la ecuacién (5.29) para obtener: _4 +A [Yep — Ate — M(zaa)] =m te = thr+A [Avep + M(eop) — Arya — M(24-1)] “1 nem tea —A [A Cea ~ tg) + Mla 2) ~ MCC eater A [Aes + M(a2) ~ Me] ex + Bop = T-1—-A Aeya—A [M(xq-1)— M(xep)] ‘ (M (2x1) — M(x] [M (24-1) — M(%e)] [M (ent + stop) ~ M(t] C= erty A Aen (nA Aen aA [M(en-1 +t) (a) (6.30) Debido a la suposicién A.1 la ecuacién (5.30) tiene un punto de equilibrio tinico ¢.4 = 0, por Jo menos en una vecindad del origen. Note que, si M(x) = 0 y A= A, entonees ey = Op, esto s, si no existe incertidumbre, el esquema de aetualizacion converge en un solo paso; por lo tanto, en presencia de una pequefia incertidumbre, el esquema de actualizacion convergeré asintéticamente al valor éptimo tap. Se afirma ésto en la siguiente proposicién [12] Proposicién 5.1 Considere el esquema de actualizacién descrito anteriormente. Entonces para todo x € R®, donde Juy(cr) es la matriz jacobiana de la no linealidad M(-r) Uy —> Upp Si 1 i,-A (A+ Ju(a))|] u; = 1 teniéndose por consiguiente una optimizacién se observa que ambas sefiales cexitosa, De la gréfica del inciso (b) de la Figura 5.3 donde se encuentran los valores éptimos para las facciones de flujo para el modelo completo del mezelador 2 con datos real se observa que ambas sefiales son no estables con valores uy = 0,6778, uz = 0,3222 que ¥ u, = 1 tenigndose por consiguiente una optimizaci6n no exitosa. De la gréfica del inciso a (c) de la Figura 5.3 donde se encuentra la funcién de costo dptima para el modelo completo del mezclador 2 con redes nenronales se observa que tiene un valor final de 32,8, De la grafica del inciso (4) de la Figura 5.3 donde se encuentra la funcién de costo éptima para el modelo completo del mezclador 2 con datos reales se observa que tiene un valor final de 33,3556. En la Figura 5.4 se simul6 controlador para el mezclado de erudo con redes neuronales, 2 entradas, 1 salida y una cota superior de xa 0.6;0.6]. De la grafica del inciso (a) de la Figura 5.4 donde se encuentran los valores 6ptimos para las facciones de flujo para el modelo completo del mezclador 3 con redes neuronales se observa que ambas sefiales son estables con valores uy = 0,4, wz = 0,6 y que} u; = 1 teniéndose por consiguiente una optimizacién a exitosa, De la gréfica del inciso (b) de la Figura 5.4 donde se encuentran los valores éptimos para las facciones de flujo para el modelo completo del mezelador 3 con datos reales se observa que ambas sefiales son estables con valores uy = 0,4, u2 = 0,6 y que > u; = 1 teniéndose iar por consiguiente una optimizacién exitosa. De la gréfica del inciso (c) de la Figura 5.4 donde se encuentra la funcién de costo 6ptima para el modelo completo del mezclador 3 con redes nouronales se observa que tiene un valor final de 32,8. De la gréfiea del inciso (d) de la Figura 5.4 donde se encuentra la funcién de costo éptima para el modelo completo del mezelador 3 con datos reales se observa que tiene un valor final de 32,8. Optimizacién con redes neuronales para la parte no lineal A continuacién se grafican los resultados, que son cuatro gréficas en una Figura y una Figura para cada mezclador (ver Figuras 5.5, 5.6 y 5.7) Optimizacién de petréleo crudo via redes neuronales y actualizacién de datos (bias 128 updating) Optimizacion para el modelo completo del Mezclador 3 Z08 - - g08 - - 3 : : B : : Zoos 206 $ $ § 5 3 202 & £ go 20 0 10 20 40 40 2 20}- B20 3 g € 6 = 20}- 9 20 S rol. S10 0 oO tiempo Figura 5.4: Optimizacién para el modelo completo del Mezclador 3 5.4 Simmulaci6n de la optimizacién fuera de Ifnea del mezclado de crudo con redes neuronal = La primer gréfica proporciona los valores 6ptimos de las fracciones de flujo de los componentes de entrada del modelo lo cuales son proporcionados por el controlador para el mezclado de crudo con redes neuronales. = La segunda gréfica proporciona los valores 6ptimos de las fracciones de flujo de los componentes de entrada del modelo lo cuales son proporcionados por cl controlador para el mezclado de crudo con redes neuronales. = La tercer grafica proporciona la funcién de costo éptima para el controlador empleado en cl mezclado de crudo con redes neuronales. = La cuarta gréfica proporciona la funcién de costo para el controlador empleado en el mezclado de crudo con datos reales. Para los programas de las Figuras 5.5, 5.6 y 5.7 se tiene una funcién de costo de 34:32), una matriz para la restriccién de igualdad de A0=[1,1], un elemento para la restriecién de igualdad de b0=1, una cota inferior de xi=(0;0), uma densidad minima a la salida del modelo de Pi=30, una densidad maxima a la salida del modelo de Pa=35, el valor inicial de la no linealidad para el esquema de actualizacién es delta(1)=0, una condicién inicial xx=0 y una matriz, para la restriecién de desigualdad de A1=[DE;-DE] donde DE es la densidad de los elementos de entrada del modelo. En la Fignra 5.5 se simulé el controlador para el mezelado de crudo con redes neuronales, 2 entradas, 1 salida y una cota superior de xa=(0.6;0.8]. De la gréfica del inciso (a) de la Figura 5.5 donde se encuentran los valores éptimos para las facciones de flujo para la no linealidad del mezclador 1 con redes neuronales se observa que ambas seiiales son estables ‘con valores 1; = 0,2, uz = 0,8 y que } uj = 1 teniéndose por consiguiente una optimizacién a exitosa. De la gréfica del inciso (b) de la Figura 5.5 donde se encuentran los valores 6pt 108, para las facciones de flujo para la no linealidad del mezclador 1 con datos reales se observa ‘que ambas sefiales son estables con valores u; = 0,2, uz = 0,8 y que Su; = 1 teniéndose a por consiguiente una optimizacién exitosa. De la gréfica del inciso (c) de la Figura 5.5 donde Optimizacién de petrdleo crudo via redes neuronales y actualizacién de datos (bias 130 updating) Optimizacion para la no linealidad del Mezclador 1 Z08 gos ‘ B & ‘ Zos 206 : $ 5 Hl gos goa § 5 ‘ g 02 2 & £ wo a 0 70 20 40 2 aol - z 3 3 é é = 20}- ° S107 s 0 tiempo Figura 5.5: Optimizacién para la no linealidad del Mezclador 1 5.4 Simmulaci6n de la optimizacién fuera de Ifnea del mezclado de crudo con redes neuronal Optimizacion para la no linealidad del Mezclador 2 z g08 & Fos 304 3 0.4 8 0.2 20.2 g 5 So & 40 40 2 30 : : a0}- : : z é $20 20}- g g S10 S tol. ° , i ° i i 0 10 20 30 0 10 20 30 tiempo tiempo Figura 5.6: Optimizacién para la no linealidad del Mezclador 2 se encuentra la funcién de costo dptima para la no linealidad del mezclador 1 con redes neuronales se observa que tienen un valor final de 32,4. De la gréfica del inciso (a) de la Figura 5.5 donde se encuentra la funcién de costo Sptima para la no linealidad del mezclador 1 con datos reales se observa que tienen un valor final de 32,4. En la Figura 5.6 se simul6 el controlador para el mezclado de erudo con rede es neuronales, 2 entradas, 1 salida y una cota superior de xa=[0.8,0.6]. De la grafica del inciso (a) de la Figura 5.6 donde se encuentran los valores éptimos para las facciones de flujo para la no linealidad del mezelador 2 con redes neuronales se observa que ambas sefiales son estables Optimizacién de petrdleo crudo via redes neuronales y actualizacién de datos (bias 132 updating) con valores 1 = 0,6269, uz = 0,3731 y que Su, = 1 teniéndose por consiguiente una ot optimizacién exitosa. De la gréfica del inciso (b) de la Figura 5.6 donde se encuentran los valores éptimos para las facciones de flujo para la no linealidad del mezclador 2 con datos reales se observa que ambas sefiales son no estables con valores 1; = 0,6778, uz = 0,322 y que J>u; = 1 teniéndose por consiguiente una optimizacién no exitosa. De la grifica del inciso (c) de la Figura 5.6 donde se encuentra la fumeién de costo 6ptima para la no linealidad de! mezelador 2 con redes neuronales se observa que tienen un valor final de 33,2537. De la gréfica del inciso (d) de la Figura 5.6 donde se encuentra la funcién de costo 6ptima para la no linealidad del mezelador 2 con datos reales se observa que tienen un valor final de 33,3555. En la Figura 5.7 se simulé el controlador para el mezclado de crudo con redes neuronales, {0.6;0.6]. De la grafica del inciso (a) de la Figura 5.7 donde se encuentran los valores éptimos para las facciones de flujo para la no li 2 entradas, 1 salida y una cota superior de x: iidad del mezelador 3 con redes neuronales se observa que ambas scfiales son estables con valores u; = 0,4, uz = 0,6 y que } uj = 1 teniéndose por consiguiente una optimizacién exitosa, De la gréfica del inciso (b) de la Figura 5.7 donde se encuentran los valores éptimos para las facciones de flujo para la no linealidad del mezclador 3 con datos reales se observa que ambas sefiales son estables con valores u; = 0,4, uz = 0,6 y que }~ w= 1 teniéndose por consiguiente una optimizacién exitosa. De la gréfica del inciso (c) de la Figura 5.7 donde se encuentra la funcién de costo dptima para la no linealidad del mezclador 3 con redes neuronales se observa que tienen un valor final de 32,8. De la gréfica del inciso (d) de la Figura 5.7 donde se encuentra la funcién de costo éptima para la no linealidad del mezclador 3.con datos reales se observa que tienen un valor final de 32,8. 5.4.3. Optimizacién del modelo agregado Para el modelo agregado se consideran los 3 mezcladores en un modelo teniéndose un programa para todos los mezcladores. Se obtienen los datos de los programa de Matlab para 5.4 Simmulaci6n de la optimizacién fuera de Ifnea del mezclado de crudo con redes neurondts Optimizacion para la no linealidad del Mezclador 3 08 06 0.4 (a)Fraccion de flujo (Red N) (b}Francion de flujo (Datos) oat 02 ° 0 oo 1080 4 40 Z ool. FZ aol - é & = 20f- © 20;- S ro}- S rol- ° 0 0 0 tiempo tiempo Figura 5.7: Optimizacion para la no linealidad del Mezclador 3 Optimizacién de petrdleo crudo via redes neuronales y actualizacién de datos (bias 134 updating) redes neuronales del capitulo anterior los enales se emplean para realizar el programa. Se tienen 2 programas para el controlador debido a que hay dos modalidades que son para el modelo completo y para la no linealidad las cuales se explicaron en el capitulo anterior. Optimizacién con redes neuronales para el modelo completo A continuacién se grafican los resultados, que son cuatro gréficas en una Figura (ver Figura 5.8): = La primer gréfica proporciona los valores dptimos de las fracciones de flujo de los componentes de entrada del modelo lo cuales son proporcionados por el controlador para el mezclado de crudo con redes neuronales. = La segunda gréfica proporciona los valores 6ptimos de las fracciones de flujo de los componentes de entrada del modelo lo cuales son proporcionados por el controlador para el mezclado de crudo con redes neuronales. = La tercer grafica proporciona la funcién de costo éptima para el controlador empleado en el mezclado de crudo con redes neuronales. = La cuarta grafica proporciona la funcién de costo para el controlador empleado en el mezclado de crudo con datos reales. Para el programa de la Figura 5.8 se tiene una funcidn de costo de e=[34;32;10;20], una matriz, para la restrieci6n de igualdad de AO=[1,1,1,1], un elemento para la restriccion de igualdad de b0- i=[0;0;0;0], una densidad minima a la salida del modelo de Pi=30, una densidad maxima a la salida del modelo de Pa=35, el valor inicial de , una cota inferior de Ja no linealidad para el esquema de actualizacién es delta(1)=0, una condiei6n inicial x= y una matriz para la restriecion de designaldad de A1=[DE;-DE] donde DE es la densidad de los elementos de entrada del modelo. En la Figura 5.8 se simuld el controlador para el mezclado de crudo eon redes neuronales, 4 entradas, 1 salida y una cota superior de xa=[0.6;0.5;0.5;0.2]. De la gréfica del inciso (a) 5.4 Simmulaci6n de la optimizacién fuera de Ifnea del mezclado de crudo con redes neurondtes Optimizacion para el modelo completo del Modelo Agregado zos 93 Boa Boa g 2 Bos Sos Son Zo2 g Sutin u2 xuale ua & She te Ey ooo 25 25 = FH 20f- é 8 15}- 4 3 10}- Sg & 2 Zz St. ° 0 tiempo tiempo Figura 5.8: Optimizacién para el modelo completo del Modelo Agregado Optimizacién de petrdleo crudo via redes neuronales y actualizacién de datos (bias 136 updating) de la Figura 5.8 donde se encuentran los valores éptimos para las facciones de flujo para el modelo completo del modelo agregado con redes neuronales se observa que todas las sefiales son estables con valores u; = 0,0, up = 0,3, us = 0,5, ws = 0,2 y que > u; = 1 teniéndose (b) de la Figura 5.8 donde se encuentran los valores éptimos para las facciones de flujo para el modelo completo del obs por consiguiente una optimizacién exitosa. De la grafica del in modelo agregado con datos reales -va que no todas las sefiales son estables con valores uy = 0,0, up = 0,3725, us = 0.4275, us = 0,2 y que )u; = 1 teniéndose por consiguiente ‘una optimizacién no exitosa, De la gréfica del inciso (c) de la Figura 5.8 donde se encuentra la fincién de costo ptima para el modelo completo del modelo agregado con redes neuronales se observa que tienen un valor final de 18,6, De la gréfica del inciso (4) de la Figura 5.8 donde se encuentra la funcién de costo éptima para el modelo completo del modelo agregado con datos reales se observa que tienen un valor final de 20,1958. Optimizacion con redes neuronales para la parte no lineal A continuacién se grafican los resultados, que son cuatro gréficas en una Figura (ver Figura 5.9): = La primer gréfica proporciona los valores éptimos de las fracciones de flujo de los componentes de entrada del modelo los cuales son proporcionados por el controlador para el mezclado de crudo con redes neuronales. = La segunda gréfica proporciona los valores Gptimos de las fracciones de flujo de los componentes de entrada del modelo lo cuales son proporcionados por el controlador para el mezclado de crudo con redes neuronales. = La tercer grafica proporciona la funcin de costo éptima, para el controlador empleado en el mezclado de crudo con redes neuronales. = La cuarta gréfica proporciona la funcién de costo para el controlador empleado en el mezclado de crudo con datos reales. 5.4 Simmulaci6n de la optimizacién fuera de Ifnea del mezclado de crudo con redes neuronde® imizacion para la no li alidad del Modelo Agregado 2 gos 2 Sos 2 2 02 8 Zo s Bo 25 = 20}- z € 15) é 2 2 gr g 8 g & s}- z ° : : } : : 0 10 20 30 0 10 20 30 tlempo tiempo Figura 5.9: Optimizacién para la no linealidad del Modelo Agregado Para el programa de la Figura 5.9 se tiene una funcidn de costo de ¢=[34;32;10;20], una matriz, para la restric: (6n de igualdad de AO=[1,1,1,1], un elemento para la restr igualdad de bO=1, una cota inferior de xi=[0;0;0,0], una densidad minima. a la salida del modelo de Pi=30, una densidad maxima a Ja salida del modelo de Pa=35, el valor inicial de ion de la no linealidad para el esquema de actualizacién es delta(1)=0, una condicién inieial xx=0 y una matriz para la restriccién de desigualdad de Al=[DE;-DE] donde DE es la densidad de los elementos de entrada del modelo. Optimizacién de petrdleo crudo via redes neuronales y actualizacién de datos (bias 138 updating) En la Figura 5.9 se simuld el controlador para el mezclado de crudo eon redes neuronales, 4 entradas, 1 salida y una cota superior de xa=[0.6;0.5;0.5;0.2]. De la gréfica del inciso (a) de la Figura 5.9 donde se encnentran los valores 6ptimos para las facciones de flujo para la no linealidad del modelo agregado con redes neuronales se observa que todas las sefiales son stables con valores u1 = 0,0, up = 0,4958, tts = 0,3047, uy = 0,2 y que ) us = 1 teniéndose = por consigniente una optimizacion exitosa, De la grifica del inciso (b) de la Figura 5.9 donde se encuentran los valores éptimos para las facciones de flujo para la no linealidad del modelo agregado con datos reales se observa que no todas las sefiales son estables con valores uy = 0,0, uz = 0,3725, us = 0.4275, us = 0,2 y que Su; = 1 teniéndose por consiguiente = ‘una optimizacién no exitosa. De la grafica del inciso (c) de la Figura 5.9 donde se encuentra la fumeién de costo éptima para la no linealidad del modelo agregado con redes neuronales se observa que tienen un valor final de 22,8969. De la grafica del inciso (d) de la Figura 5.9 donde se encuentra la funcién de costo éptima para la no linealidad del modelo agregado con datos reales se observa que tienen un valor final de 20,1958. 5.5 Conclusion 139 5.5. Conclusién En ésta secci6n se realiza un andlisis de la robustez del controlador optimizante, el princi- pal resultado establece que el controlador optimizante converge al valor 6ptimo siempre que la parte no lineal (0 desvie ‘én de lo ideal) de la regla de mezclado y las variaciones en los elementos de aliment: mn tengan una contribucién muy pequefia sobre las propiedades eual- itativas de mezclado. Esto restringe el empleo del controlador optimizante para sistemas de mezclado donde las variaciones del sistema son insignificantes. Ademds, se realiza un andlisis de robustez para cl controlador optimizante con redes neuronales, donde, se demuestra cl se tiene una mayor robustez para el controlador optimizante con redes neuronales que para el que no las emplea dado que para el que emplea redes neuronales se tiene un valor de la no linealidad atin menor que para el caso donde no las emplea. En el desarrollo de esta seccién se realiza una comparacién entre el controlador opti- mizante para el mezclado de erndo con redes neuronales contra el controlador optimizante para el mezclado de crudo con datos reales teniéndose mejores resultados para el que em- plea redes neuronales dado que las fracciones de flujo de los elementos de entrada fueron més estables y se tuvo um menor valor en la funcién de costo, comprobindose con esto que es recomendable el empleo de un controlador optimizante con redes neuronales para tener resultados mas estables y un menor costo, Tomando en consideracién la funcién de costo el mejor de todos es el controlador optimizante con redes neuronales para el modelo completo. El resultado anterior se corrobora mediante la siguiente tabla. M1 = Mezelador 1 CORN = Controlador optimizante con redes neuronales M2 = Mezclador 2 CODR = Controlador optimizante con datos reales M3 = Mezelador 3 MA = M.Agregado Optimizacién de petréleo crudo via redes neuronales y actualizacién de datos (bias 140 updating) Aplicado al modelo completo ut tls tty Costo. Estabilidad CORNMI 02 08 — — 324 — Estable 04 06 32,8 Estable 04 06 - — 328 — Estable CORNMA 0.0 03 0,5 0,2 186 — Estable CODRM1 02 08 — — 324 — Estable CODRM2 0.6778. 0.3222 33,3555 No estable CODRM3 04 06 — — 328 — Estable CODRMA 0,0 _0,3725 04275 0,2 20,1958 No estable Aplicado al la no linealidad uy uw, us ug Costo Estabilidad CORNM1 0.2 08 32,4 Estable CORNM2 0,6269 0.3731 33,2537 Estable CORNM3 0.4 06 32,8 Estable 0,0 0.4953 0,3047 0,2 22,8969 — Estable CODRM1 0.2 08 32,4 Estable CODRM2 0,6778 0.3222 33,3555 No estable CODR) 04 06 32,8 Estable CODRMA 0,0 0,3725 0,4275 0,2. 20,1958 No estable Capitulo 6 Conclusiones El principal resultado obtenido en este trabajo muestra que la aplicacién de un control optimizante con redes neuronales en el control de procesos de mezclado de petréleo crudo, garantiza entregar uma mezcla con las condiciones de calidad requeridas a un costo minimo. La convergencia del controlador propuesto a los valores éptimos dependeré de que la no linealidad en la mezcla y los cambios en las corrientes de entrada sean lo suficientemente pequefios en la contribucién en la densidad de salida de la mezcla, 0 de mezclado el controlador solo tiene En la representacién distribuida de un proc informacién de las capacidades de las corrientes de entrada del mezclador al que se aplica, desconociendo las del que le precede, Esto ocasiona un aumento en la sensibilidad a cambios y una disminueién del espacio de s lucién de los controladores que le preceden. En cuanto a la representacién agregada, el controlador tiene informacién de las capacidades de todas las corrientes de entrada al proc 10, esto hace que ea menos § nsible a los cambios y estabilizar més répido la densidad de la mezcla deseada. En la seccién de optimizacién se realiza un andlisis de la robustez del controlador op- timizante, el principal resultado establece que el controlador optimizante converge al valor 6ptimo siempre que la parte no lineal (o desviacion de lo ideal) de la regla de mezclado y las variaciones en los elementos de alimentacién tengan una contribucién muy pequefia sobre las propiedades cualitativas de mezclado. Esto restringe el empleo del controlador optimizante 142 Conclusiones para sistemas de mezclado donde las variaciones del sistema son insignificantes. Ademés, se realiza un andlisis de robustez para el controlador optimizante con redes neuronales, donde, se demuestra el se tiene una mayor robustez para el controlador optimizante con redes neu- ronales que para el que no las emplea dado que para el que emplea redes neuronales se tiene un valor de la no linealidad atin menor que para el caso donde no las emplea. En la seccién de modelaci6n se realiza uma comparacién entre la identificacién via least square contra la identificacién via redes neuronales para el modelo completo y contra la identificacién via redes neuronales para la no linealidad teniéndose mejores resultados para la identificacién vfa redes neuronales para la no linealidad dado que en éste caso se tiene una. generalizacion excelente ,i.e., las sefiales identificada y la deseada son muy aproximadas, y ademés, se ocupa un menor niimero de épocas para la generalizaci6n, comprobandose con esto que es recomendable el empleo de las redes neuronales para tener mejores resultados en la identificacion para el proceso de mezelado de crudo, En la seccin de optimizacién se realiza una comparacién entre cl controlador optimizante para el mezelado de crudo con redes neuronales contra el controlador optimizante para el mezclado de crudo con datos reales teniéndose mejores resultados para cl que emplea redes neuronales dado que las fracciones de flujo de los elementos de entrada fueron mas estables y se tuvo un menor valor en la funcién de costo, comprobéndose con esto que es recomendable el empleo de un controlador optimizante con redes neuronales para tener resultados mas stables y un menor costo. Tomando en consideracién la funcién de costo cl mejor de todos es el controlador optimizante con redes neuronales para el modelo completo. En el apéndice A se encuentra una Interfase Gréfiea de Usuario (GUI) la cual contiene los resultados de las seeciones de modelacién y de optimizacién, Como trabajo futuro se encuentran los siguientes puntos: = Aunque agui se presenté la representacién de un proceso de mezclado con nodos mez- cladores y el proceso en el caso de estudio, se requiere una generalizacion de un con- trolador optimizante para procesos de mezclado que contengan otros tipos de nodos y procesos, como columnas de separacion, estabilizadores, separacion de fases, ete 143 requiere una caracterizacién més completa del comportamiento dinémico del mez- clado en tanques de almacenamiento y buque tanques. = Se requiere una caracterizaci in més completa del comportamiento dindmico de los tanques donde se realiza la operacién de mezclado. 144 Conclusiones Apéndice A Simulacién con GUI A.1. Estructura del GUI Las Interfases Gréficas de Usuario (GUI’s) contienen varios componentes de interfases de usuario que habilitan al software para comunicarse con un usuario final. Una de las tareas de implementar el GUI es controlar la forma en que el GUI responde a las acciones del usuario 5][23] A.1.1, Entrada Botones push El bot6n push genera una accién cuando se presiona (i.e. un OK al botén puede cerrar uma caja de didlogo). Cuando se hace click sobre un botén push, éste aparece presionado; cuando se pone en libertad el botén del rat6n, la apariencia retorna a su estado no-presionado; ejecuta su callback (tuna accién) sobre un evento. Botones toggle El botén toggle genera una accién y indica un estado binario (i.e. encendido 6 apagado) Cuando se hace click sobre un botén toggle, éste aparece presionado y permanece presionado 146 Simulacién con GUI cuando se pone en libertad el botén del ratén, en éste estado se ejecuta su callback, Un subsecuente click al bot6n del ratén regresa al bot6n toggle a su estado no-presionado y de nuevo ejecuta su callback Memis popup Los memis popup se abren para desplegar una lista de elecciones (definidas mediante poner el nombre en una cadena de letras, o mejor conocida como string) cuando el usuario presiona el recténgulo que la define. Cuando no esta abierto, un menti popup despliega la cleceién actual, el cual esta determinado por el indice contenido en el Value property. El primer articulo en la lista tiene un indice 1. Los memi popup son titiles enando se requiere proporcionar un nrimero de eleceiones mutuamente exclusivas, pero no quiere tomar una gran cantidad de espacio como es el caso de los radio buttons (botones radio) Cajas listas La caja lista despliega una lista de articulos (definida usando una propiedad string) y habilita al usuario para seleccionar uno 0 més articulos. El valor de la propiedad contiene un indice dentro de la lista de cadenas que corresponde con el articulo seleccionado. Si el usuario selecciona miiltiples articulos, entonees el valor es un vector de indices, entonces el primer artfculo en la lista tiene un indice 1. ‘Textos editables El control del texto editable es un campo que habilita al usuario a meter © modificar cadenas de texto. Se emplea el texto editable cuando se quiere el texto como una entrada. La propiedad string (cadena de caracteres) contiene el texto introdueido por el usuario. A.1 Estructura del GUI 147 A.1.2. Salida Ejes Los ejes habilitan el GUI para desplegar gréficas de salida (ie. graficas e imagenes). Los ejes no son objetos uicontrol, pero se pueden programas para habilitar la interaccién del usuario con los ejes y los objetos gréficos desplegados en los ejes Figuras Las figuras son ventanas contenidas en el GUI para el diseiio del editor de configuracién. Textos estaticos El texto estatico despliega lineas de texto, El texto estitico tipicamente se emplea para ctiquetar otros controles, guiando al usuario o indicando los valores de un deslizador. El usuario no puede cambiar el texto estitico y no hay un camino para invocar la rutina callback asociada con éste, A.1.3. Simulador de las redes neuronales y del controlador opti- mizante Existen muchos elementos los cuales permiten al usuario comunicarse con el software pero el que se emplea en este documento es el memi popup. Los mentis popup se abren para desplegar una, lista de elecciones (definidas mediante poner el nombre en una. cadena de letras, o mejor conocida como string) cuando el usuario presiona el recténgulo que la define. Cuando no esta abierto, un menti popup despliega la eleccién actual, el cual est4 determinado por el indice contenido en el Value property. El primer artfeulo en la lista tiene un indice 1 Los memi popup son titiles cuando se requiere proporcionar un nitmero de elecciones mutuamente exclusivas, pero no quiere tomar una gran cantidad de espacio como es el caso de los radio buttons (botones radio) 148 Simulacién con GUI En este desarrollo se presenta el GUT el cual muestra en un solo programa los resultados de Ia identificacion con redes neuronales para el modelo completo y para la no linealidad, también muestra los resultados del controlador optimizante con redes neuronales para el modelo completo y para la no Tinealidad (los resultados citados se explican con detalle en los dos capitulos anteriores). Este programa consta de enatro ments los euales corresponden cada uno a los resultados citados y cada menti consta de la eleceién de cada uno de los tres mezcladores para el modelo distribuido y para el modelo agregado. El programa de GUI tiene cuatro etiquetas las cuales tienen el siguiente significado: RNMC = Red neuronal para cl modelo completo RNMC = Red neuronal para la no linealidad COMC = Controlador optimizante para cl modelo completo RNMC = Controlador optimizante para la no linealidad En la Figura A.1 se muestra el programa de GUI para la opcién de la red neuronal para la no linealidad del mezclador 2. Por tiltimo, en la Figura A.2 se muestra el programa de GUI para la opcién del controlador optimizante para el modelo completo del modelo agregado. A.1 Estructura del GUI 149 NMC a) BNNL J Ler ers Pico Mercado!) panes) Roce Figura A.1: GUI en Ia opcidn de la red neuronal para la no linealidad del mezclador 2 Simulacién con GUI See son o fers urea eels Yet ote ee ne ANN Marcedor2 =] COME. J Acrececo >} CONL (Fed N) oreceer ene Figura A.2: GUL en la opeién del controlador optimizante para el modelo completo del modelo agregado Apéndice B Método Simplex La programacién lineal es un método de optimizacién aplicable para solucién de prob- Jemas en los cuales la funci6n objetivo y las restricciones aparecen como funciones lineales de las variables de decision. Las ccuaciones de restriccién en el problema de programacién lineal se pueden expresar como igualdades o como desigualdades (11[20]. B.1. Forma estdndar de un problema de programacién lineal El problema de programacién lineal se enuncia de la signiente forma: = En forma escalar. Minimizar f(w1,22,..-,2n) = ct + ¢2@2 +... + ntn (B.1) sujeto a las siguientes restrieciones: yt, + arta +... + Aintn = by yt) + Agy +... + Oynity = by (B2) Ail) + O22 ++ Onan = Om 152 = En forma matric! Minimize: sujeto a las siguientes restrieciones: donde: En m>0 20 2, 20 aX = Método Simplex (B3) (Ba) (B.5) (B6) an a2 an an an An nt Ome Ayn Las caracteristicas del problema de programacién lincal se enuncian en la forma esténdar como sigue: 1. La funcién objetivo es de tipo minimizacién. 2. Todas las restricciones son de tipo igualdad. 3. Todas las variables son no negativas. El problema de programacién lineal se puede poner en la forma est4ndar usando las siguientes transformaciones. B.1 Forma estsindar de un problema de programacién lineal 183 La maximizacién de una funcién f(1,t2,..-,-tn) es equivalente a la minimizacién del negativo de la misma funcién. Por ejemplo: minimize ty + Oata +... + onen es equivalente a: maximize Pa fs eres = ent. — = natn Una variable puede no estar restringida en signo para algunos problemas. En tales casos, una variable no restringida (la cual puede ser positiva, negativa, 0 cero) se puede describir como una ecuacién de diferencia de dos variables no negativas. Ast, si ry no est restringida en signo, esta se puede escribir como rj = 2 — x20 yap20 2; ser negativa, cero o positiva dependiendo sobre que © Si aparece una restriccién en la forma de "menor que"de la siguiente forma: Qu 1 + pgT2 +... + AknTn S dy Este se puede convertir en forma de igualdad adicionando una variable no negativa Tet Ay1ty + On2t2 +. + Oentn + Eni = De Similarmente, si aparece una restriccién en la forma de "mayor que"de la siguiente forma: dant1 + Ogata +. + itn 2 De Este se puede convertir en forma de igualdad adicionando una variable no negativa Tug p11 + Apt +... + Aknitn — Tria = de donde 2,41 ¢s una variable no negativa conocida como variable excedente. 154 Método Simplex B.2. Algoritmo simplex El punto de inicio de un algoritmo simplex es siempre un espacio de ecnaciones, la cnal incluye la funcién objetivo con restrieciones de igualdad del problema en forma candnica. Ast el objetivo del algoritmo simplex es encontrar el vector X > 0 el cual minimize la funci6n objetivo f(X) y satisfaga las ecuaciones: Doty Ota tee 0° ty + aangatines ee + Minn = by Oat Le tg te +06 tm + Gampitmer +++ Manin = be : (B27) Day FOr tye $12 + Omg tmety FoF Ante = bm O- ay + 0+ aa te 0-8 — f+ Cmmettmtt + +++ + Canta = —fo donde aij, ¢3,b; y fo son constantes. Note que (—/) es tratada como una variable basica en la forma candnica de la ecuacién (1.7). La ecuaci6n a la que se puede reducir desde ecuacion (B.7) es: a =b, i=1,2,...5m f=fo (B8) m+lmt2....n Si esta solucién bésica es también factible, lo valores de 2;, i= 1,2,...,n son no negativos y por lo tanto: b> 0, = 1,2,...,m (B.9) En la fase I del método simplex, la solueién basiea corresponde a obtener la forma eanénica después de la introduccién de variables artificiales y se obtendra un problema artificial. La fase IT del método simplex inicia con la solueién factible basica del problema de programacion lineal original. Por lo tanto en la forma candnica inicial en el ini io del algoritmo simplex siempre es una solucién factible bésica, B.3 Identificando un punto éptimo 155 B.3. Identificando un punto é6ptimo Teorema B.1 Una solucién factible bésica es una solucién dplima con el valor minimo de la funcion objetivo de fa si todos los coeficientes de costo cj, j =m +1,m+2,-+,n en la ecuacién (B.7) son no negativos Para la ecuacidn (B.7) se puede escribir: for SO cai=f (B.10) jst Si ci > 0 para i = m+ 1,m+2,...,n, entonces al incrementar el valor de cualquier x; no puede decrementar el valor de la funcién objetivo f. Desde que no se pueden cambiar el valor de las variables bésicas tal que causen que f decrezea, el valor de la funcién deberfa ser 6ptimo en f = fo B.3.1._ Mejorando una solucién factible basica no 6ptima Desde la titima fila de la ecuacién (B.7), se puede escribir la funcién objetivo como: L= fot Doan + SO esx; = fo debido a la soluci6n dada en ecuacién (B.8) (B.11) a mn Si alo menos un c <0, cl valor de f se puede reducir haciendo cl correspondiente 2; > 0. al mismo tiempo, debido a la operacién de pivote, una de las variables basicas corrientes se convierte en no basica y por lo tanto los valores de las nuevas variables basicas se ajustarén para obtener un nuevo valor de f < fy. Si hay mas de un c; <0, el indice s de la variable no basica z, el cual la hace basica es: cj =minimo — (¢; <0) (B.12) Habiendo decidido sobre la variable x, a convertirse en bésica, se incrementa desde cero sosteniendo todas las otras variables como cero y observando el efecto sobre las variables 156 Método Simplex basicas corrientes. ny =b— ats, 6) 20 y= dy—aets, by 20 2 = dy ay, 2 (B13) Lm = bm —~Amsts, bm 20 fHfotet, <0 (B.14) Se puede ver que si todos los coeficientes a;, <0, i = 1,2,...,m, entonces , se puede hacer infinitamente grande sin hacer ningtin x; <0, i = 1,2,...,m. En tal caso el problema tiene una solucién no acotada. Por otro lado, si a lo menos un aj, > 0, el valor maximo que 2, puede tomar sin hacer 2; negativo es (bi/dis) El mas grande valor «+ que 2 puede tomar es: t= 22 =minimo — (bi/ax) (B.15) Sustituyendo el valor de 23 dado por ecuacién (B.15) en ecuaciones (B.13) y (B.14) se tiene: Be = bi — dist 2 0, L2Q.m ifr B.16) a =0 @.16) mtlmt2.un j#s f= fort cots < fo (B.17) Realizando Ia operacién de pivote sobre el sistema de la ecnacién (B.7) dara una nueva forma candnica desde la cual se deduce la ecuacién (B.16). La ecnacién (B.17) mnestra que Ja soluci6n factible basica corresponde a un valor de la funcién objetivo menor comparado con 1 valor de la ecuaci6n (B.8). En el algoritmo simplex , este procedimiento es repetitivo hasta que el algoritmo encuentra cualquiera de lo siguiente: (i) una clase de soluciones factibles para las enales / + —co o (ji) una solucién factible bésica para la cual todos los ¢; > 0, G=1,2,...

You might also like