Vous êtes sur la page 1sur 15

IV Simposio Internacional de

Automatizacin
24 al 27 de Octubre de 2001 - Lima, Per
Categora: Inteligencia artificial aplicada al control de
procesos industriales
Aplicacin de Redes Neuronales en Control de Procesos , un
Tutorial sobre su aplicacin en Planta Piloto Pedaggica
Ing. Alfredo Puglesia,* ,Dr. Dante Salatinob ,Ing. Mara Susana Bernasconic
Dentro de las tendencias innovadoras en Control de Procesos estn las
aplicaciones basadas en Redes Neuronales , este Tutorial describe el estudio
y desarrollo de un proyecto que tiene por objetivo su implementacin sobre
una Planta Piloto Pedaggica diseada por los autores y construida por los
alumnos bajo la supervisin de los mismos , dicha Planta funciona
satisfactoriamente desde 1996 y sirve para prctica y entrenamiento de los
estudiantes en el conocimiento de la instrumentacin, la dinmica del sistema y
el correspondiente ajuste ptimo de sus controladores.
INTRODUCCION A REDES NEURONALES ARTIFICIALES
El nacimiento de las Redes Neuronales Artificiales (RNA) est sustentado en la
bsqueda de mtodos alternativos para la resolucin de problemas y su origen
en la imitacin seudointeligente de lo que se asume como el comportamiento
de sistemas biolgicos.
EL MODELO BIOLOGICO
El cerebro humano contiene alrededor de1011 neuronas, su clula fundamental.
Cada una de estas neuronas procesa y se comunica con millares de otras en
forma continua y paralela. La estructura de las neuronas (nodos), la topologa
de sus conexiones y el comportamiento conjunto de estas unidades, conforman
la base para el estudio de las RNA.
Las redes neuronales naturales posibilitan algunas de las funciones que son
patrimonio de la biologa como: reconocer patrones, relacionarlos, usar y
almacenar conocimiento por experiencia, adems de interpretar observaciones.

Si bien an hoy no conocemos con precisin el detalle de las funciones


cerebrales s se sabe de la estructura fisiolgica bsica y es la que ha dado pie
al desarrollo de las RNA.
Las RNA intentan reproducir las funciones de las redes biolgicas tratando de
emular su comportamiento y dinmica. No obstante de ser bastante diferentes
entre ellas.
Como caracterstica comn los dos sistemas se basan en unidades de clculo:
las neuronas, paralelas y distribuidas que se comunican mediante conexiones
llamadas sinapsis.
LA NEURONA BIOLOGICA
De forma esquemtica una neurona biolgica se compone de tres partes
principales: el cuerpo de la clula (soma), las dendritas y el axn.

Figura 1 - Neurona

Las dendritas tienen como funcin recibir la informacin en forma de impulsos


nerviosos desde otras neuronas y conducirlos al cuerpo celular el que los
procesa, generando como resultado, nuevos impulsos. Estos luego, a travs
del axn, son conducidos a las dendritas de otras neuronas.
En las sinapsis las neuronas se unen funcionalmente formando una red y es
aqu donde se produce el control de la transmisin de los impulsos o sea el
flujo de informacin entre ellas.
Las seales procedentes de la neurona presinptica son pasadas a la neurona
postsinptica donde son sumadas con otras seales similares recibidas por la
misma. Si el resultado obtenido, en un intervalo dado de tiempo, es lo
suficientemente alto como para superar un nivel de umbral, la clula dispara un
impulso que es transmitido a la clula siguiente (neurona postsinptica).
Es la simplicidad de este sistema la responsable de la mayoria de las funciones
llevadas a cabo por nuestro cerebro y seran una consecuencia de la operacin
en paralelo de todas las neuronas del mismo.
En el cerebro hay dos tipos fundamentales de comunicacin: qumica
(neurotransmisores) entre neuronas y elctrica (potencial de accin) dentro de
una neurona.
En la clula nerviosa existe una diferencia de potencial entre su interior y el
exterior debida a una concentracin mayor de K+ interna y una concentracin

mayor de Na+ externa (polarizacin). Es la concentracin intracelular de K+ la


principal responsable del potencial de reposo (-70mV aproximadamente). Para
que la clula dispare un potencial de accin, es necesario que los impulsos
sinpticos reduzcan este potencial de reposo a alrededor de 40mV (umbral).
En ese instante por pasaje de Na+ hacia el interior y de K+ hacia el exterior
mediante canales especficos operados por voltaje, se invierte la polaridad
celular, haciendo sbitamente el interior celular positivo respecto del exterior
(despolarizacin). Esta inversin de polaridad hace que el impulso nervioso se
propague a travs del axn, hasta sus conexiones sinpticas.

Figura 2 Potencial de accin

Cuando el impulso llega a los terminales del axon, sus canales se abren
liberando molculas neurotransmisoras en el espacio sinptico (regin entre la
membrana presinptica y postsinptica) y el proceso contina en la neurona
siguiente.
Hay distintos tipos fundamentales de neurotransmisores, aquellos que inducen
una despolarizacin (accin excitatoria) y otros que promueven una
polarizacin (accin inhibitoria) manteniendo la clula en su estado cercano al
de reposo.
La sumatoria de acciones excitatorias e inhibitorias de todas las neuronas
presinpticas determinarn la generacin o no de un impulso por parte de la
neurona postsinptica.
Despus de generar un impulso, la neurona ingresa en un periodo refractario
durante el cual no puede ser nuevamente estimulada hasta tanto no alcance su
potencial de reposo, momento en el cual queda preparada para producir un
nuevo impulso.
EL MODELO ARTIFICIAL
Como definicin genrica podramos adoptar la de Hecht-Niesen que especifica
a una Red Neuronal como ... un sistema de computacin constituido por un
gran nmero de elementos simples, elementos de proceso muy

interconectados, los cuales procesan informacin por medio de su estado


dinmico como respuesta a entradas externas.
Si se acepta esquemticamente la especificacin anterior, las redes artificiales
entonces, pueden imitar bastante bien varios de los aspectos que son
patrimonio del cerebro ya que, pueden aprender de la experiencia, generalizar
ante nuevos planteos, abstraer aspectos esenciales de informacin irrelevante,
entre otros.
Los aspectos puntualizados sustentan las ventajas que tienen las RNA al ser
aplicadas para la resolucin de problemas en distintas reas y esto est dado
por el hecho de poder realizar un aprendizaje adaptativo, basado en un
entrenamiento o experiencia previa. Por otro lado una RNA puede
autoorganizar la representacin de la informacin que recibe en el aprendizaje.
Adems pueden retener sus capacidades esenciales, aunque sufran prdidas
estructurales importantes, operar en tiempo real y ensamblarse en forma
modular con cualquier tecnologa existente.

LA NEURONA ARTIFICIAL
Las RNA son modelos que con limitaciones, por necesaria simplificacin,
intentan reproducir el comportamiento cerebral. Tales modelos constan de
dispositivos
elementales,
las
neuronas,
que
posibilitan
distintas
representaciones especficas de informacin.
La idealizacin de la estructura biolgica permite distinguir al menos tres tipos
de neuronas , las que reciben la informacin externa - neuronas de entrada- ,
las que representan internamente dicha informacin - neuronas ocultas - y las
que hacen evidente las respuesta del sistema - neuronas de salida .
La dinmica de la activacin de las neuronas de una red puede evolucionar
evaluando su estado continuamente segn va llegando la informacin , o sea
en forma independiente o asncrona o por el contrario los cambios se realizan
simultneamente , forma sncrona.
Al conjunto de las neuronas cuyas entradas provienen de una misma fuente y
cuyas salidas se dirigen a un mismo destino , se lo denomina capa o nivel .

Figura 3 Estructura de una red

ESTADO DE ACTIVACION
Las neuronas que componen la red se pueden encontrar en uno de dos
estados posibles de activacin : reposo o excitacin. Se le puede asignar a
cada uno de ellos un valor discreto ( 0 : reposo , 1 : excitado ) o continuo si
se le da un valor comprendido en un intervalo , usualmente entre 0 y 1 entre
1 y 1.
FUNCION DE ACTIVACION
Es aquella que asociada a cada neurona transforma el estado actual de
activacin en una seal de salida siempre y cuando supere un nivel de umbral
(figura 4). Siguiendo el modelo neuronal artificial desarrollado por McCullooch
y Pitts (MP) existe una funcin que activa o no la salida dependiendo de la
suma ponderada de sus entradas, dada por la siguiente ecuacin:

Figura 4 - Neurona de McCulloch y Pitts

El modelo MP tiene algunas particularidades:


- Que al ser de una sola capa slo resuelve funciones linealmente
separables.
- Los pesos asociados a las entradas son fijos, no ajustables
A partir del modelo MP se han derivado otras funciones de activacin que
permiten una salida no necesariamente de 0 1. La figura 5 ilustra otras
funciones de activacin.

Figura 5 - Funciones de Activacin

PRINCIPALES ARQUITECTURAS DE LAS RNA


La arquitectura en las RNA es un aspecto importante en su concepcin ya que
hace al tipo de problema a resolver por la misma. Los siguientes parmetros
definen el tipo de arquitectura:
1. Nmero de capas y nmero de neuronas en cada capa de la
red.
2. Tipo de conexin entre las neuronas.
3. Grado de conectividad de la red.
1. En cuanto al nmero de capas se puede tener:
1.1. Redes de capa nica: Slo hay una neurona entre cualquier entrada y
cualquier salida de la red (figura 6a).
1.2. Redes de capas mltiples: Existe ms de una neurona entre alguna
entrada y alguna salida de la red (figuras 6b, 6c, 6d).
2. Las neuronas pueden tener conexiones del tipo:
2.1. Feedforward (conexiones hacia delante) o acclica (FF): La salida de
una neurona en la isima capa de la red no puede ser usada como
entrada a neuronas en capas de ndice menor o igual (figuras 6a, 6b,
6c)
2.2. Feedback (conexiones hacia atrs) o cclica (FB): La salida de una
neurona en la isima capa de la red puede ser usada como entrada a
neuronas en capas de ndice menor o igual (figura 6d, 6e)

Figura 6 - Arquitecturas de las RNA

3. En cuanto al grado de conectividad, se pueden clasificar en redes


parcialmente conectadas (figuras 6b, 6c, 6d) y redes completamente
conectadas (figuras 6a, 6e)
PROCESO DE APRENDIZAJE DE UNA RNA
Los procesos de aprendizaje pueden ser rastreados hasta 1949 cuando Hebb
introduce la primera regla
con potencial para demostrar los posibles
mecanismos que una RNA puede utilizar para aprender.
Es a partir de 1982 que se dan a conocer nuevos paradigmas neuronales y
algoritmos de aprendizaje que pueden ser divididos en dos categorias bsicas:
a. Aprendizaje supervisado: Requiere de un maestro u otra fuente de
informacin que especifique directamente a la RNA la respuesta correcta
para cada estmulo definido a la entrada. Por ejemplo el maestro puede
ser un humano o un proceso real generando casos tpicos de salida
requerida, en correspondencia a un conjunto definido de entrada. Uno
de los ms populares es el denominado Backpropagation of error (BP)
- (propagacin hacia atrs del error) dado que usa patrones que
especifican directamente la salida deseada.
b. Aprendizaje no supervisado: Requiere que la RNA determine alguna
estructura a partir de la informacin que se le presenta; en este caso no
hay un maestro dictando las respuestas correctas y la red debe
determinar por s misma cmo generar las salidas correctas a partir
generalmente, de una redundante presentacin de patrones de entrada.
RNA TIPO FF CON APRENDIZAJE BP
Es la ms comunmente usada y la que emplearemos en este trabajo. La
estructura general se muestra en la figura 7.

Figura 7 - Algoritmo back-propagation

El algoritmo BP es una regla de aprendizaje que se puede aplicar en modelos


de redes con ms de dos capas de neuronas. Una caracterstica importante de
este algoritmo es la representacin interna del conocimiento que es capaz de
organizar en la capa intermedia u oculta para obtener la correspondencia entre
la entrada y la salida de la red.
Recordemos que el modelo MP de una sola capa de neuronas slo resuelve
problemas lineales, en cambio, al incluir una o ms capas ocultas, se puede
implementar cualquier funcin continua.
De una manera simple se puede plantear el funcionamiento de una red BP
como un aprendizaje de un conjunto predefinido de pares entrada-salida dados
como ejemplo, empleando un ciclo bifsico propagacin-adaptacin, segn la
siguiente secuencia:
Primera fase: Se aplica un patrn a la capa de entrada, como estmulo, que se
propagar a travs de la red hasta generar una salida. Luego se compara la
misma con las salidas que se desean obtener (objetivos) y se calcula un valor
de error, para cada neurona de salida.
Segunda fase: Los errores determinados se transmiten hacia atrs partiendo de
la capa de salida hacia todas las neuronas de la capa intermedia, recibiendo el
porcentaje de error aproximado a la participacin de la neurona intermedia, en
la salida original. Este proceso se repite, capa por capa, hasta que todas las
neuronas de la red haya recibido un error que describe su aporte relativo al
error total. En base al valor del error recibido, se reajustan los pesos de
conexin de cada neurona, de forma tal que la prxima vez que se le presente
el mismo patrn, la salida est ms cercana a la deseada, es decir que, el error
disminuye.

La importancia de la red BP radica en su capacidad de autoadaptar los pesos


de las neuronas de las capas ocultas para aprender la relacin que existe entre
un conjunto de patrones dados como ejemplo y sus correspondientes salidas,
esto permite, despus del entrenamiento, que nuevos vectores de entrada
incompletos o con ruido pero parecidos a los presentados durante el
entrenamiento, den una salida similar a las propuestas durante el aprendizaje.
Una caracterstica importante que se exije de los sistemas de aprendizaje, es la
capacidad de generalizacin entendiendo como tal, a la facilidad de la RNA de
brindar salidas satisfactorias a entradas que el sistema no ha visto nunca en su
fase de entrenamiento, sirviendo de proceso de validacin del comportamiento
de la misma.
CASO DE ESTUDIO: APLICACIN DE UNA RNA FF CON ENTRENAMIENTO
BP EN LA MODELIZACION DE UNA COLUMNA
Tomando los algoritmos genricos desarrollados para redes neuronales y
conociendo que son particularmente aptas para el control predictivo de
sistemas no lineales y a partir de los datos histricos disponibles de entrada /
salida de la Planta , se modeliza la misma para luego simular su
comportamiento , testeando la validez del modelo y el grado de aprendizaje
alcanzado por la red neuronal con un juego remanente de datos , esta tarea se
lleva a cabo mediante el software MATLAB v5.2.

Figura 8 - Esquema de planta

El proceso consiste , en forma resumida , en una columna cuyo nivel se


mantiene mediante un controlador tipo PI. Un esquema de la misma se muestra
en la figura 8

La perturbacin principal proviene de la carga que llena la columna con un


cierto grado de oscilacin. A su vez el valor de referencia o set-point es
programado a voluntad por el operador para moverse en un cierto rango de
forma rampeada.
El nivel c(t), la variable dependiente, est en funcin de dos variables
independientes, la carga p(t) y la referencia r(t), constituyendo un sistema
multivariable 2x1.
Se cuenta con un conjunto de datos adquiridos cada 1.5 minutos.
Aproximadamente el 80% de los mismos son destinados al entrenamiento de la
RNA, el resto, nos servirn para la validacin del modelo.
Este tutorial se desarrolla describiendo paso a paso las intrucciones principales
del programa MATLAB v5.2 que permiti generar, entrenar y validar una RNA
que posibilit la modelizacin de la planta descrita.
Los textos enmarcados corresponden a comentarios aclaratorios
%
%
%
%
%
%
%

IVSimposio.m
Aplicacin de Redes Neuronales en Control de Procesos , un Tutorial
sobre su aplicacin en Planta Piloto Pedaggica
PROGRAMA DE ENTRENAMIENTO Y VALIDACION DE UN CONTROL DE NIVEL
MATLAB Versin 5.2
Fecha: 09/06/01
Alfredo E. Puglesi - Dante R. Salatino Maria Susana Bernasconi

El % sirve para efectuar comentarios, no ejecutables, dentro de un programa


realizado con MATLAB
clear all
% DATOS DE ENTRENAMIENTO:
% Lectura de datos para entrenamiento
load LIC0906e.txt
ttiempoe = LIC0906e(:,1);
tiempoe = ttiempoe'; % Tiempo de entrenamiento

Dado que todos los datos son obtenidos como vectores columna y
considerando que las entradas y salidas a la RNA deben ser vectores fila, se
efecta la transpuesta, indicado por la instruccin: (apstrofe)
tentrada1e = LIC0906e(:,4);
entrada1e=tentrada1e'; % Datos de cambios de Set Point

Los cambios introducidos por el operador a travs del Set Point constituyen la
primera variable de entrada a la RNA
tentrada2e = LIC0906e(:,5);
entrada2e=tentrada2e'; % Datos de la corriente de entrada

La corriente oscilante que ingresa al recipiente es el disturbio y es la segunda


variable de entrada a la RNA
entradase =[[entrada1e]; [entrada2e]];

La variable arriba definida es una matriz (2xn) que agrupa los dos vectores fila
de entrada a la RNA

Figura 9 - Entradas al sistema


tsalidae= LIC0906e(:,3);
salidae=tsalidae'; % Datos del nivel del recipiente

El nivel del recipiente representa la variable de salida de la RNA


% DATOS DE VALIDACION:
% Lectura de datos para validacin
load LIC0906v.txt
ttiempov = LIC0906v(:,1);
tiempov=ttiempov'; % Tiempo de validacin
tentrada1v = LIC0906v(:,4);
entrada1v=tentrada1v'; % Datos de cambios de Set Point
tentrada2v = LIC0906v(:,5);
entrada2v=tentrada2v'; % Datos de la corriente de entrada
entradasv=[[entrada1v];[entrada2v]];
tsalidav= LIC0906v(:,3);
salidav=tsalidav'; % Datos del nivel del recipiente

% Tratamiento de los datos:


% Colocando los datos que sern usados durante el entrenamiento en el
% intervalo [-1 1]

La proxima instruccin normaliza los datos de entrada y salida para


entrenamiento del primer set de datos, colocndolos en un intervalo de
variacin entre 1 y 1
[stm,minst,maxst,etm,minet,maxet]=premnmx(salidae,entradase);
% Colocando los datos de validacin en el intervalo [-1 1];

La sentencia siguiente normaliza posteriores sets de datos


evm=tramnmx(entradasv,minet,maxet);
% Estableciendo la estructura de la red
% Nmero de entradas:
limites=[-1 1 ; -1 1];

% 2 entradas

% Nmero de neuronas en la capa oculta


n=4
% Funciones de activacin y mtodo de entrenamiento
% Funciones de activacin = tangente sigmoidal;
% Mtodo de entrenamiento (trainbfg) = Quasi-Newton
red=newff(limites,[n,1],{'tansig','purelin'},'trainbfg');

La sentencia newff define una RNA feedforward con 2 variables de entrada


ingresando en la primera capa , 4 neuronas en la capa oculta y 1 variable en la
capa de salida. La funcin de activacin de la capa oculta es del tipo tangente
sigmoidal mientras que la de salida es de tipo lineal. El algoritmo elegido para
el entrenamiento backpropagation es el Quasi-Newton

Figura 10 - Arquitectura de la red


% Parmetros para el entrenamiento
% Duracin (en cantidad de ciclos) y muestreo
red.trainParam.epochs=100; % ciclos totales de entrenamiento
red.trainParam.show=10; % intervalo de muestreo
red=train(red,etm,stm);

La sentencia train procede al entrenamiento de la RNA


% Simulacin de la red
% Utilizando el set de datos de entrenamiento
rtm=sim(red,etm);

La sentencia sim simula el comportamiento de la RNA, obteniendo las salidas


pertinentes a partir del set de entradas
% Simulacin de la red
% Utilizando un nuevo set datos(validacin de la red)
rvm=sim(red,evm);

Aqu la sentencia sim simula el comportamiento de la RNA, obteniendo las


salidas pertinentes a partir del set de entradas no conocidas mostrando su
capacidad de generalizar
% Desnormalizando los datos de entrenamiento
rt=postmnmx(rtm,minst,maxst);
% Desnormalizando los datos de validacin
rv=postmnmx(rvm,minst,maxst);

La sentencia postmnmx devuelve a las variables involucradas sus escalas


originales
% Verificacin grfica de los resultados:
subplot(2,1,1)
plot(tiempoe,rt,'b:o',tiempoe,salidae,'r:x');
legend('red','real');
xlabel('tiempo');
ylabel('nivel(entrenamiento)');
title('Prueba con los datos de entrenamiento');
subplot(2,1,2)
plot(tiempov,rv,'b:o',tiempov,salidav,'r:x');
legend('red','real');
xlabel('tiempo');
ylabel('nivel(validacin)');
title('Prueba con datos de validacin');
% Fin del programa

La figura 11 muestra las variaciones de nivel en funcin de las dos entradas:


set point y disturbio. El grfico superior muestra la simulacin obtenida por la
RNA superpuesta con los datos reales de planta, en la etapa de entrenamiento.

Figura 11 - Resultados

El grfico inferior corresponde a la simulacin de la RNA ante un set de datos


desconocidos, etapa de validacin, verificndose el alto nivel de correlacin
con la salida real, luego del proceso de aprendizaje.
Cabe destacar que la pequea dispersin que pueda observarse entre los
registros simulado y real responde a ruido de medicin en el transmisor de
nivel.
Este desarrollo tiene como fin introducir a los alumnos de la Facultad de
Ingeniera de la Universidad Nacional de Cuyo , en las carreras de Ingeniera
Industrial e Ingeniera en Petrleos como a los de la carrera de Produccin
Industrial Automatizada del Instituto Tecnolgico Universitario, en el
conocimiento de las RNA aplicadas al control de procesos, para luego hacer
extensivo su implementacin en otras plantas, de tal forma que experimenten
en tiempo real los alcances y limitaciones ( beneficios y desventajas) de las
redes neuronales en los diversos campos del control automtico. Se espera
compartir experiencias y conclusiones con el medio, especialmente con
industriales interesados en las aplicaciones de tcnicas innovadoras.
Los autores del presente tutorial conforman un equipo multidisciplinario
interesado en realizar experiencias que conlleven procesamiento de la
informacin, modelizacin y control, a otros mbitos cientficos, en especial los
vinculados a la medicina en general y a los fenmenos cardiovasculares en
particular. En este contexto se piensa que las RNA sern de gran ayuda en la
simulacin para docencia e investigacin.

Agradecimientos
Al Profesor Dr.Sc. Enrique Luis Lima de la COPPE ( Coordenao dos
Programas de Ps Graduao de Engenharia ) Engenharia Quimica de la
Universidad Federal de Rio de Janeiro Brasil, quien nos motivo para en el
estudio y aplicaciones de las RNA en control de proceso y a los doctorandos
por l orientados, Andra Oliveira Souza da Costa y Esly da Costa por su
colaboracin con el software utilizado.
Referencias
Henrique, H.M.; Lima, E.L.; Seborg, D.E.(2000). Model structure
determination in neural nework models. Chemical Engineering Science, 55,
5457-5469.
Demuth, H.; Beale, M.(1997). Neural Network Tools For use with
MATLAB . The Mathworks, Inc.
Hilera, J.R.; Martnez, V.J.(2000). Redes Neuronales Artificiales. Alfaomega
Grupo Editor S.A. - Mjico D.F.
Pdua Braga, A.; Ludemir, T. B.; Ponce de Leon Ferreyra Carvalho, A.
(2000). Redes Neuronais Artificiais. LTC Editora S.A. Rio de Janeiro
Baughman, D. R.; Liu, Y. A. (1995). Neural Networks in Bioprocessing and
Chemical Engineering. Academic Press, Inc San Diego Ca U.S.A.
Mills, P. M.; Zomaya, A. Y.; Tad, M.O. (1996). Neuro-Adaptive Process
Control. John Wiley & Sons Ltd. England
Freeman, J. A.; Skapura, D. M. (1993). Redes Neuronales Algoritmos,
aplicaciones y tcnicas de programacin. Addison-Wesley/Daz de Santos
Delaware U.S.A.
---------------------------------------------a
Profesor Titular de la Ctedra de Instrumentacin y Control Automtico
Facultad de Ingeniera - Universidad Nacional de Cuyo, Mendoza, Argentina
Profesor de Automatismos y Robtica de la Carrera Produccin Industrial
Automatizada Instituto Tecnolgico Universitario - Universidad Nacional de
Cuyo, Mendoza, Argentina
b

Mdico Cardilogo Universitario - Facultad de Medicina Universidad


Nacional de Cuyo, Mendoza, Argentina
Profesor de Informtica Mdica de la Carrera de Postgrado de Cardiologa
Clnica Facultad de Medicina Universidad Nacional de Cuyo, Mendoza,
Argentina

Profesora Adjunta de la Ctedra de Instrumentacin y Control Automtico


Facultad de Ingeniera de la Universidad Nacional de Cuyo, Mendoza,
Argentina
Jefa de Trabajos Prcticos en la Ctedra Instrumentacin y Control Automtico
de la Carrera Ingeniera Qumica de la - Facultad Regional Mendoza - U.T.N.
* apuglesi@uncu.edu.ar
Los interesados por el listado original y bases de datos, podrn solicitarlos al email indicado.

Vous aimerez peut-être aussi