Professional Documents
Culture Documents
1. Introducción
2. Concepto básico de red neuronal
3. Computación neuronal frente a convencional
4. Ventajas de un sistema de cómputo neuronal
5. Breve reseña histórica
6. Neurocomputación: De la neurona biológica a la
artificial
7. Tipos de aprendizaje
8. Campos de aplicación
9. Software para redes neuronales
1. Introducción
z Contextualización:
Soft computing, computación cognitiva, brain ware
El cerebro humano
z Formado por una red de neuronas interconectadas
z 1010 neuronas
Sistema cuadrado
Neuronal rectangulo
circulo
Sistema círculo
Neuronal
z Tolerancia a fallos:
z Una destrucción parcial de una red conduce a una degradación pero mantiene
algunas capacidades
5. Breve reseña histórica
z (1936) Turing
z Estudia el cerebro como una forma de ver el mundo de la computación
z (1943) McCulloch (neurobiólogo) y Pitts (estadístico)
z Publican una teoría sobre la forma de trabajar de las neuronas biológicas
z Modelan una neurona biológica simple mediante circuitos electrónicos
z (1949) Hebb
z Relaciona psicología con fisiología:
z La conectividad del cerebro está continuamente cambiando conforme el organismo
aprende
z La conexión entre dos neuronas se refuerza si ambas se activan repetidamente
z (1958) Rosenblatt:
z Comienza el desarrollo del Perceptrón, el sistema neuronal más antiguo
z (1959) Widrow y Hoff
z Introducen el algoritmo LMS y lo utilizan para entrenar un sistema neuronal más
complejo que el perceptron: el Adaline. Aprendizaje supervisado
z El Adaline fue el prime sistema neuronal aplicado a un problema real: la
realización de filtros adaptativos para eliminar ecos en líneas telefónicas.
z (1962) Rosenblatt:
z Teorema de convergencia del perceptrón
z Extendió la euforia: “RNA, solución universal”
5. Breve reseña histórica
z (1969) Minsky y Papert
z Demuestran matemáticamente las limitaciones del perceptrón:
problema del XOR
z (70’s) Época negra de las redes neuronales
z Los fondos económicos y el interés se dedican a los sistemas expertos
z 1980 Grossberg
z Resurge el interés. Establece la teoría de Resonancia Adaptativa (ART)
z (1982) Hopfield
z Red más plausible con el modelo biológico
z (1986) Rumelhart y McClelland
z Algoritmo backpropagation para entrenar el perceptrón multicapa
z (1988) Broomehead y Lowe
z Describen las redes de funciones base radiales (RBFN) como
alternativa a los perceptrones multicapa
6. Neurocomputación: de las neuronas
biológicas a las neuronas artificiales
Entrada
Procesamiento
Salida
6.1. Las neuronas biológicas
Axón: transporta las señales de salida a los terminales axónicos
z La salida de la neurona se representa por yj. Se obtiene mediante una función que,
en general, se denomina función de salida, de transferencia o de activación. Esta
función depende de Netj y de un parámetro θj que representa el umbral de activación
de la neurona ⎛ ⎞
y j = f ( Net j − θ j ) = f ⎜⎜ ∑ w ji ⋅ xi − θ ⎟⎟
⎝ ⎠
6.2. Las neuronas artificiales
El umbral se puede interpretar
- 1
Entradas θ como un peso sináptico que se
x1 aplica a una entrada que vale
w1
función de Siempre -1
activación
x2 w2 s
n f(.) y
salida
Sumador
xn wn
pesos sinápticos
x1
ΣΘ Y
x2
6.4. Ejemplo de funcionamiento de
una neurona
X1 X2 Salida
0 0 0
0 1 1 ¿Es aprendizaje
supervisado, o no
1 0 1
supervisado?
1 1 1
6.4. Ejemplo de funcionamiento de
una neurona
z Función de transferencia: Función escalón
z Umbral: 0.5
z Inicialmente los pesos tienen un valor establecido
z Los pesos se actualizan con esta ecuación
Wi = Wi + α D xi , i = 1,2
o es
The grey blocks are the fixed input and ouput values and are just copied four times
The red numbers have to be typed in by hand (called the 'seed' values of weights)
The blue numbers are the result of a formula or rule
All the black numbers are just a copy-paste of the numbers above them
6.4. Ejemplo de funcionamiento de una
neurona
Example of Supervised Learning
(A single neuron that learns the inclusive OR operation)
Parameters: a = 0.2 (measure of the learning rate)
Threshold = 0.5, D = Z - Y, Y = W1 X1 + W2 X2 Wi(Final) = Wi(Initial) + a * D * Xi
a = 0.7 x1 + 0.7 x2
x0 = 1
x1 Σ Θ Y
x2
6.4. Ejemplo de funcionamiento de una
neurona
6.4. Ejemplo de funcionamiento de una
neurona
Example of Supervised Learning
(A single neuron that learns the NAND operation)
Parameters: a = 0.1 (measure of the learning rate)
Threshold = 0.5
D = Z-Y
Y = W0 + W1 X1 + W2 X2 (X0 = 1)
Wi(Final) = Wi(Initial) + a * D * Xi ( i = 0,1,2)
u
y
6.5. Arquitectura de redes
neuronales
z Las neuronas pueden interactuar entre sí de
tres formas:
z Interacción hacia delante (feedforward)
Interacción entre neuronas de capas más cercanas a la de
entrada (o la propia de entrada) con neuronas de capas más
cercanas a la salida (o la propia de salida)
z Interacción lateral
Interacción entre neuronas de la misma capa
z Interacción hacia atrás (realimentación o feedback)
Interacción entre neuronas de capas más cercanas a la salida
con las más cercanas a la entrada
6.5. Arquitectura de redes
neuronales
Redes feedforward o redes sin realimentación
z Redes auto-organizativas:
z Uso: estructurar la información que se presenta a la red en conjuntos a
priori desconocidos
z El entrenamiento es mediante un aprendizaje no supervisado
denominado competitivo
z Cada neurona tiene un cierto grado de conexión con neuronas
colaterales
7. Tipos de aprendizaje
Diferencia sustancial entre los modos de desarrollo de una
red neuronal y una aplicación de software:
Señal de error
Sistema
Neuronal crítico
Respuesta real
Señal de recompensa
o castigo
z Procedimiento de ensayo-error
z Más cualitativo que cuantitativo
7. Tipos de aprendizaje
Aprendizaje no supervisado
Sistema
Neuronal
z Ejemplos:
z Regla de Hebb en las redes de Hopfield
z Aprendizaje en mapas autoorganizativos
z Teoría de resonancia adaptativa
8. Campos de aplicación
z Reconocimiento de patrones
z El sistema neuronal almacena un conjunto de
patrones. Cuando se le presenta un patrón
distorsionado o con ruido, debe proporcionar el
patrón original
z Reconocimiento de speakers en telecomunicaciones
z Reconocimiento facial
z Reconocimiento de caracteres manuscritos
z Reconocimiento de objetos tridimensionales, etc.
z Clasificación
z El sistema almacena un conjunto de categorías.
Cuando se le presenta un patrón de entrada, debe
indicar la categoría a la que pertenece
z Sistemas de diagnóstico en medicina o en ingeniería
8. Campos de aplicación
z Extracción de información
z El sistema extrae una información determinada dentro de una
gran cantidad de información almacenada
z Solución a problemas de data mining
z Control
z El sistema imita la capacidad de un cerebro como sistema de
cómputo paralelo capaz de manejar miles de actuadores (las
fibras musculares) y soportar no-linealidades y ruido
z Aplicaciones de control industrial y robótica
z Optimización
z El sistema neuronal se utiliza para resolver problemas de
optimización que aparecen en numerosos campos de la ciencia
e ingeniería
8. Campos de aplicación
z Modelado de sistemas y predicción
z El sistema neuronal “imita” la salida que proporciona
el sistema modelado frente a unas entradas
determinadas
z En muchos casos es más adecuado trabajar con el modelo
que con el sistema real: aplicaciones de medicina, de
ingeniería, etc.
z El modelo puede predecir el comportamiento del sistema real
frente a situaciones nuevas: aplicaciones de marketing,
bursátiles, etc.
9. Software para redes
neuronales
z Stuttgart Neural Network
Simulator (SNNS)
z muy desarrollado
z Unix, Linux
z estructuras y algoritmos de
entrenamiento
z http://www-ra.informatik.uni-
tuebingen.de/SNNS/
z Matlab, Scilab
z toolboxes específicos
z GUI (matlab: nntool)
z análisis, optimización
z Programas específicos
z Dentro de aplicaciones
z Estadística, Control
Bibliografía
Básica:
z C. Bishop, “Neural Networks for pattern recognition”,
Oxford Press, 1995.
z Simon Haykin, “Neural Networks”, Prentice Hall, 1999.
Complementaria:
z Hertz, Krogh and Palmer, “Introduction to the theory of
Neural Computation”, Addison-Wesley, 1991.
z Jang et al. “Neuro-fuzy and Soft Computing”, Cap. 8-11,
Prentice Hall, 1997.
z C-T Lin y G. Lee, “Neural Fuzzy Systems”, Prentice Hall,
1995.