You are on page 1of 50

Sistemas Inteligentes

Tema 9: Introducción a las redes neuronales


artificiales. Neurocomputación.
Objetivos
z Entender el funcionamiento básico de las
neuronas biológicas

z Entender el funcionamiento de las neuronas


artificiales y de las redes neuronales

z Conocer las distintas arquitecturas y tipos de


redes neuronales

z Conocer los tipos de procesos de aprendizaje


o entrenamiento de redes neuronales
Índice

1. Introducción
2. Concepto básico de red neuronal
3. Computación neuronal frente a convencional
4. Ventajas de un sistema de cómputo neuronal
5. Breve reseña histórica
6. Neurocomputación: De la neurona biológica a la
artificial
7. Tipos de aprendizaje
8. Campos de aplicación
9. Software para redes neuronales
1. Introducción
z Contextualización:
Soft computing, computación cognitiva, brain ware

Redes neuronales Lógica difusa


Computación evolutiva Razonamiento aproximado
Teoría del aprendizaje Teoría del caos

z Fundamento de las redes neuronales artificiales:

Emulación de los sistemas nerviosos biológicos


(redes neuronales naturales)
1. Introducción

El cerebro humano
z Formado por una red de neuronas interconectadas

z 1010 neuronas

z 104 conexiones por neurona

z Tiempo de conmutación 0.001 seg.

z Tiempo en reconocer una imagen: 0.1 seg.

z Para resolver el problema de reconocimiento de imágenes, se


necesita bastante más de 100 pasos de procesamiento

Î El cerebro humano presenta un paralelismo masivo sobre una


representación distribuida
1. Introducción
z Excepto en las tareas basadas en el cálculo aritmético
simple, actualmente, el cerebro humano es superior a
cualquier computador:
z Procesamiento de imágenes, voz, datos inexactos o con ruido,
lenguaje natural, (en general en tareas de percepción)
z Predicción,
z Control...
z Características del cerebro:
z Robusto. Su funcionamiento no se altera ante fallos poco
importantes
z Flexible. Se adapta con facilidad a un entorno cambiante
z Puede tratar con información ambigua o incompleta
z Pequeño, compacto y consume poca potencia
1. Introducción
El funcionamiento del cerebro es especialmente
significativo en tareas de percepción:

z ¿Cómo podemos reconocer los caracteres escritos, su


forma, sin haberlos visto antes?

z ¿o el rostro de alguien desde un ángulo desde el que


nunca lo habíamos visto?

z ¿Cómo podemos recordar escenas que hemos


visualizado brevemente o de forma vaga?
1. Introducción
Objetivos de la Neurocomputación:
z Comprender las razones que explican las
capacidades de los seres dotados de
inteligencia
z Interpretación de percepciones sensoriales
z Clasificación por categorías
z Abstracción
z Extracción de características
z Memoria asociativa, etc.
z Desarrollar modelos computacionales que
exhiban algunas de estas capacidades e
implementarlos
2. Concepto básico de red
neuronal
z Es un sistema de cómputo inspirado en sistemas nerviosos
biológicos

z Características de los sistemas nerviosos biológicos:


z Combinan una gran cantidad de elementos simples de procesado
altamente interconectados. Altamente conectados
z Las propiedades computacionales dependen de las interconexiones
z El conexionado cambia con la experiencia y el aprendizaje

z Su capacidad de cómputo se desarrolla mediante un proceso


adaptativo de aprendizaje

z Realizan un procesamiento masivamente paralelo

z Son sistemas no lineales porque una neurona es básicamente un


dispositivo no lineal
3. Computación neuronal frente
a convencional
Computadores digitales convencionales
z Basados en la arquitectura Von Neumann
z Un microprocesador relativamente complejo
z Una memoria que almacena la información en localizaciones específicas
z Su operación es secuencial, centralizada y síncrona
1. Carga una instrucción de la memoria
2. Carga los datos de la memoria
3. Ejecuta la instrucción
4. Almacena los resultados en la memoria
5. Vuelve al paso 1
z Aplican razonamiento deductivo: ejecutan una serie de pasos
establecidos por el programa. Son críticamente dependientes del
software
z Los datos con los que trabaja deben ser precisos
z El hardware no es tolerante a fallos y la conectividad de elementos es fija
z Los eventos suceden en el rango de nseg. (10-9 seg.)
3. Computación neuronal frente
a convencional
Computadores neuronales
z Basados en los sistemas biológicos
z Muchos procesadores sencillos
z La información se almacena en las interconexiones: es distribuida y
redundante y se direcciona por contenido
z Su operación es paralela, conectiva y asíncrona. Se fundamentan en el
aprendizaje de problemas no en su algoritmización
z Aplican razonamiento inductivo: dados una serie de patrones de
entrenamiento, aprenden los pasos a ejecutar. Son más dependientes del
hardware que del software
z Los datos con los que trabaja pueden ser precisos
z Son tolerantes a fallos porque la información está distribuida, las
operaciones son colectivas, y la conectividad de los elementos puede
adaptarse al problema
z En un sistema nervioso biológico los eventos suceden en el rango de
mseg. (10-3 seg.) y sin embargo se resuelven ciertos problemas a mayor
velocidad de la que consigue un ordenador convencional
4. Ventajas de un sistema de
cómputo neuronal
z Capacidad de aprender y generalizar. Generalmente, se necesita una
colección de ejemplos representativos. P.e.: en una tarea de clasificación:

Sistema cuadrado
Neuronal rectangulo
circulo

Es capaz de generalizar ante entradas que no ha visto nunca

Sistema círculo
Neuronal

z Capacidad de adaptación a los cambios que pueden afectar a la tarea que


está resolviendo
z Tareas de control adaptativo
z Tareas de procesamiento de señal adaptativo

z Tolerancia a fallos:
z Una destrucción parcial de una red conduce a una degradación pero mantiene
algunas capacidades
5. Breve reseña histórica
z (1936) Turing
z Estudia el cerebro como una forma de ver el mundo de la computación
z (1943) McCulloch (neurobiólogo) y Pitts (estadístico)
z Publican una teoría sobre la forma de trabajar de las neuronas biológicas
z Modelan una neurona biológica simple mediante circuitos electrónicos
z (1949) Hebb
z Relaciona psicología con fisiología:
z La conectividad del cerebro está continuamente cambiando conforme el organismo
aprende
z La conexión entre dos neuronas se refuerza si ambas se activan repetidamente
z (1958) Rosenblatt:
z Comienza el desarrollo del Perceptrón, el sistema neuronal más antiguo
z (1959) Widrow y Hoff
z Introducen el algoritmo LMS y lo utilizan para entrenar un sistema neuronal más
complejo que el perceptron: el Adaline. Aprendizaje supervisado
z El Adaline fue el prime sistema neuronal aplicado a un problema real: la
realización de filtros adaptativos para eliminar ecos en líneas telefónicas.
z (1962) Rosenblatt:
z Teorema de convergencia del perceptrón
z Extendió la euforia: “RNA, solución universal”
5. Breve reseña histórica
z (1969) Minsky y Papert
z Demuestran matemáticamente las limitaciones del perceptrón:
problema del XOR
z (70’s) Época negra de las redes neuronales
z Los fondos económicos y el interés se dedican a los sistemas expertos
z 1980 Grossberg
z Resurge el interés. Establece la teoría de Resonancia Adaptativa (ART)
z (1982) Hopfield
z Red más plausible con el modelo biológico
z (1986) Rumelhart y McClelland
z Algoritmo backpropagation para entrenar el perceptrón multicapa
z (1988) Broomehead y Lowe
z Describen las redes de funciones base radiales (RBFN) como
alternativa a los perceptrones multicapa
6. Neurocomputación: de las neuronas
biológicas a las neuronas artificiales

6.1. Las neuronas biológicas

6.2. Las neuronas artificiales

6.3. Tipos de funciones de transferencia

6.4. Ejemplo de funcionamiento de una neurona

6.5. Arquitecturas de redes neuronales


6.1. Las neuronas biológicas

Entrada

Procesamiento

Salida
6.1. Las neuronas biológicas
Axón: transporta las señales de salida a los terminales axónicos

Terminales axónicos: distribuyen


la información a un nuevo conjunto
de neuronas

Cuerpo celular: combina e integra las


señales de entrada y conduce la señal
de salida al axón

Dentritas: reciben las señales y las conducen al cuerpo celular


6.1. Las neuronas biológicas
z Las neuronas trabajan con dos tipos de señales:
z eléctricas: las que se generan en el cuerpo celular y se
transmiten por el axón
z químicas: la que se transmite entre los terminales axónicos de
una neurona y las dendritas de otra
z La transmisión se realiza mediante moléculas de
neurotransmisores a través de unos contactos llamados
sinapsis. Las sinapsis pueden ser de dos tipos:
z excitadoras: facilitan la generación de impulsos eléctricos
z inhibidoras: dificultan la generación
z Observaciones de Hebb: el conexionado cambia con la
experiencia. Hay uniones sinápticas que se refuerzan y
otras que se debilitan
6.1. Las neuronas biológicas
z Funcionamiento:
z Cada célula se enlaza con otras células a través de las ramificaciones
de su axón
z El enlace se realiza mediante las uniones sinápticas o sinapsis
z El efecto en la célula receptora es la elevación o disminución de un
potencial eléctrico dentro del soma o cuerpo celular. Cuando este
potencial alcanza un cierto umbral, la célula emite a su vez un pulso de
intensidad y duración determinadas

z La velocidad de propagación de las señales en el sistema nervioso


es un millón de veces menor que en un computador

z Cada neurona está conectada a entre 1.000 y 10.000 neuronas Î


El grado de conectividad del cerebro es muchísimo mayor que el del
más grande de los supercomputadores actuales
6.2. Las neuronas artificiales
- Las señales que llegan a las dendritas se
representan como x1, x2, ..., xn
x1 wj1 - Las conexiones sinápticas se representan
por unos pesos wj1, wj2, wjn que ponderan
x2
wj2 yj (multiplican) a las entradas. Si el peso
Netj entre las neuronas j e i es:
a) positivo, representa una sinapsis
excitadora
xn wjn b) negativo, representa una sinapsis
inhibidora
c) cero, no hay conexión

z La acción integradora del cuerpo celular (o actividad interna de cada célula) se


presenta por n
Net j = w j1 ⋅ x1 + w j 2 ⋅ x2 + K + w jn ⋅ xn = ∑ w ji ⋅ xi
i =1

z La salida de la neurona se representa por yj. Se obtiene mediante una función que,
en general, se denomina función de salida, de transferencia o de activación. Esta
función depende de Netj y de un parámetro θj que representa el umbral de activación
de la neurona ⎛ ⎞
y j = f ( Net j − θ j ) = f ⎜⎜ ∑ w ji ⋅ xi − θ ⎟⎟
⎝ ⎠
6.2. Las neuronas artificiales
El umbral se puede interpretar
- 1
Entradas θ como un peso sináptico que se
x1 aplica a una entrada que vale
w1
función de Siempre -1
activación
x2 w2 s
n f(.) y
salida
Sumador
xn wn

pesos sinápticos

Con función de activación


o transferencia tipo salto
o “escalón”
6.3. Tipos de funciones de
transferencia
z Función de escalón o
Haviside. Representa una ⎧1, si Net j >= θ j
y j = H ( Net j − θ j ) = ⎨
neurona con sólo dos estados de ⎩− 1, si Net j < θ j
activación: activada (1) y inhibida
(0 ó -1)

z Función lineal: y j = Net j − θ j


⎧1, si Net j >= θ j + a

z Función lineal a tramos: y j = ⎨ Net j − θ j , si Net j − θ j < a
⎪ − 1, si Net j < θ j − a

z Función sigmoidal:
1 2
yj = − λ ( Net j −θ j )
yj = − λ ( Net j −θ j )
−1
1+ e 1+ e
⎛ Net j −θ j
2

−⎜⎜ ⎟⎟
Función base radial: σ
z yj = e ⎝ ⎠
6.3. Tipos de funciones de
transferencia
6.4. Ejemplo de funcionamiento de
una neurona
z La función que desarrolla cada neurona en la red es un
elemento básico de procesamiento
z El modelo simplificado de neurona biológica permite:
z representación entrada-salida.
z múltiples entradas, salida única
z diferente influencia de entradas en salida mediante “pesos” (wi)
z w: parámetros de la neurona
z Relación entrada-salida no-lineal
z Diferentes opciones para f(.)
z step, sat, sigm, tanh
z Capacidad de adaptación
z variación de sus “pesos” con algún objetivo
6.4. Ejemplo de funcionamiento de
una neurona

z Ejemplo: neurona simple con dos entradas y


una salida

x1
ΣΘ Y
x2
6.4. Ejemplo de funcionamiento de
una neurona

z Intentemos implementar la función OR con la ayuda


de esta neurona

X1 X2 Salida
0 0 0
0 1 1 ¿Es aprendizaje
supervisado, o no
1 0 1
supervisado?
1 1 1
6.4. Ejemplo de funcionamiento de
una neurona
z Función de transferencia: Función escalón
z Umbral: 0.5
z Inicialmente los pesos tienen un valor establecido
z Los pesos se actualizan con esta ecuación

Wi = Wi + α D xi , i = 1,2

donde α = parametro de entrenamiento y D es la


diferencia entre la salida deseada y la salida real de la
neurona
z El objetivo es encontrar los valores de w1 y w2, tal que
la salida sea la correcta
6.4. Ejemplo de funcionamiento de una
neurona
Example of Supervised Learning
(A single neuron that learns the inclusive OR operation)
Parameters: a = 0.2 (measure of the learning rate)
Threshold = 0.5, D = Z - Y, Y = W1 X1 + W2 X2 Wi(Final) = Wi(Initial) + a * D * Xi

Desired Initial Actual Difference Final


Inputs Output Weights Output Weights
Iteration X1 X2 Z W1 W2 Y D W1 W2
1 0 0 0 0.1 0.3 0 0 0.1 0.3
0 1 1 0.1 0.3 0 1 0.1 0.5
1 0 1 0.1 0.5 0 1 0.3 0.5
1 1 1 0.3 0.5 1 0 0.3 0.5

o es
The grey blocks are the fixed input and ouput values and are just copied four times
The red numbers have to be typed in by hand (called the 'seed' values of weights)
The blue numbers are the result of a formula or rule
All the black numbers are just a copy-paste of the numbers above them
6.4. Ejemplo de funcionamiento de una
neurona
Example of Supervised Learning
(A single neuron that learns the inclusive OR operation)
Parameters: a = 0.2 (measure of the learning rate)
Threshold = 0.5, D = Z - Y, Y = W1 X1 + W2 X2 Wi(Final) = Wi(Initial) + a * D * Xi

Desired Initial Actual Difference Final


Inputs Output Weights Output Weights
Iteration X1 X2 Z W1 W2 Y D W1 W2
1 0 0 0 0.1 0.3 0 0 0.1 0.3
0 1 1 0.1 0.3 0 1 0.1 0.5
1 0 1 0.1 0.5 0 1 0.3 0.5
1 1 1 0.3 0.5 1 0 0.3 0.5
2 0 0 0 0.3 0.5 0 0 0.3 0.5
0 1 1 0.3 0.5 0 1 0.3 0.7
1 0 1 0.3 0.7 0 1 0.5 0.7
1 1 1 0.5 0.7 1 0 0.5 0.7
3 0 0 0 0.5 0.7 0 0 0.5 0.7
0 1 1 0.5 0.7 1 0 0.5 0.7
1 0 1 0.5 0.7 0 1 0.7 0.7
1 1 1 0.7 0.7 1 0 0.7 0.7
4 0 0 0 0.7 0.7 0 0 0.7 0.7
0 1 1 0.7 0.7 1 0 0.7 0.7
1 0 1 0.7 0.7 1 0 0.7 0.7
1 1 1 0.7 0.7 1 0 0.7 0.7
6.4. Ejemplo de funcionamiento de
una neurona
z Encontramos que la ecuación correcta es

a = 0.7 x1 + 0.7 x2

z Técnicas como esta pueden se pueden aplicar para


resolver un numero extremadamente grande de
problemas
6.4. Ejemplo de funcionamiento de una
neurona

Ejemplo 2: Función NAND

/ ¿Cómo podemos obtener un 1 de la ecuación


Y = w1 x1 + w2 x2
cuando x1 y x2 son cero?
6.4. Ejemplo de funcionamiento de una
neurona
Solución: Introducir un término de
sesgo

x0 = 1
x1 Σ Θ Y
x2
6.4. Ejemplo de funcionamiento de una
neurona
6.4. Ejemplo de funcionamiento de una
neurona
Example of Supervised Learning
(A single neuron that learns the NAND operation)
Parameters: a = 0.1 (measure of the learning rate)
Threshold = 0.5
D = Z-Y
Y = W0 + W1 X1 + W2 X2 (X0 = 1)
Wi(Final) = Wi(Initial) + a * D * Xi ( i = 0,1,2)

Desired Initial Actual Difference Final


Inputs Output Weights Output Weights
Iteration X0 X1 X2 Z W0 W1 W2 Y D W0 W1 W2
1 1 0 0 1 0.9 0.1 0.1 1 0 0.9 0.1 0.1
1 0 1 1 0.9 0.1 0.1 1 0 0.9 0.1 0.1
1 1 0 1 0.9 0.1 0.1 1 0 0.9 0.1 0.1
1 1 1 0 0.9 0.1 0.1 1 -1 0.8 0 0
2 1 0 0 1 0.8 0 0 1 0 0.8 0 0
1 0 1 1 0.8 0 0 1 0 0.8 0 0
1 1 0 1 0.8 0 0 1 0 0.8 0 0
1 1 1 0 0.8 0 0 1 -1 0.7 -0.1 -0.1
3 1 0 0 1 0.7 -0.1 -0.1 1 0 0.7 -0.1 -0.1
1 0 1 1 0.7 -0.1 -0.1 1 0 0.7 -0.1 -0.1
1 1 0 1 0.7 -0.1 -0.1 1 0 0.7 -0.1 -0.1
1 1 1 0 0.7 -0.1 -0.1 0 0 0.7 -0.1 -0.1
4 1 0 0 1 0.7 -0.1 -0.1 1 0 0.7 -0.1 -0.1
1 0 1 1 0.7 -0.1 -0.1 1 0 0.7 -0.1 -0.1
1 1 0 1 0.7 -0.1 -0.1 1 0 0.7 -0.1 -0.1
1 1 1 0 0.7 -0.1 -0.1 0 0 0.7 -0.1 -0.1
6.5. Arquitecturas de redes
neuronales
z La función que desarrolla cada neurona en la red es un elemento
básico de procesamiento
z La cooperación de las neuronas es la que produce los efectos
deseados
z La arquitectura de una red es la manera en que se disponen sus
neuronas
z En una red neuronal se distinguen dos tipos de memoria:
z Memoria a corto plazo: Nivel de actividad de cada neurona
z Memoria a largo plazo: Valores de los pesos sinápticos
z Las neuronas, según su situación en la red pueden ser:
z De entrada: reciben las señales de entrada. Todas las neuronas de
entrada se dicen que forman la capa de entrada
z De salida: envían las señales de salida al exterior
z Ocultas: no tienen ningún contacto con el exterior. Forman la capa o
capas ocultas
6.5. Arquitecturas de redes
neuronales

u
y
6.5. Arquitectura de redes
neuronales
z Las neuronas pueden interactuar entre sí de
tres formas:
z Interacción hacia delante (feedforward)
Interacción entre neuronas de capas más cercanas a la de
entrada (o la propia de entrada) con neuronas de capas más
cercanas a la salida (o la propia de salida)
z Interacción lateral
Interacción entre neuronas de la misma capa
z Interacción hacia atrás (realimentación o feedback)
Interacción entre neuronas de capas más cercanas a la salida
con las más cercanas a la entrada
6.5. Arquitectura de redes
neuronales
Redes feedforward o redes sin realimentación

z Las interacciones son siempre hacia delante


z Se suele hablar de:

z Redes de una sola capa (cuando no hay capas ocultas).


Ejemplos: el perceptrón simple y el Adaline

z Redes de múltiples capas (cuando hay capas ocultas). Ejemplos:


el perceptrón multicapa y las redes de funciones base radiales
z Pueden ser total o parcialmente conectadas
z El conjunto de neuronas cuyas salidas van a una misma neurona se
llama campo receptivo de esa neurona
6.5. Arquitectura de redes
neuronales
Redes con realimentación o redes recurrentes:

z Tienen conexiones hacia atrás

z Ejemplos: Red de Hopfield y las redes inspiradas en la


Física Estadística
z Los lazos de realimentación tienen un impacto profundo
en el comportamiento de la red:
z El comportamiento depende del tiempo. Por eso se habla de
redes dinámicas (en vez de estáticas, como las redes sin
realimentación)
z La red evoluciona en el tiempo hacia estados de equilibrio
estables (en una red sin realimentación, todos los estados son
de equilibrio estable)
6.5. Arquitectura de redes
neuronales
Redes con interacción lateral

z Son estructuras de una sola capa: lineales, bidimensionales o hasta


tridimensionales, en las que cada neurona está conectada con
todas o parte de las neuronas de la capa

z Ejemplos: las redes auto-organizativas y las redes neuronales


celulares

z Redes auto-organizativas:
z Uso: estructurar la información que se presenta a la red en conjuntos a
priori desconocidos
z El entrenamiento es mediante un aprendizaje no supervisado
denominado competitivo
z Cada neurona tiene un cierto grado de conexión con neuronas
colaterales
7. Tipos de aprendizaje
Diferencia sustancial entre los modos de desarrollo de una
red neuronal y una aplicación de software:

La red no se programa sino que se entrena

z En un ordenador, el procesamiento de datos se basa en


la ejecución de un programa que es una lista ordenada
de instrucciones que realiza un cierto algoritmo
z Las redes neuronales son la solución para problemas
complejos difícilmente programables
z Multitud de elementos simples interconectados
z Procesamiento no lineal
7. Tipos de aprendizaje
z El aprendizaje o entrenamiento de una red neuronal
puede ser:
z General: se aprende la topología de la red (capas y número de
neuronas por capa) a la vez que el tipo de neuronas
constituyentes y su interconexión
z Paramétrico: se parte de una topología y de un tipo de
neuronas y se aprenden los parámetros relacionados con la
operación de las neuronas (por ejemplo, los umbrales de
activación) y los pesos sinápticos. Este aprendizaje es más
sencillo y es el que se suele aplicar

z Se suelen distinguir tres grandes tipos de aprendizaje:


z Aprendizaje supervisado
z Aprendizaje por refuerzo
z Aprendizaje no supervisado
7. Tipos de aprendizaje
Aprendizaje supervisado:
entorno maestro
Vectores de
Respuesta
entrada
deseada
Sistema +
-
Neuronal Σ
Respuesta real

Señal de error

Puede ser de dos tipos:


z En línea (on line)
z Fuera de línea (off line o batch)
Ejemplos:
z La regla perceptrón y el algoritmo LMS (redes Adaline)
z El algoritmo backpropagation (perceptrón multicapa)
7. Tipos de aprendizaje
Aprendizaje por refuerzo

Sistema
Neuronal crítico
Respuesta real

Señal de recompensa
o castigo

z Procedimiento de ensayo-error
z Más cualitativo que cuantitativo
7. Tipos de aprendizaje
Aprendizaje no supervisado
Sistema
Neuronal

z La red encuentra regularidades en las entradas, sin la


ayuda de ningún maestro o crítico (no existe información
sobre la bondad de la respuesta)

z Ejemplos:
z Regla de Hebb en las redes de Hopfield
z Aprendizaje en mapas autoorganizativos
z Teoría de resonancia adaptativa
8. Campos de aplicación
z Reconocimiento de patrones
z El sistema neuronal almacena un conjunto de
patrones. Cuando se le presenta un patrón
distorsionado o con ruido, debe proporcionar el
patrón original
z Reconocimiento de speakers en telecomunicaciones
z Reconocimiento facial
z Reconocimiento de caracteres manuscritos
z Reconocimiento de objetos tridimensionales, etc.
z Clasificación
z El sistema almacena un conjunto de categorías.
Cuando se le presenta un patrón de entrada, debe
indicar la categoría a la que pertenece
z Sistemas de diagnóstico en medicina o en ingeniería
8. Campos de aplicación
z Extracción de información
z El sistema extrae una información determinada dentro de una
gran cantidad de información almacenada
z Solución a problemas de data mining
z Control
z El sistema imita la capacidad de un cerebro como sistema de
cómputo paralelo capaz de manejar miles de actuadores (las
fibras musculares) y soportar no-linealidades y ruido
z Aplicaciones de control industrial y robótica
z Optimización
z El sistema neuronal se utiliza para resolver problemas de
optimización que aparecen en numerosos campos de la ciencia
e ingeniería
8. Campos de aplicación
z Modelado de sistemas y predicción
z El sistema neuronal “imita” la salida que proporciona
el sistema modelado frente a unas entradas
determinadas
z En muchos casos es más adecuado trabajar con el modelo
que con el sistema real: aplicaciones de medicina, de
ingeniería, etc.
z El modelo puede predecir el comportamiento del sistema real
frente a situaciones nuevas: aplicaciones de marketing,
bursátiles, etc.
9. Software para redes
neuronales
z Stuttgart Neural Network
Simulator (SNNS)
z muy desarrollado
z Unix, Linux
z estructuras y algoritmos de
entrenamiento
z http://www-ra.informatik.uni-
tuebingen.de/SNNS/
z Matlab, Scilab
z toolboxes específicos
z GUI (matlab: nntool)
z análisis, optimización
z Programas específicos
z Dentro de aplicaciones
z Estadística, Control
Bibliografía
Básica:
z C. Bishop, “Neural Networks for pattern recognition”,
Oxford Press, 1995.
z Simon Haykin, “Neural Networks”, Prentice Hall, 1999.

Complementaria:
z Hertz, Krogh and Palmer, “Introduction to the theory of
Neural Computation”, Addison-Wesley, 1991.
z Jang et al. “Neuro-fuzy and Soft Computing”, Cap. 8-11,
Prentice Hall, 1997.
z C-T Lin y G. Lee, “Neural Fuzzy Systems”, Prentice Hall,
1995.

You might also like