You are on page 1of 54

Similitudes entre una neurona

biolgica y una artificial

Las entradas Xi representan las seales que provienen


de otras neuronas y que son capturadas por las
dendritas
1
Prof. Laura Lanzarini

Similitudes entre una neurona


biolgica y una artificial

Los pesos Wi son la intensidad de la sinpsis que


conecta dos neuronas; tanto Xi como Wi son valores
reales.
Prof. Laura Lanzarini

Similitudes entre una neurona


biolgica y una artificial

es la funcin umbral que la neurona debe sobrepasar

para activarse; este proceso ocurre biolgicamente en


el Prof.
cuerpo
de la clula.
3
Laura Lanzarini

Neurona Artificial

Las seales de entrada a una neurona artificial X1, X2,..,


Xn son variables continuas en lugar de pulsos discretos,
como se presentan en una neurona biolgica.
Prof. Laura Lanzarini

Neurona Artificial

Cada seal de entrada pasa a travs de una ganancia o peso,


llamado peso sinptico o fortaleza de la conexin cuya funcin
es anloga a la de la funcin sinptica de la neurona biolgica.
Los pesos pueden ser positivos (excitatorios), o negativos
(inhibitorios).
5
Prof. Laura Lanzarini

Neurona Artificial

El nodo sumatorio acumula todas las seales de entrada


multiplicadas por los pesos o ponderadas y las pasa a la
salida a travs de una funcin umbral o funcin de
transferencia.
Prof. Laura Lanzarini

Neurona Artificial

La entrada neta a cada unidad puede escribirse de la


siguiente manera:
n

neta j = xi wi = X .W

Prof. Laura Lanzarini

i =1

Neurona Artificial

Cada entrada es multiplicada por


elProf.
peso
de arco correspondiente.
Laura Lanzarini

Neurona Artificial

Cada neurona calcula su entrada


neta como: neta = n x w
j

Prof. Laura Lanzarini

i =1

Neurona Artificial

El valor de salida (nico) se


obtiene como
Prof. Laura Lanzarini

y = f (neta)
10

Funciones de Transferencia
Hardlim (limitador fuerte)

Esta funcin crea neuronas que clasifican las


entradas en dos categoras diferentes.
Prof. Laura Lanzarini

11

Funciones de Transferencia
Hardlims (limitador fuerte simtrico)

Esta funcin crea neuronas que clasifican las


entradas en dos categoras diferentes.
Prof. Laura Lanzarini

12

Funciones de Transferencia
Purelin (Lineal)

A diferencia de las anteriores, esta


funcin no es acotada.
Prof. Laura Lanzarini

13

Funciones de Transferencia
Logsig (Sigmoide)

Es acotada y derivable
Prof. Laura Lanzarini

14

Arquitecturas formadas por un


nico EP
Comenzaremos trabajando con
arquitecturas simples formadas por un
nico elemento de procesamiento.
La neurona trabaja como una funcin
discriminante lineal.

Prof. Laura Lanzarini

15

Perceptrn

1 si neta
y=
0 si neta <
Prof. Laura Lanzarini

16

Ejemplo
Verifique si la siguiente red neuronal se
comporta como la funcin lgica AND

Prof. Laura Lanzarini

17

AND

x1w1 + x2 w2 =
x1 + x2 = 1.5

Graficar la funcin discriminante


(recta)

Prof. Laura Lanzarini

18

Entrenamiento del perceptrn


Se busca una estrategia iterativa que
permita adaptar los valores de las
conexiones a medida que se presentan
los datos de entrada.
Ver que el estmulo de entrada se
corresponde con el producto interior de
los vectors X y W.
Prof. Laura Lanzarini

19

Producto interior

Calcular v . w

Prof. Laura Lanzarini

20

Signo del producto interior

Prof. Laura Lanzarini

21

Vector de proyeccin

Prof. Laura Lanzarini

22

Uso del vector de proyeccin

Xw <
Xw =

|W |

W .X <

|W |

W .X =
Xw >

|W |

W .X >
Prof. Laura Lanzarini

23

Entrenamiento del Perceptrn


Inicializar los pesos de las conexiones con valores
random (vector W)
Mientras no se clasifiquen todos los patrones
correctamente

Ingresar un patrn a la red.

Si fue clasificado incorrectamente


Si esperaba obtener W.X > y no lo logr,

acerque el vector W al vector X.


Si esperaba obtener W.X < y no lo logr,

aleje el vector W al vector X.

Aprendizaje supervisado
Prof. Laura Lanzarini

24

Ajuste del vector de pesos


Si W.X < no es el valor esperado entonces
acercar W a X de la siguiente forma
w = w + x
Si W.X > no es el valor esperado entonces aleje
W a X de la siguiente forma
w = w - x

es un valor real perteneciente a (0,1]


Prof. Laura Lanzarini

25

Ajuste del vector de pesos


Recordemos que la salida del perceptrn
es
1 si W . X
y=
0 si W . X <
En general, si llamamos

t al valor esperado
y al valor obtenido

wnuevo = w + (t - y) x
Prof. Laura Lanzarini

t=1
y=0

26

Ajuste del vector de pesos


Recordemos que la salida del perceptrn
es
1 si W . X
y=
0 si W . X <
En general, si llamamos

t al valor esperado
y al valor obtenido

wnuevo = w + (t - y) x
Prof. Laura Lanzarini

t=0
y=1
27

Entrenamiento del Perceptrn


Seleccionar el valor de y
Inicializar los pesos de las conexiones con
valores random (vector W)
Mientras no se clasifiquen todos los
patrones correctamente

Ingresar un patrn a la red.

Si fue clasificado incorrectamente


Wnuevo = W + (t - y) x

Prof. Laura Lanzarini

28

Ejemplo 1
Entrenar un perceptrn para que se
comporte como la funcin lgica AND.
Utilice
= 0.3
= 1.5
W1 = 0
W2 = 0.25
Ej1_AND.m
Prof. Laura Lanzarini

29

W1new= W1 + 0.3 (T-Y) X1

AND

W2new= W2 + 0.3 (T-Y) X2

X1
X2
T
W1
W2
Y
W1new
W2new
------------------------------------------------------------0
0
0
0.00
0.25
0
0.00
0.25
1
0
0
0.00
0.25
0
0.00
0.25
0
1
0
0.00
0.25
0
0.00
0.25
1
1
1
0.00
0.25
0
0.30
0.55

Repetir hasta que sean iguales

Prof. Laura Lanzarini

30

W1new= W1 + 0.3 (T-Y) X1

AND

W2new= W2 + 0.3 (T-Y) X2

X1
X2
T
W1
W2
Y
W1new
W2new
------------------------------------------------------------0
0
0
0.00
0.25
0
0.00
0.25
1
0
0
0.00
0.25
0
0.00
0.25
0
1
0
0.00
0.25
0
0.00
0.25
1
1
1
0.00
0.25
0
0.30
0.55
------------------------------------------------------------0.30
0.55
0
0.30
0.55
0
0
0
0.30
0.55
0
0.30
0.55
1
0
0
0.30
0.55
0
0.30
0.55
0
1
0
0.30
0.55
0
0.60
0.85
1
1
1
------------------------------------------------------------0
0
0
0.60
0.85
0
0.60
0.85
1
0
0
0.60
0.85
0
0.60
0.85
0
1
0
0.60
0.85
0
0.60
0.85
1
1
1
0.60
0.85
0
0.90
1.15
------------------------------------------------------------0
0
0
0.90
1.15
0
0.90
1.15
1
0
0
0.90
1.15
0
0.90
1.15
0
1
0
0.90
1.15
0
0.90
1.15
1 Laura 1Lanzarini1
0.90
1.15
1
0.90
1.15 31
Prof.

AND

El proceso se repite hasta comprobar que


todos los patrones son clasificados
correctamente

X1
X2
T
W1
W2
Y
W1new
W2new
------------------------------------------------------------0
0
0
0.00
0.25
0
0.00
0.25
1
0
0
0.00
0.25
0
0.00
0.25
0
1
0
0.00
0.25
0
0.00
0.25
1
1
1
0.00
0.25
0
0.30
0.55
------------------------------------------------------------0.30
0.55
0
0.30
0.55
0
0
0
0.30
0.55
0
0.30
0.55
1
0
0
0.30
0.55
0
0.30
0.55
0
1
0
0.30
0.55
0
0.60
0.85
1
1
1
------------------------------------------------------------0
0
0
0.60
0.85
0
0.60
0.85
1
0
0
0.60
0.85
0
0.60
0.85
0
1
0
0.60
0.85
0
0.60
0.85
1
1
1
0.60
0.85
0
0.90
1.15
------------------------------------------------------------0
0
0
0.90
1.15
0
0.90
1.15
1
0
0
0.90
1.15
0
0.90
1.15
0
1
0
0.90
1.15
0
0.90
1.15
1 Laura 1Lanzarini1
0.90
1.15
1
0.90
1.15 32
Prof.

Perceptrn

1 si neta 0
y=
0 si neta < 0
Prof. Laura Lanzarini

33

Ejemplo 2
Entrenar un perceptrn para que se
comporte como la funcin lgica AND.
Utilice
= 0.3
W0 = 0
W1 = 0
W2 = 0.25
Ej2_AND.m
Prof. Laura Lanzarini

34

Ejemplo 2
X0
X1
X2
T
W0
W1
W2
Salida
NewW0
NewW1
NewW2
-----------------------------------------------------------------------------------1
0
0
0
0.00
0.00
0.25
1
-0.30
0.00
0.25
1
1
0
0
-0.30
0.00
0.25
0
-0.30
0.00
0.25
1
0
1
0
-0.30
0.00
0.25
0
-0.30
0.00
0.25
1
1
1
1
-0.30
0.00
0.25
0
0.00
0.30
0.55
-----------------------------------------------------------------------------------1
0
0
0
0.00
0.30
0.55
1
-0.30
0.30
0.55
1
1
0
0
-0.30
0.30
0.55
1
-0.60
0.00
0.55
1
0
1
0
-0.60
0.00
0.55
0
-0.60
0.00
0.55
1
1
1
1
-0.60
0.00
0.55
0
-0.30
0.30
0.85
-----------------------------------------------------------------------------------1
0
0
0
-0.30
0.30
0.85
0
-0.30
0.30
0.85
1
1
0
0
-0.30
0.30
0.85
1
-0.60
0.00
0.85
1
0
1
0
-0.60
0.00
0.85
1
-0.90
0.00
0.55
1
1
1
1
-0.90
0.00
0.55
0
-0.60
0.30
0.85
-----------------------------------------------------------------------------------1
0
0
0
-0.60
0.30
0.85
0
-0.60
0.30
0.85
1
1
0
0
-0.60
0.30
0.85
0
-0.60
0.30
0.85
1
0
1
0
-0.60
0.30
0.85
1
-0.90
0.30
0.55
1
1
1
1
-0.90
0.30
0.55
0
-0.60
0.60
0.85
-----------------------------------------------------------------------------------1
0
0
0
-0.60
0.60
0.85
0
-0.60
0.60
0.85
1
1
0
0
-0.60
0.60
0.85
1
-0.90
0.30
0.85
1
0
1
0
-0.90
0.30
0.85
0
-0.90
0.30
0.85
1
1
1
1
-0.90
0.30
0.85
1
-0.90
0.30
0.85
-----------------------------------------------------------------------------------1
0
0
0
-0.90
0.30
0.85
0
-0.90
0.30
0.85
1
1
0
0
-0.90
0.30
0.85
0
-0.90
0.30
0.85
1
0
1
0
-0.90
0.30
0.85
0
-0.90
0.30
0.85
1
1
1
1
-0.90
0.30
0.85
1
-0.90
0.30
0.85

Ejemplo 2

Prof. Laura Lanzarini

36

Demo de MatLab

Prof. Laura Lanzarini

37

Neurona Artificial
Representacin de MatLab

la nueva entrada b es una ganancia que


refuerza la salida del sumador n, la cual
es la salida neta de la red.
Prof. Laura Lanzarini

38

Plotpv
Grafica los patrones de entrada y la salida
esperada (binaria).
Sintaxis:

plotpv(p,t)

donde

P es una matriz de RxQ cuyas columnas estn


formada por los vectores de entrada (R<=3).
T es una matriz de SxQ con la salida binaria
esperada ( S<=3)

Prof. Laura Lanzarini

39

Plotpv
Ejemplo
p = [0 0 1 1;
0 1 0 1];
t = [0 0 0 1];
plotpv(p,t)

Prof. Laura Lanzarini

40

Plotpv
Grafica los patrones de entrada y la salida
esperada (binaria).
Sintaxis:
plotpv(p,t,v)
donde

V indica los lmites del grfico de la forma [x_min


x_max y_min y_max]

Prof. Laura Lanzarini

41

Plotpv
Ejemplo
p=[2.5
1

1.2

1;

-3.4 2.1 -2];

t=[1 0 1 0];
v=[-1 5 -5 5];
plotpv(p,t,v)

Prof. Laura Lanzarini

42

Plotpc
Grafica la superficie discriminante.
Sintaxis:

plotpc(W,b)

donde
W es la matriz de pesos de SxR (R<=3).
B es el vector bias de Sx1

Prof. Laura Lanzarini

43

(1) 0.625 p1 + 0.25 p2 0.50 =0

Plotpc

(2) -0.125 p1 + 1.10 p2 0.50 =0

Ejemplo
axis([-1 5 -5 5])
W=[0.625

0.25];

b=-0,50;

(1)

h = plotpc(W,b);
pause %presione una tecla
W=[-0.125

1.10];

b=-0,50;

(2)

h = plotpc(W,b,h);
Prof. Laura Lanzarini

44

Plotpv
X = [

1
2
2.7 2 3
0.5 2.3
1
5 3.5
T = [0 0 0 0 0 1 1 1 1;
0 0 0 1 1 1 1 0 0];
plotpv(X,T)

Prof. Laura Lanzarini

5.5
7

7 7 8;
6 2 1];

45

Plotpc
W = [ 14.7003
-4.5863;
-12.3377
19.0720];
b = [-45.2174;
-22.4758];
plotpc(W,b)
14.7003 p1 - 4.4863 p2 - 45.2174 =0
-12.3377 p1 + 19.072 p2 - 22.4758 =0

Prof. Laura Lanzarini

46

EP Genrico

Prof. Laura Lanzarini

47

Red Neuronal
La habilidad de procesamiento de la red
est almacenada en el peso de sus
conexiones
Los pesos se obtienen a partir de un
proceso de adaptacin (aprendizaje) a
los datos de entrada.
Prof. Laura Lanzarini

48

Redes multicapa
Ver que el perceptrn no puede resolver el
problema del XOR porque no es linealmente
separable.

Prof. Laura Lanzarini

49

XOR usando mas de un


perceptrn
OR p1+p2-0.5=0

AND
p1+p2-1.5=0
w11=1 w12=1;
b1=-0.5
Prof. Laura Lanzarini

I1- 1.5 * I2 - 0.5=0


w21=1 w22=1;
b2=-1.5

w31=1 w32=-1.5
b3=-0.5
50

Ejercicio 1
Sobre una cinta transportadora circulan naranjas y
melones. Se busca obtener un clasificador de frutas que
facilite su almacenamiento. Para cada fruta se conoce su
dimetro, en centmetros y su intensidad de color
naranja, medida entre 0 y 255.
Ejemplos:
Naranjas = { (10,200), (8,150), (7,170), (15,250)}
Meln = {(20,30), (26,30), (24,32), (19,31)}
Entrenar un perceptrn que permita resolver el problema.
Utilice como W inicial (0,0,0) e ingrese los patrones en
forma alternada (tomar uno de cada conjunto).

Prof. Laura Lanzarini

51

Ejercicio 1
Entrenar un perceptrn con los patrones:
Naranjas = { (10,200), (8,150), (7,170), (15,250)}
Meln = {(20,30), (26,30), (24,32), (19,31)}
Utilice como W inicial (0,0,0)
Ingrese los patrones

en forma alternada (tomar uno de cada conjunto).

Primero todos los de una clase y luego los de otra.

Prof. Laura Lanzarini

52

Ejercicio 1
Al entrenamiento anterior agregar los siguientes
patrones:
Naranjas = { (20,170), (21,180), (22,190),
(24,250), (15,250)}
Meln = {(21,160), (23,160), (23,190), (15,31)}
Utilice como W inicial (0,0,0)
Ingrese los patrones en distinto orden.
Pruebe con distintos valores de alfa.
Prof. Laura Lanzarini

53

Ejercicio 2
Una agencia de modelos public los resultados de la ltima
seleccin de postulantes. En ella se haban presentado seis
mujeres. Cada una de ellas ha sido caracterizada slo por su
peso y altura.
El resultado fue el siguiente:
Aceptadas = {(52,1.79), (53,1.81), (55,1.75)}
Rechazadas = {(65,1.70), (68,1.65), (58,1.71)}
A) Represente el criterio de seleccin a travs de una RN formada
por un nico perceptrn.
B) Cul sera la respuesta del perceptrn de a) si se presentaran
estas postulantes:
{(56,1.73), (70,1.60), (45,1.80)}
Prof. Laura Lanzarini

54

You might also like