You are on page 1of 40

INTRODUCCIN Y PPRINCIPIOS DE

NEUROCOMPUTACION
INTRODUCCIN
Inteligencia Artificial
Conjunto de tcnicas de
programacin para resolver
determinados problemas en
informtica. Procurando
imitar la manera como lo
hace el hombre
TEST DE TURING
Do mais grande
do mundo
LA INTELIGENCIA Y LOS ROBOTS
Robot:
Jacques Vauncanson, (1709-1782);
autmatas
MUCHO MS QUE FICCIN
ROBOTA (Kapeck, 1921):
Esclavo, Trabajador Obligado
Isaac Asimov, 1942 propuso las
leyes de la Robtica
LEYES DE LA
ROBTICA (Asimov)
1
NINGN ROBOT
PUEDE HERIR A UN
SER HUMANO NI
PERMITIR QUE
SUFRA
2
UN ROBOT TIENE QUE OBEDECER
LAS ORDENES QUE LE SEAN DADAS
POR UN SER HUMANO, A MENOS QUE
CONTRADIGA LA PRIMERA LEY
3
LA OBLIGACIN DE CADA
ROBOT ES PRESERVAR LA
PROPIA EXISTENCIA, DESDE
QUE NO ENTRE EN CONFLICTO
CON LA PRIMERA Y SEGUNDA
LEY.
LA INTELIGENCIA ARTIFICIAL Y LA
REALIDAD
1980:
Motorola (Austin, Texas).
Omrom (Kyoto, Japon).
National Semiconductor (Santa Clara)
Unimation Motorola (Austin, Texas, 1950).
INTELIGENCIA ARTIFICIAL Y LA
NATURALEZA
Las tcnicas de IA reflejan
comportamientos de la naturaleza.
Redes Neuronales: Analoga entre las
clulas nerviosas y procesos electrnicos.
Sistemas Expertos: Representacin el
conocimiento de un especialista a
travs de reglas.
Tratamiento de los factores de Certeza:
Atribuye pesos a una afirmacin.
Algoritmos Genticos: Desarrolla, el
proceso de la naturaleza sonde los ms
aptos sobreviven y se reproducen.
Lgica Difusa: Consiste en aproximar la
decisin computacional a la decisin
humana.
INTELIGENCIA ARTIFICIAL Y LA
NATURALEZA
HISTORIA DE LAS REDES
NEURONALES
Surgieron en la dcada 40: McCulloc,Walter Pitts.
Hebb descubre la base del aprendizaje.
1956 1 conferencia Internacional de IA
1959 Red Adaline
1960 Perceptron, Frank Rosenblant
1982 1 Conferencia Conjunta EEUU-
Japn de Redes Neuronales.
EL CEREBRO, INTELIGENCIA Y
APRENDIZAJE
Nada est en la inteligencia que no tenga pasado para los sentidos
En los tres
primeros aos de
vida es el periodo
de mas rpido
aprendizaje
El cerebro consume el
20% a 25% de energa
corporal, pesando 1300
gramos y la mujer 150
gramos menos
La superficie global del
cerebro de un adulto es de
1900 cm2.
LAS NEURONAS
Existen en
nuestro cerebro
cerca de 10
billones de
neuronas
Presentan la
mayor
complejidad
estructural y
funcional
La neurona es
capaz de crear
hasta 10.000
sinapsis
(conexiones)
Pueden estar ligadas a
funciones motoras y
otras a funciones no
cognitivas
Generan corriente
elctrica en el
orden de 70 mv
corriente
QUE TIENE LA RANA QUE VER CON LA PILA?
Galvani
Volta
sinapsis
TRANSMISION DEL IMPULSO
NERVIOSO
El estimulo es captado
en las dentritas y este
transmite por el axn
El impulso elctrico
que ocurre se le
llama potencial de
accin
Es polarizado
solo en uno de
los lados posee
neurotransmisor
CAPACIDAD DE ALMACENAMIENTO
Cada neurona es capaz de crear
hasta 10.000 sinapsis (10
4
)
Como el cerebro tiene aproximadamente
10
10
neuronas se puede decir que
El nmero maximo de respuestas que el cerebro puede
contener es:
10
10
x 10
4
= 10
14
= 100.000.000.000.000


LAS PARTES DEL CEREBRO
Complejo r
Sistema
Lmbico
Neocortex
Chasis Neural
definido por McLean
La parte mas arcaica est situada
en la mdula espinal, el bulbo y el
mesen cfalo.
Contiene el mecanismo neural
bsico para la reproduccin y
autopreservacin e involucra la
regulacin cardica, la
circulacin sangunea , el ciclo
cicacardiano y la respiracin. Ese
mecanismo responde por la
homeostasis.
Existen 3 especies regentes del
chasis neural:
Complejo R: Desempea un papel
importante en en el comportamiento
agresivo, en la demarcacin territorial y en
el ritual de establecimiento de la jerarqua
social
Sistema Lmbico: juega papel en la
generacin de emociones fuertes (miedo,
ira, o acesos de sentimentalismo)
Neocortex: relacionado con funciones
cognitivas, compuesto por los lbulos:
frontal, parietal, occipital y temporal.
MAPA SENSORIAL DE PENFIELD
El mapa sensorial de los humanos fue inicialmente
trazado por el Canadiense neurocirujano Wilder
Penfield (1891-1076) en los 30s

Estimul diferentes partes de sus pacientes con
electrodos que sufran de epilepsia para localizar las
clulas que ocasionaban ese ataque.

Aprendi exactamente donde cada parte del cuerpo
que fue tocado o movido fue representado en el
cerebro.
Este mapa no refleja
exactamente el tamao de las
partes del cuerpo, pero ms su
sensibilidad. Brazos y piernas
toman muy poco espacio. La
cara y manos tienen mayor
sensibilidad y complejidad,
especialmente los tipos de
dedos.
PRINCIPIOS DE NEUROCOMPUTACIN
Red masivamente paralela
interconectada de elementos,
intencionadas para interactuar con
objetos del mundo real del mismo
modo que un sistema nervioso
biolgico lo hace.
Teuvo Kohonen.
Red Neural Artificial
Cualquier proceso que pueda ser
llamado de procedimiento efectivo
puede ser realizado por una mquina.
Sobre nmeros computacionales
Alan Turing.
Conjunto de reglas
formales en todo
momento la operacin
precisa a realizar.
Coleccin de neuronas dispuestas
de tal forma que configuren un
aspecto especfico.
HISTORIA
Escribio Sobre nmeros
computacionales, describiendo la base
para el funcionamiento de los
computadores modernos.
Alan Turing (Ingls)
John von Neumann (Hngaro)
Creo una mquina abstracta.
Demostrar:
Problemas resueltos por CPPO,
podan ser resueltos por mtodos
mecnicos.
Consultor de ENIAC, elaborando el
concepto de programacin
almacenada
Concluido en febrero 1946.
30 Toneladas, 170 mts cuadrados,
10 000 capacitores y consuma
150 000 watts, con 19 000
vlvulas.
MODELOS NEURALES
Procuran aproximar el procesamiento de
las computadores al cerebro humano.
Neuronas biolgicas no poseen
caractersticas algoritmicas, ni
aplica principios digitales o circuitos
lgicos.
Si una red aprende =>
retiene conocimiento.
El conocimiento almacenado
est distribuido por toda la red.
Qu es aprender?
MODELOS NEURALES
Capacidad que posee la red
gracias a sus neuronas
RNA tienen su origen y
fundamentacin en:
Aprender:
Tomar conocimiento de;
retener en memoria, mediante
:
Estudio.
Observacin.
Experiencia
Estudio del cerebro.
Conexiones sinpticas
Aprendizaje sinptico es
masivamente paralelo, siendo:
Flexible.
Rpido.
Eficaz.
CEREBRO VS COMPUTADOR
10 000
10e11 - 10e6
Distribuido
Adaptativo
Paralelo
milisegundos
Orgnico
Cerebro
< 10
10e5 - 10e6
Centralizado
Esttico
Secuencial
Nanosegundo
Metal y plstico
Computadora
Ligaciones entre elem. procesados
Nmero de elem. procesados
Control de procesos
Almacenamiento
Tipo de procesamiento
Velocidad
Material
Parmetro
COMPUTADOR vs NEROCOMPUTADORA
Prueba una cosa por vez
Depende del modelo del programador
Ejecuta operaciones lgicas
Ejecuta programas
Prueba las posibilidades en paralelo
Descubre las relaciones de regla
de los datos y ejemplos
Ejecuta operaciones no lgicas,
transformaciones, comparaciones
Aprende
Neurocomputadoras Mquinas de Von Neumann
NEURONA ARTIFICIAL
Los tipos de RNA difieren por:
T
Para simular las conexiones sinpticas biolgicas.
Salida j
Entradas
wj0
wj1
wj2
x0
x1
x2
Funcin de
transferencia
Acumula los datos recibidos (Estmulos).
Procesa la funcin suma.
Peso:
:
:
Tipo de conexin.
Tipo de entrenamiento.
Nmero de capas de neuronas
Funcin de
suma
Pesos
NEURONA ARTIFICIAL
Representan el grado de importancia que
determinada entrada posee en relacin con
aquella determinado neurona.
(proporcionalidad directa)
Peso:
Entradas * Pesos = Entradas
ponderadas
Salida =
xi * wi
i=0
n
CONEXIN SINAPTICA ARTIFICIAL
ESTIMULO


T
T
NEURONA ARTIFICIAL SIMPLE CON n
ENTRADAS Y UNA SALIDA
T
1
2
n
NEURONA ARTIFICIAL CON 5
ENTRADAS
T
1
2
5
3
4
NEURONA CON ENTRADAS Y PESOS
DEFINIDOS
T
x1
x2
xn
w1
w2
wn

Salida = suma de todas
las entradas por
pesos

Salida =
n
i=0
xi * wi
FUNCIN DE ACTIVACIN Y TRANSFERENCIA

Ft
Entradas
wj0
wj1
wj2
x0
x1
x2
Estimulo
Fa
FA:
Funcin de orden interna.
Hace acontecer un nivel de activacin dentro de la propia
neurona.
Decisin sobre el valor resultante de la de las Entradas
Ponderadas.
FT:
Funcin que define y enva para afuera de la neurona el valor
pasado por la F.A.
Limitador lgico.
Posee caractersticas rgidas:
Puede no producir efecto en la neurona siguiente SI el valor de
activacin es menor que el mnimo para su activacin.
FUNCIONES DE TRANSFERENCIA
RED NEURAL - RED DE NEURONAS
Una entrada puede estar conectada a muchas neuronas.
Necesariamente UNA salida para cada neurona.
Las conexiones representan el
contacto de las dendritas con otra
neurona formando la sinpsis.
Capas
escondidas
Situadas entre la capa de Entrada y Salida.
No existe ninguna regla definida para el nmero de capas ocultas (0 - n)
ARQUITECTURA DE LA RED NEURAL
Depende de las conexiones entre las capas.
Ampliamente conectadas:
Realimentacin:
Otros:
MTODOS DE CONTROL DE
APRENDIZAJE
El proceso de monitorizacin de control de
aprendizaje es la Monitorizacin
A. Supervisado:
B. No Supervisado:
AJUSTE SINPTICO
Correccin en los pesos para obtener el
resultado esperado
Ejemplo: Regla Delta
Wi (n+1) = wi(n) + i
i = c * * xi,
i = correccin asociada con la i-esima entrada xi
wi(n+1) = el nuevo valor del peso
wi(n) = el valor viejo del peso
= salida deseada - salida obtenida
c = constante de aprendizaje

EJEMPLO DE AJUSTE SINAPTICO
T
0
X1
X2 0
Si resultado <0 entonces salida =0
Si resultado =0 resultado <=1 entonces salida =1
Si resultado >1 entonces salida = 1
T
0
1
1 0
1*0+1*0=0
Transferencia:
Suma=0, Salida=0
Error=1-0=1
Peso nuevo= 0+(1*1*1)=1
Ajuste para peso 1
Error=1-0=1
Peso nuevo= 0+(1*1*1)=1
Ajuste para peso 2
T
1
0
0
1
0*1+0*1=0
Transferencia:
Suma=0, Salida=0
0
0
1*1+1*1=2
Transferencia:
Suma=2, Salida=1

You might also like