You are on page 1of 11

Exercicios Computação Evolutiva e Conexionista

Aula 1)

O neurônio artificial é o modelo de neurônio mais simples que engloba as


características de uma rede neural biológica, isto é, paralelismo e alta conectividade.

O neurônio artificial possui sete elementos básicos:


a) Sinais de entrada {x1, x2, ..., xn}
São usualmente normalizados, visando incrementar a eficiência computacional dos
algoritmos de aprendizagem;
b) Pesos sinápticos {w1, w2, ..., wn}
Valores que servirão para ponderar cada uma das variáveis de entrada da rede,
permitindo-se quantificar as suas relevâncias em relação à funcionalidade do respectivo
neurônio;
c) Combinador linear { S}
Sua função é agregar todos os sinais de entrada que foram ponderados pelos respectivos
pesos sinápticos a fim de produzir um valor de potencial de ativação;
d) Limiar de ativação {q}
Variável que especifica qual será o patamar apropriado para que o resultado produzido
pelo combinador linear possa gerar um valor de disparo em direção à saída do neurônio;
e) Potencial de ativação {u}
Resultado produzido pela diferença do valor produzido entre o combinador linear e o
limiar de ativação. Se tal valor é positivo, ou seja, se u ³ q, então o neurônio produz um
potencial excitatório; caso contrário, o potencial será inibitório;
f) Função de ativação {g}
Seu objetivo é limitar a saída do neurônio dentro de um intervalo de valores razoáveis a
serem assumidos pela sua própria imagem funcional;
g) Sinal de saída {y}
Valor final produzido pelo neurônio em relação a um determinado conjunto de sinais de
entrada.

1) Explique o funcionamento do neurônio artificial.


O funcionamento de um neurônio artificial segue os seguintes passos:

_ Apresentação de um conjunto de valores que representam as variáveis de entrada do


neurônio;

_ Multiplicação de cada entrada do neurônio pelo seu respectivo peso sináptico;


_ Obtenção do potencial de ativação produzido pela soma ponderada dos sinais de
entrada, subtraindo-se o limiar de ativação;

_ Aplicação de uma função de ativação apropriada, tendo-se como objetivo limitar a


saída do neurônio;
_ Compilação da saída a partir da aplicação da função de ativação neural em relação ao
seu potencial de ativação.

2) Faça uma analogia entre os elementos constituintes do neurônio


artificial e do neurônio biológico.

Neuronio Biologico Neuronios artificiais


captar, de forma contínua, os estímulos Dentritos Variáveis de entrada
vindos de diversos outros neurônios
processa todas as informações advindas dos Corpo celular Pesos sinápticos
dendritos, a fim de produzir um potencial de Combinador linear
ativação que indicará se o neurônio poderá Limiar de ativação
disparar um impulso elétrico ao longo de seu Potencial de ativação
axônio.
conduzir os impulsos elétricos para outros Axônio Função de ativação
neurônios conectores
conexões que viabilizam a transferência de Sinapses Sinal de saída /
impulsos elétricos (entre dentritos e axônio) entrada

3) Em relação às características das RNAs, explique em que consiste a adaptação por


experiência e a capacidade de generalização.
Adaptação por experiência : Os parâmetros internos da rede (pesos sinápticos) são
ajustados a partir da apresentação
sucessiva de exemplos relacionados ao comportamento do processo, possibilitando a
aquisição do conhecimento por experimentação.
Capacidade de generalização: Após o processo de treinamento da rede, essa é capaz
de generalizar o conhecimento adquirido, possibilitando estimar soluções que eram até
então desconhecidas.

4) Quais os principais tipos de problemas em que as RNAs são aplicadas?


Aproximador universal de funções: mapeamento de processos cuja modelagem por
técnicas convencionais são de difícil obtenção.
Controle de processos: controles empregados em robótica, aeronaves,
elevadores, eletrodomésticos, satélites, etc.
Reconhecimento / classificação de padrões: reconhecimento de imagens, voz, escrita,
etc.
Agrupamento de dados (clusterização): problemas que envolvem classificação
automática de classes e garimpagem de dados.
Sistemas de previsão: previsões climáticas, previsões de mercados
financeiros, etc.
Otimização de sistemas: otimização combinatorial.
Memórias associativas: processamento de imagens, transmissão de sinais,
identificação de caracteres manuscritos, etc.
Aula 2)
1) Quais as diferenças estruturais observadas nas redes com arquitetura recorrente em
relação àquelas com arquitetura feedforward?
Redes recorrentes ou realimentadas tem as saídas dos neurônios são realimentadas
como sinais de entrada para outros neurônios.

Tem-se apenas uma camada de entrada e uma única camada de


neurônios, que é a própria camada de saída.

As redes com arquitetura recorrente recorrentes produzem saídas atuais


considerando também valores das saídas anteriores.

2) Em que tipos de aplicação é essencial a utilização de redes neurais recorrentes?


Como são realimentadas são indicadas para processamento dinâmico de
informações, como sistemas variantes em relação ao tempo, previsão, otimização e
controle.

3) Quais são os fatores que influenciam na determinação do número de camadas


escondidas de uma rede feedforward de camadas múltiplas?
Os fatores que influenciam são o tipo e complexidade do problema e quantidade
e qualidade dos dados

4) Quais as principais diferenças entre os métodos baseados em treinamento


supervisionado e não supervisionado?
No treinamento supervisionado se sabe o valor que se quer chegar, tem um valor ótimo
final e os pesos sinápticos e o limiar de ativação são então continuamente ajustados,
mediante comparações executadas pelo algoritmo de aprendizagem utilizando o erro.
No não supervisionado não se tem a ideia da saída desejada, e por consequência a
própria rede deve se auto-organizar identificando clusters que contenham similaridades.
Os pesos sinápticos e o limiar de ativação são ajustados refletindo esta representação
interna da rede.

5) Quais as principais diferenças entre os métodos baseados em treinamento


supervisionado e por reforço?
Treinamento supervisionado: Há uma saída esperada, e o treinamento é feito
ajustando os pesos sinápticos e o limiar de ativação ate chegar na saída esperada.
Treinamento por reforço: Não se tem uma saída desejada (professor) apenas é
dito se o resultado obtido foi bom (obtendo recompensa) ou ruim (dando
punição), o treinamento é feito por tentativa e erro.
Aula 3 – PERCEPTRON

1) Explique por que o Perceptron somente consegue classificar padrões cuja fronteira
de separação entre as classes seja linear.
Pois ele pode ter apenas 2 saidas possíveis que so irá convergir se as classes forem
linearmente separáveis.

2) Seja um problema de classificação de padrões que se desconhece a priori se as suas


duas classes são ou não separáveis linearmente. Elabore uma estratégia para verificar a
possível aplicação do Perceptron em tal problema.
Pegar os dados do problema e plotar o gráfico tentar ver se é possível passar uma linha
separando as duas classes ou não.

3) Dois projetistas de instituições diferentes estão aplicando uma rede Perceptron para
mapear o mesmo problema de classificação de padrões. Discorra se é correto afirmar
que ambas as redes convergirão com o mesmo número de épocas.
Não, pois a quantidade de épocas para convergência varia em função de:
_ Valores iniciais que foram atribuídos ao vetor de pesos { w };
_ Disposição espacial das amostras de treinamento;
_ Valor especificado para a taxa de aprendizagem { h }.

4) Considere um problema de classificação de padrões composto de duas entradas {x1 e


x2}, cujo conjunto de treinamento é composto pelas seguintes amostras de treinamento:

Mostre se é possível aplicar o Perceptron na resolução deste problema.


Não é possível aplicar o perceptron nesse problema pois as classes não são
linearmente separáveis.
O gráfico gerado tem a seguinte estrutura :

B A

B
A
Aula 4 Adaline

1) Explique as principais diferenças existentes entre o Perceptron e o Adaline.

Adaline Perceptron
Processo de treinamento Regra DELTA Regra de Hebb
(ajuste)
Objetivo Minimizar a diferença entra Considera a resposta
a saída desejada (d) e a produzida após a
resposta do combinador apresentacao individual de
linear (u), considerando cada amostra
todas as amostras de
treinamento disponiveis
convergencia Independente dos valores Pode haver vários
iniciais atribuídos ao vetor hiperplanos apropriados, pois
de peso, a linha de ficam dentro de uma faixa de
separação após a separabilidade
convergência será sempre o
mesmo

2) Considerando-se a aplicação de RNAs a um problema de classificação de


padrões que necessite de treinamento online, explique que tipo de rede
(Perceptron ou Adaline) seria a mais apropriada para tal condição.
A rede mais apropriada seria a Adaline pois ela tem maior tendência a
imunidade de ruídos nos dados de entrada e como dados alimentados online
podem sofrer alterações (ruídos) durante a transferência dos dados. Essa
imunidade a ruídos é devido ao hiperplano único a que converge.

3) Discorra se a afirmação seguinte é verdadeira ou falsa. Independentemente dos


valores iniciais assumidos para o vetor de pesos do Adaline, uma mesma
configuração final para w* será sempre obtida após a sua convergência.
Sim, pois a configuração de w* é atualizado a partir da minimização do erro
quadrático, sendo assim se obtem um w ótimo tal que o erro quadrático seja o
mínimo.
4) Explique, considerando a questão anterior, se o número de épocas de
treinamento será também igual, independentemente do vetor de pesos iniciais do
Adaline.
Não, pois o algoritmo converge quando o erro quadrático médio entre duas
épocas sucessivas for suficientemente pequeno, ou seja dependendo dos pesos
inciais atribuídos pode obter mais ou menos épocas para convergência.

Aula 5 Perceptron Multi Camadas (PMC)

1) Quais as semelhanças e diferenças entre as Redes Perceptron Multicamadas


(PMC) e as Redes Perceptron e Adaline?
Semelhanças: A mesma estrutura de funcionamento, possui entradas, pesos
sinápticos, camada neurônios de saída. O processo de treinamento é supervisionado
Diferenças: Presença de camadas escondidas, há uma camada intermediaria entre a
entrada e a saída.
Camada neural de saída pode ser composta por vários neurônios.
2) Quais são as duas fases do algoritmo de treinamento backpropagation? Explique
cada uma delas.
Forward: A primeira é chamada de “propagação adiante” (forward), na qual os sinais
{x1, x2,..., xn} de uma amostra do conjunto de treinamento são inseridos nas entradas
da
rede e são propagados camada a camada até a produção das respectivas saídas. Essa
fase busca apenas obter respostas da rede levando em conta apenas os valores atuais
de pesos sinápticos e limiares, onde não se alteram durante cada execução dessa fase.

Backward: ou propagação reversa, as alterações (ajustes) dos pesos sinápticos e


limiares de todos os neurônios são feitos nessa fase.
3) Como são ajustados os pesos sinápticos da camada neural de saída e das
camadas intermediárias (sem as equações)?
Primeiramente são ajustados os pesos sinápticos da camada de saída a partir da
estimativa dos erros de saída produzido, de forma semelhante ao perceptron de
camada única.
Após isso é iniciado as correções dos pesos para as camadas intermediarias
posteriores que dependem dos valores da camada anterior. Assim os ajustes são
feitos baseando-se nos valores ponderados dos pesos sinápticos que foram
ajustados anteriormente – (retropropagação_)

Aula 6 – Perceptron Multipla Camada 2 (PCM)


1) Explique o que são situações de underfitting e overfitting.
O aumento indiscriminado de neurônios e camadas intermediarias não
asseguram generalização entre as amostras e os subconjuntos do teste.
O overfitting é quando se tende a levar a saída do PMC para memorizações
excessiva, onde se acaba decorando a resposta, na fase de aprendizado o erro
tende a ser baixo, mas durante o teste o erro tende a valores elevados.
O underfitting é a falta de neurônios para extração e armazenamento das
características do processo.(debilidade neural)
2) Discorra sobre a necessidade do pré-processamento das amostras de treinamento
e teste, explicitando-se ainda a sua influência na velocidade de treinamento da
rede PMC.
O pre-processamento é necessário para melhorar o desempenho de treinamento,
assim os valores de entrada e saída são escalonados para um intervalo fechado
entre -1 e 1. Pois faz com que a velocidade de treinamento aumente.

3) O que pode ser feito para evitar a convergência da rede para pontos de mínimos
locais inapropriados?
Para evitar a convergência da rede para mínimos locais inapropriados, pode-se
executar o treinamento de cada topologia candidata mais de uma vez, com
diferentes matrizes de pesos iniciais (geradas aleatoriamente).

4) O que pode ser feito para cessar o treinamento quando a precisão especificada se
torna inalcançável?
Impor uma quantidade máxima de épocas como critério adicional de parada do
algoritmo de treinamento do PMC.

AULA 7 Rede de Função Base Radial (RBF)

1) Explique as principais diferenças existentes entre as redes PMC e RBF.


As redes RBF possui apenas uma camada intermediaria, e a função de ativação
gaussiana. Outra diferença é o treinamento de duas fases,

2) O que acontece em cada estágio de treinamento das redes RBF? Qual é o tipo de
aprendizado empregado em cada estágio?
a primeira os ajustes da camada intermediaria é feito através de um método não
supervisionado depende apenas dos dados de entrada, na segunda fase os pesos
da camada de saída são ajustados utilizando o aprendizado supervisionado
(similar ao pmc na ultima camada - regra delta generalizada)

3) Qual é o método de agrupamento usado na primeira fase de treinamento de uma


rede RBF? Como ele funciona?
Na primeira fase ´é utilizado o método k-means (k-medias) que tem proposito de
posicionar os centros de k-gaussianas em regiões onde os padrões de entrada
tenderão a se agrupar.
Vai selecionando cada amostra e as mais próximas das referencias ate obter a
media correta.

4) Quais são as diferenças entre as fronteiras de separabilidade das redes PMC e


RBF para problemas de classificação de padrões?
As fronteiras das redes PMC sao formados por conexões de lineares formando
formas geométricas em cada um dos problemas aplicados, já RBF utiliza
funções gaussianas que torna a fronteira da classe como sendo circulo.
Com apenas 2 neuronios na camada RBF foi possível separar 2 classes distintas
já no PCM seria necessário 8 neuronios.
Aula 8 – Hopfield

1) Quais são as diferenças entre as arquiteturas feedforward e recorrente?


Redes recorrentes ou realimentadas tem as saídas dos neurônios são
realimentadas como sinais de entrada para outros neurônios.
Comportamento dinâmico.
Feedforward: Tem-se apenas uma camada de entrada e uma única camada
de neurônios, que é a própria camada de saída.

2) As redes recorrentes de Hopfield possuem quantas camadas? Como os neurônios


são conectados?
Possui uma única camada, onde todos os neurônios são completamente
interligados (entre eles mesmo e os neurônios também)

3) Qual é a função que caracteriza as redes neurais recorrentes? Explique esta


função com relação aos seus pontos.
Funcoes de ativação monótonas crescentes (ex: tangente hiperbólica). São
estáveis e pode possuir múltiplos pontos de equilíbrios.

4) As aplicações de redes de Hopfield estão concentradas em que área do


conhecimento?
Areas de otimizacao de sistemas > Prog dinâmica, linear, otimizacao não linear
restrita, otimizacao combinatorial.

5) Quais são as condições para que a rede de Hopfield seja estável?


Matriz de pesos {w} deve ser simétrica
Funcao de ativação {g()} deve ser monótona crescente.
Considerando isso qq conj iniciais a rede ira convergira para um ponto de
equilíbrio estável.

AULA 9 – Kohonen

1) Quais os tipos de arquitetura e de aprendizado usados pelos mapas auto-


organizáveis de Kohonen?
Arquitetura feedforward e Aprendizado não supervisionado

2) O que os mapas topológicos informam?


Informam como estarão organizados espacialmente os neurônios da rede frente
ao comportamento de seus vizinhos.
Informam as conexões laterais do neurônio, ou seja conexão com a vizinhança.

3) Em que consiste um processo de aprendizado competitivo?


Há concorrência entre os neurônios, o vencedor ajusta seus pesos e aperfeiçoa o
seu estado para o prox competição (padrão apresentado)

4) Quais são os três aspectos que devem ser considerados na configuração de uma
SOM?
Definição da organização espacial (grid) dos neurônios;
_ Delimitação dos conjuntos de vizinhança de cada neurônio;
_ Especificação do critério de ajuste do vetor de pesos do neurônio vencedor e
de seus vizinhos.

5) Quais são os passos envolvidos no processo de treinamento da rede de


Kohonen?
I. Cada neurônio da rede computa o nível de proximidade de seu vetor de
pesos em relação a cada padrão de entrada;
II. Um mecanismo de competição entre os neurônios é aplicada com o objetivo
de escolher o vencedor;
III. A partir da definição do neurônio vencedor, resgata-se, por meio do mapa
topológico, o conjunto de vizinhança que informa sobre quais são os
neurônios vizinhos ao vencedor;
IV. Os pesos do neurônio vencedor e de seus vizinhos são incrementados com o
objetivo de aumentar o nível de proximidade com a respectiva entrada;
V. Após a convergência, é possível identificar regiões do mapa de contexto que
correspondem às classes do problema.

AULA 10 – ART - 1

1) Quais são os tipos de redes ART?


ART-1 – Padrões com entradas binárias e treinamento não supervisionado
ART-2 – Padrões com entradas binárias ou analógicas (contínuas) e treinamento não
supervisionado
ART-3 – Padrões com entradas binárias ou analógicas e treinamento não
supervisionado, usando-se mais de uma camada intermediária
ART-Map – Padrões com entradas binárias ou analógicas e treinamento
supervisionado, utilizando duas redes ART
Fuzzy-ART – Versão fuzzy da rede ART-Map, com treinamento supervisionado.

2) Qual é o tipo de aprendizado da rede ART-1?


Aprendizado não supervisionado.

3) Quais são os parâmetros livres da rede ART-1?


Matrizes de pesos da camada de saída Wf e Wb

4) Quais são as etapas de aprendizado da rede ART-1?


Inicializar os parâmetros (matrizes de pesos e padrão de vigilância)
Reconhecimento – o neurônio de saída que tiver maior similaridade sera o
vencedor da competição - parece com o método competitivo de Kohonem,
Comparacao – Verifica se a classe vencedora é mesmo a mais apropriada
Busca – se houver rejeição do neurônio pseudo vencedor encontrar outra.
Atualizacao – após a conclusão bem sucedida atualiza os pesos das matrizes

5) Como o parâmetro de vigilância r afeta o desempenho da rede ART-1?


De acordo com o parâmetro de vigilância se determina a quantidade de classes
que terá. Quanto mais próximo de 1 o parâmetro de vigilância maior numero de
classes será possível.

You might also like