You are on page 1of 51

Agentes Inteligentes

Captulo 2 Russell & Norvig

Na primeira aula identificamos o conceito de agentes racionais como uma questo central para nossa abordagem da inteligncia artificial. Nesta aula, tornaremos essa noo mais concreta. Nosso plano neste curso usar esse conceito para desenvolver um pequeno conjunto de princpios de projeto com a finalidade de construir sistemas de agentes bem-sucedidossistemas que possam ser adequadamente chamados Inteligentes.

Exemplos
Agente humano
Sensores: Olhos, ouvidos e outros rgos. Atuadores: Mos, pernas, boca e outras partes do corpo.

Agente robtico
Sensores: cmeras e detectores de infravermelho. Atuadores: vrios motores.

Agente de software
Sensores: entrada do teclado, contedo de arquivos e pacotes vindos da rede. Atuadores: tela, disco, envio de pacotes pela rede.

Aula 2 - 13/08/2010

Usamos o termo percepo para fazer referncia s entradas perceptivas do agente em qualquer momento dado. A seqncia de percepes do agente a histria completa de tudo que o agente j percebeu.

Podemos imaginar a tabulao da funo de agente que descreve qualquer agente dado; para a maioria dos agentes, o resultado seria uma tabela muito grande- na verdade infinita, a menos que seja definido um limite sobre o comprimento das sequncias de percepes que queremos considerar.

Mapeando percepes em aes


Sequncia de percepes: histria completa de tudo que o agente percebeu. O comportamento do agente dado abstratamente pela funo do agente: [f: P* A] onde a P* uma sequncia de percepes e A uma ao. O programa do agente roda em uma arquitetura fsica para produzir f. Agente = arquitetura + programa.
Aula 2 - 13/08/2010

claro que a tabela uma caracterizao externa do agente. Internamente, a funo de agente para um agente artificial ser implementada por um programa de agente. importante manter essas duas idias distintas.
A funo de agente uma descrio matemtica abstrata. O programa de agente uma implementao concreta, relacionada arquitetura do agente.

Exemplo: O mundo do aspirador de p

Percepes: local e contedo


Exemplo: [A, sujo]

Aes: Esquerda, Direita, Aspirar, NoOp

Aula 2 - 13/08/2010

Qual a maneira correta de preencher a tabela? Em outras palavras, o que torna um agente bom ou ruim, inteligente ou estpido?

Bom comportamento: o conceito de racionalidade


Um agente racional aquele que faz tudo certo- em termos conceituais, toda entrada na tabela correspondente .funo de agente preenchida de forma correta.
bvio que fazer tudo certo melhor do que fazer tudo errado. Porm, o que significa fazer tudo certo?

Ento, precisaremos de algum mtodo para medir o sucesso.

Agentes Racionais
Como preencher corretamente a tabela de aes do agente para cada situao? O agente deve tomar a ao correta baseado no que ele percebe para ter sucesso.
O conceito de sucesso do agente depende uma medida de desempenho objetiva.
Exemplos: quantidade de sujeira aspirada, gasto de energia, gasto de tempo, quantidade de barulho gerado, etc.

A medida de desempenho deve refletir o resultado realmente desejado.

Aula 2 - 13/08/2010

Medida de desempenho
Uma medida de desempenho encarna o critrio para se medir o sucesso do comportamento do agente.
Quando um agente inserido em um ambiente, ele gera uma seqncia de aes, de acordo com as percepes que recebe. Essa seqncia de aes faz o ambiente passar por uma seqncia de estados. Se a seqncia desejvel, isso quer dizer que o agente funcionou bem. Evidentemente, no existe uma medida fixa apropriada para todos os agentes.

regra geral medidas de desempenho


Como regra geral, melhor projetar medidas de desempenho de acordo com o resultado realmente desejado no ambiente, em vez de cri-las de acordo com o comportamento esperado do agente.

A quantificao de racional depende de quatro fatores:


A medida de desempenho que define o critrio de sucesso. O conhecimento anterior que o agente tem do ambiente. As aes que o agente pode executar. A seqncia de percepes do agente at o momento.

Definio de um agente racional


Para cada seqncia de percepes possvel, um agente racional deve selecionar uma ao que se espera venha a maximizar sua medida de desempenho, dada a evidncia fornecida pela seqncia de percepes e por qualquer conhecimento interno do agente.

racionalidade e oniscincia
Um agente onisciente sabe or resultado real de suas aes e pode agir de acordo com ele, porm a oniscincia impossvel na real!idade. Conto chino Esse exemplo mostra que racionalidade no o mesmo que perfeio. A racionalidade maximiza o desempenho esperado. Perfeio maximiza o desempenho real.

Portanto, nossa definio de racionalidade no exige ortiscincia, porque a escolha racional s de pende da seqncia de percepes at o momento. Um agente racional deve escolher a ao "olhar" antes de iniciar a travessia, porque olhar ajuda a maximizar o desempenho esperado. A realizao de aes com a finalidade de modificar percepes futuras- s vezes chamada coleta de informaes- uma parte importante da racionalidade.

Nossa definio exige um agente racional no apenas para coletar informaes, mas tambm para aprender tanto quanto possvel do que ele percebe. A configurao inicial do agente poderia refletir algum conhecimento anterior do ambiente mas, medida que o agente ganha experincia, isso pode ser modificado e ampliado. Existem casos extremos em que o ambiente completamente conhecido a priori. Em tais casos, o agente no precisa perceber ou aprender; ele simplesmente age de forma correta.

Considere o humilde besouro de esterco. Depois de cavar seu ninho e depositar os ovos, ele busca uma bola de esterco em um monte prximo para fechar a entrada. Se, durante o percurso, a bola de esterco for removida de suas garras, o besouro seguir emfrente e imitar o fechamento do ninho com a bola de esterco inexistente, sem notar que ela foi retirada. A evoluo construiu uma suposio sobre o comportamento do besouro e, quando essa hiptese violada, resulta um comportamento malsucedido. A vespa sphex um pouco mais inteligente. A fmea da sphex cava uma cova, sai, pica urna lagarta e a arrasta at a borda da cova, entra novamente na cova para verificar se tudo est bem, arrasta a lagarta para dentro e deposita seus ovos. A lagarta servir como alimento quando os ovos eclodirem mas se um entomologista afastar a lagarta algumas polegadas enquanto a fmea estiver fazendo a verificao, ela voltar etapa de "arrastar" de seu plano e continuar o plano sem modificao, mesmo depois de dezenas de intervenes de afastamento de lagartas. A sphex incapaz de aprender que seu plano inato est falhando, e portanto no o modificar.

Quando um agente se baseia no conhecimento anterior de seu projetista e no em suas prprias percepes, dizemos que o agente no tem autonomia. Um agente racional deve ser autnomo ele deve aprender o que puder para compensar um conhecimento prvio parcial ou incorreto.

PEAS
Ao projetar um agente, a primeira etapa deve ser sempre especificar o ambiente de tarefa.
Performance = Medida de Desempenho Environment = Ambiente Actuators = Atuadores Sensors = Sensores

Aula 2 - 13/08/2010

Exemplo de PEAS: Motorista de Txi Automatizado


Medida de desempenho: viagem segura, rpida, sem violaes s leis de trnsito, confortvel para os passageiros, maximizando os lucros. Ambiente: ruas, estradas, outros veculos, pedestres, clientes. Atuadores: direo, acelerador, freio, embreagem, marcha, seta, buzina. Sensores: cmera, sonar, velocmetro, GPS, hodmetro, acelermetro, sensores do motor, teclado ou microfone.
Aula 2 - 13/08/2010

Exemplo de PEAS: Sistema de Diagnstico Mdico


Medida de desempenho: paciente saudvel, minimizar custos, processos judiciais. Ambiente: paciente, hospital, equipe. Atuadores: exibir na tela perguntas, testes, diagnsticos, tratamentos. Sensores: entrada pelo teclado para sintomas, descobertas, respostas do paciente.

Aula 2 - 13/08/2010

Exemplo de PEAS: Instrutor de Ingls Interativo


Medida de desempenho: maximizar nota de aluno em teste. Ambiente: conjunto de alunos. Atuadores: exibir exerccios, sugestes, correes. Sensores: entrada pelo teclado.

Aula 2 - 13/08/2010

Propriedades de ambientes de tarefa


Completamente observvel (versus parcialmente observvel)
Os sensores do agente do acesso ao estado completo do ambiente em cada instante. Todos os aspectos relevantes do ambiente so acessveis.

Determinstico (versus estocstico)


O prximo estado do ambiente completamente determinado pelo estado atual e pela ao executada pelo agente. Se o ambiente determinstico exceto pelas aes de outros agentes, dizemos que o ambiente estratgico.

Aula 2 - 13/08/2010

Propriedades de ambientes de tarefa


Episdico (versus sequencial)
A experincia do agente pode ser dividida em episdios (percepo e execuo de uma nica ao). A escolha da ao em cada episdio s depende do prprio episdio.

Esttico (versus dinmico)


O ambiente no muda enquanto o agente pensa. O ambiente semidinmico se ele no muda com a passagem do tempo, mas o nvel de desempenho do agente se altera.

Aula 2 - 13/08/2010

Propriedades de ambientes de tarefa


Discreto (versus contnuo)
Um nmero limitado e claramente definido de percepes e aes.

Agente nico (versus multi-agente)


Um nico agente operando sozinho no ambiente. No caso multi-agente podemos ter
Multi-agente cooperativo Multi-agente competitivo

Aula 2 - 13/08/2010

Exemplo
Xadrez com relgio Completamente observvel Sim Xadrez sem relgio Sim Direo de Txi No

Agente Dirigido por Tabela


Funo AGENTE-DIRIGIDO-POR-TABELA(percepo) retorna uma ao Variveis estticas:
percepes, uma seqncia, inicialmente vazia tabela, uma tabela de aes, indexada por seqncias de percepes, de incio completamente especificada

anexar percepo ao fim de percepes ao ACESSAR(percepes, tabela) retornar ao

Desvantagens:
Tabela gigante (xadrez = 10150 entradas) Tempo longo para construir a tabela No tem autonomia Mesmo com aprendizado demoraria muito para aprender a tabela.

Implementao do Agente Motorista de Taxi


Criar a tabela de Percepo x Ao.
50 MB de imagens por segundo (25 frames p/s, 1000x1000 pixels, 8 bits cores e 8 bits de intensidade)
Tabela com 10250.000.000.000 entradas

Para cada imagem possvel -> uma ao !

Desafio fundamental da IA:


Escrever programas que, na medida do possvel, produzam um comportamento racional a partir de uma pequena quantidade de cdigo Exemplo:
Tabelas de razes quadradas utilizadas por engenheiros (dec. 70) Substitudas por um programa de 5 linhas que corresponde ao mtodo de Newton

Tipos bsicos de agentes


Quatro tipos bsicos, do mais simples ao mais geral
Agentes reativos simples Agentes reativos baseados em modelos Agentes baseados em objetivos Agentes baseados na utilidade

Esquema de funcionamento
Agente
sensor
Como o mundo est agora?

Regras condioao

Que ao eu devo realizar agora?

atuador

Ambiente

Exemplo: Agente Reativo Simples


Funo AGENTE-ASPIRADOR-DE-P-REATIVO([posio,estado]) retorna uma ao se estado = Sujo ento retorna Aspirar seno se posio = A ento retorna Direita seno se posio = B ento retorna Esquerda

Regras condio-ao (regras se-ento) fazem uma ligao direta entre a percepo atual e a ao. O agente funciona apenas se o ambiente for completamente observvel e a deciso correta puder ser tomada com base apenas na percepo atual.

Funcionamento
function AGENTE-REFLEXO-SIMPLES(percepo): ao static: regras (um conjunto regra condioao) estado INTERPRETA-ENTRADA(percepo) regra CASAMENTO-REGRA(estado, regras) ao AO-REGRA[regra] return ao
INTERPRETA-ENTRADA Gera uma descrio abstrata do estado a partir do que foi percebido CASAMENTO-REGRA Retorna a primeira regra que "casou" com a descrio do estado

Agentes reativos baseados em modelos


Agente
Estado Interno

sensor
Como o mundo est agora?

O que minhas aes fazem


Regras condioao Que ao eu devo realizar agora?

atuador

Ambiente

Como o ambiente evolu

Agentes reativos baseados em modelo


Funo AGENTE-REATIVO-COM-ESTADOS(percepo) retorna uma ao
Variveis estticas: estado, uma descrio do estado atual do mundo regras, um conjunto de regras condio-ao ao, a ao mais recente, incialmente nenhuma estado ATUALIZA-ESTADO(estado, ao, percepo) regra REGRA-CORRESPONDENTE(estado, regras) ao AO-DA-REGRA[regra] retornar ao

Agente reativo baseado em modelo


Como lidar com a possibilidade de observao parcial O agente deve controlar as partes do mundo que ele no pode ver agora O agente deve manter um estado interno que dependa do histrico de percepes e reflita os aspectos no observados no estado atual Dois tipos de conhecimento so necessrios para atualizar o estado interno do agente (modelo do mundo): Como o ambiente evolu independente do agente Um carro que est ultrapassando em geral estar mais perto do que estava um instante antes Como as aes do prprio agente afetam o mundo Se o agente virar o volante direita, o carro ir virar p/ a direita

Agente baseado em objetivos


Agente
Estado interno

sensor
Como o mundo est agora? Como o mundo ficar se eu fizer a ao x Que ao eu devo realizar agora?

Como o ambiente evolu O que minhas aes fazem

Objetivos

atuador

Ambiente

Agente baseado em objetivos


O agente precisa de algum tipo de informao sobre o seu objetivo
Objetivos descrevem situaes desejveis. Ex: estar no destino

Combinando informaes sobre:


O objetivo do agente Os resultados de suas aes

Agente baseado em objetivos


O agente pode escolher aes que alcancem o objetivo A seleo da ao baseada em objetivo pode ser:
Direta: quando o resultado de uma nica ao atinge o objetivo Mais complexa: quando ser necessrio longas seqncias de aes para atingir o objetivo

Agente baseado em objetivos


Para encontrar seqncias de aes que alcanam os objetivos
Algoritmos de Busca e Planejamento

A tomada de deciso envolve a considerao do futuro


O que acontecer se eu fizer isso ou aquilo? O quanto isso me ajudar a atingir o objetivo?

Consideraes e limitaes
O agente que funciona orientado a objetivos mais flexvel
Agente reflexo aes pr-compiladas (condio-ao) Agente p/ objetivo pode alterar somente o objetivo sem necessidade de se reescrever as regras de comportamento

Mais flexvel representao do conhecimento permite modificaes

Ex: Se comear a chover todos as informaes relevantes podem ser alteradas para se operar de forma eficiente

O objetivo no garante o melhor comportamento para o agente, apenas a distino entre estados objetivos e no objetivos
Ex: Algumas alternativas de planejamento de aes futuras podem ser mais rpidas, seguras ou baratas que outras

Agente baseado em utilidade


Estado interno Como o ambiente evolu O que minhas aes fazem

sensor
Como o mundo esta agora Como o mundo ficar se fizer a ao Quo feliz serei se ir para tal estado Que ao eu devo fazer agora

Utilidade

Agente

atuador

Ambiente

Agente baseado em utilidade


Se um estado do mundo mais desejvel que outro, ento ele ter maior utilidade para o agente
Utilidade uma funo que mapeia um estado para um nmero real que representa o grau de satisfao com este estado Especificao completa da funo de utilidade decises racionais em dois tipos de casos:
Quando existem objetivos conflitantes (velocidade x segurana) a funo de utilidade especifica o compromisso apropriado Quando existem vrios objetivos que se deseja alcanar e nenhum deles pode ser atingido com certeza ponderar a importncia dos objetivos

Agentes com aprendizagem


Em agentes sem aprendizagem tudo o que o agente sabe foi colocado nele pelo projetista Turing propes construir mquinas com aprendizagem e depois ensina-las Aprendizagem tambm permite ao agente atuar em ambientes totalmente desconhecidos e se tornar mais competente do que o sue conhecimento inicial poderia permitir Quatro componentes conceituais de uma ag com aprendizagem:
Elemento de aprendizado Crtico Elementos de desempenho Gerador de problemas

Agentes com aprendizagem componentes


Elemento de aprendizado:
Responsvel pela execuo dos aperfeioamentos Utiliza realimentao do crtico sobre como o agente est funcionando Determina de que maneira o elemento de desempenho deve ser modificado para funcionar melhor no futuro

Agentes com aprendizagem componentes


Crtico:
Informa ao elemento de aprendizado como o agente est se comportando em relao a um padro fixo de desempenho necessrio pq as percepes no fornecem nenhuma indicao de sucesso O agente no dever modific-lo

Agentes com aprendizagem componentes


Elementos de desempenho:
Responsvel pela seleo de aes externas (agente completo) Recebe percepes e decide sobre aes

Gerador de problemas:
Responsvel por sugerir aes que levaro a experincias novas e informativas Aes no timas a curto prazo para descobrir aes timas a longo prazo

aprende
sensores t+1

Agente
crtico
avaliao

t ambiente
elemento de execuo (agente)
trocas conhecimento

elemento de aprendizagem objetivos de aprendizagem


Gerador de problemas

t
efetuadores

Ambiente: sem restrio Vantagem: tem adaptabilidade (aprende) Ex. motorista sem o mapa da cidade

You might also like