You are on page 1of 79

See discussions, stats, and author profiles for this publication at: https://www.researchgate.

net/publication/281862947

O que é Inteligência Artificial – traços preliminares para uma nova resposta

Thesis · January 2002


DOI: 10.13140/RG.2.1.5110.0640

CITATIONS READS

0 295

1 author:

Filipo Studzinski Perotto


Académie de Rouen
23 PUBLICATIONS   59 CITATIONS   

SEE PROFILE

Some of the authors of this publication are also working on these related projects:

SEAMED - Sistema Especialista para a Área Médica View project

All content following this page was uploaded by Filipo Studzinski Perotto on 18 September 2015.

The user has requested enhancement of the downloaded file.


Universidade Federal do Rio Grande do Sul
Instituto de Informática

O que é Inteligência Artificial –


traços preliminares para uma nova resposta

Trabalho de Diplomação

Por: Filipo Studzinski Perotto - 1343/97-3

Orientação: Rosa Maria Vicari

Porto Alegre, Maio de 2002.


2

Dados para Catalogação

PEROTTO, Filipo Studzinski

“O que é Inteligência Artificial – traços preliminares para uma nova resposta” /


Filipo Studzinski Perotto. Porto Alegre: UFRGS, 2002.

Trabalho de Diplomação (Graduação) – Universidade federal do Rio Grande do


Sul. Orientadora: Rosa Maria Vicari.

Palavras Chave:
1 – Epistemologia da Inteligência Artificial. 2 – Inteligência Artificial.
3

Agradecimentos

A todos aqueles que estiveram sempre ao meu lado,


especialmente a meu pai, minha mãe,
meu irmão e minha namorada, pelo
grande apoio oferecido durante essa
difícil jornada.
4

A Nova Máquina

Eu sempre estive aqui.


Eu sempre vi através desses olhos.
Isso parece mais que o tempo de uma vida.
Eu sinto isso como mais que o tempo de uma vida.

Algumas vezes fico cansado de esperar.


Algumas vezes canso de estar aqui.
É assim que as coisas sempre foram?
Poderiam alguma vez ter sido diferentes?

Você já ficou cansado de esperar?


Já ficou cansado de estar aí?
Não se preocupe,
Ninguém vive para sempre...

Eu sempre estarei aqui.


Eu sempre verei através desses olhos.
Mas é só o tempo de uma vida.
É só o tempo de uma vida.

(David Gilmour – Pink Floyd


Álbum “A Momentary Lapse of Reason”, 1986.
Tradução: Filipo Perotto)
5

Sumário

Resumo ................................................................................................................. 6
1. Introdução ......................................................................................................... 7
2. Uma Justificativa Epistemológica ..................................................................... 9
3. A História que Envolve a Inteligência Artificial ............................................... 12
3.1. Ilusão e Engenharia ............................................................................. 13
3.2. Filosofia ............................................................................................... 16
3.3. Matemática .......................................................................................... 19
3.4. Teoria Computacional ......................................................................... 20
3.5. Cibernética ........................................................................................... 22
3.6. Tecnologia Computacional .................................................................. 24
3.7. Psicologia ............................................................................................ 26
4. A História da Inteligência Artificial ................................................................... 33
5. Os Paradigmas da Inteligência Artificial ............................................................ 45
5.1. IA Simbólica ........................................................................................ 45
5.2. IA Conexionista ................................................................................... 48
5.3. Novos Paradigmas ............................................................................... 49
5.4. IA Construtivista .................................................................................. 52
6. As Críticas à IA .................................................................................................. 57
7. IA: Discursos e Conceitos .................................................................................. 62
8. Conclusão ........................................................................................................... 73
9. Bibliografia ......................................................................................................... 75
6

Resumo

O objetivo deste trabalho é encontrar traços


preliminares para responder à seguinte questão: “Como é
compreendida a expressão ‘Inteligência Artificial’ neste início
de século XXI?”. Para tanto, faz-se uma revisão histórica do
processo pelo qual passou a disciplina, como também da longa
tradição cultural que teve a IA como ápice. A seguir
procuramos delinear os paradigmas que contemporaneamente
convivem, e também as formas discursivas possíveis dentro do
campo científico da IA.
7

1. Introdução
Neste início de século XXI, as expectativas com relação aos resultados futuros
que os estudos sobre Inteligência Artificial poderão trazer para a humanidade estão
sendo mais uma vez levantadas. Mesmo assim, tanto para a sociedade, quanto para a
própria comunidade científica, nem o significado dessa expressão (‘inteligência
artificial’), nem o paradigma que a envolve como ciência estão claramente definidos.
Torna-se necessário, assim, tratar das questões epistemológicas (filosóficas) da
Inteligência Artificial (IA).

O título dessa obra, “O que é Inteligência Artificial – traços preliminares para


uma nova resposta”, foi decidido no último momento. Nossa motivação, com certeza,
surgiu de um desconforto com a falta de definições claras para os conceitos da IA e as
controvérsias quanto ao que ela é propriamente. Dar-se o objetivo de encontrar essas
definições é, sem dúvida, algo bastante ambicioso, e no decorrer do trabalho, o que será
percebido é que não há mesmo uma definição “certa” para a expressão ‘Inteligência
Artificial’. O melhor que podemos fazer é tratá-la como um “campo”, um espaço de
fronteiras abertas, onde se articulam diversos discursos.

Nossa intenção será, assim, esboçar uma resposta para a seguinte pergunta:
“Como é compreendida a expressão ‘inteligência artificial’?”. O primeiro empecilho
para isso é a história. Os conceitos, bem como as ciências, possuem significados apenas
dentro de seus contextos históricos, por isso é preciso fazer uma delimitação temporal:
vamos buscar a compreensão contemporânea da expressão, os discursos aceitos nesse
início de século XXI. Ainda assim, essa restrição não nos libera da necessidade de fazer
uma análise histórica dos processos de transformação da IA, uma vez que sua forma
atual é, em algum grau, resultado de suas formas anteriores.

Além disso, a IA coloca-se como um campo científico, e esse caráter é


fundamental para orientar nosso caminho. A IA também é interdisciplinar (apropriando-
se dos estudos sobre cognição realizados por outras ciências), e só será possível
compreendê-la observando todas essas influências.

Assim, os traços preliminares da nossa resposta serão construídos a partir da


leitura de publicações destacadas sobre inteligência artificial, que mobilizam ou fazem
parte das ciências cognitivas, sejam elas de abordagem computacional, filosófica,
biológica, sociológica, psicológica, ou mesmo literária, observadas sob o ponto de vista
da nova filosofia da ciência. A partir dessas fontes, buscaremos fazer uma reconstituição
da transformação histórica pela qual passou o paradigma da IA, identificando suas
principais correntes de pensamento, para que, daí, possamos deduzir os significados
mais contemporâneos (resultantes desse processo) que definem seus conceitos.

Para muitos bons cientistas da IA (que estão envolvidos diretamente com o


desenvolvimento de aplicações, tentando resolver os problemas propostos, participando
de linhas de pesquisa bem estabelecidas) o tipo de investigação de caráter filosófico
(como é este) pode levar a pedir uma justificação quanto à sua validade. Ainda que
dedicaremos um capítulo a essa questão, deixaremos que as palavras do brilhante
pesquisador Antônio Carlos da Rocha Costa (que fez alguns trabalhos semelhantes ao
que pretendo, aqui, nessa mesma universidade) respondam:
8

“A pesquisa dos fundamentos de uma ciência [...] visa à compreensão do estado


atual dessa ciência em função do desenvolvimento histórico dos seus conceitos básicos.
No desenrolar dessa atividade, procura-se explicitar os diferentes sistemas de conceitos
por ela empregados ao longo do tempo, como esses sistemas se derivam uns aos outros
e como tal derivação influenciou a determinação e a delimitação do objeto mesmo de
estudo. Nesse sentido, a pesquisa sobre os fundamentos é uma epistemologia,
especializada no estudo do conhecimento da ciência dada.”

“A pesquisa de fundamentos não é sem conseqüências. Ao contrário, ela conduz


com toda a naturalidade a uma visão crítica da atividade da ciência que ela estuda:
aponta descaminhos, ressalta conclusões que a prática contemporânea obscurece,
valoriza conceitos, métodos e soluções que a história relegou a segundo plano. Abre,
em outras palavras, as portas da revisão profunda das bases conceituais em que se
fundamenta aquela ciência e da conseqüente reorientação. [...] A contínua proliferação
de modelos e metodologias resulta dessa carência de paradigmas bem estabelecidos.”
[ROCHA COSTA a].

Por fim, as palavras de Allen Newell, um dos “pais” da Inteligência Artificial,


também ajudam a contextualizar e motivar o nosso trabalho:

“As imagens públicas da Inteligência Artificial têm sido criadas ao longo dos
anos através da incapacidade de gerar uma definição clara e precisa da disciplina, das
controvérsias sobre seus propósitos e objetivos, e ainda da produção de sistemas que
aliam o fantástico ao maravilhoso. Por detrás escondeu-se um trabalho persistente na
busca de teorias científicas, de princípios orientadores e unificadores, de hipóteses
sobre a verdadeira natureza da mente.” [COELHO].

Enfrentemos o desafio.
9

2. Uma Justificativa Epistemológica


O ramo da filosofia que estuda as ciências chama-se Epistemologia. “Como é
possível ao homem conhecer?”, “Como é possível o conhecimento?”, “Qual a validade
deste conhecimento?” e “Em que se distingue o conhecimento científico?”, são questões
para as quais a Epistemologia (ou Filosofia da Ciência) buscará respostas. Como é
intenção desse trabalho reconhecer a IA enquanto ciência, torna-se importante saber o
que os filósofos da ciência têm a dizer-nos.

A ciência, até o início deste século, assumia-se como a “fonte da verdade”


ostentando um tipo de “monopólio da razão”. Ainda hoje pode-se observar, nas
sociedades ocidentais, o respeito ritualístico que se cultua à ciência. Essa paixão
racionalista foi chamada de Positivismo, e a filosofia da ciência no século XX tratou de
superar as concepções positivistas da ciência. [CHAUÍ].

A “desmistificação” da ciência começaria com Karl Popper. Suas críticas


principais ao Positivismo foram contra as idéias de comprovação empírica e de
neutralidade do observador. Nos mostra, em sua obra, que as ciências empíricas nunca
conseguem provar a verdade absoluta de um enunciado, pois, mesmo que este seja
verdadeiro em todos os casos testados até então, sempre poderá surgir um novo caso
que poderá refutá-lo. Popper não faz nada além de dizer-nos que a indução não é
garantia de verdade. A única verdade que pode ser logicamente obtida faz-se por
dedução, mas isso requer a presença de hipóteses iniciais (premissas), e estas
continuariam expostas a possibilidade de refutação. Ficamos então com a idéia de que o
ser humano (e a ciência) tem a expectativa de que a realidade (que conhece pelos
sentidos) possua um funcionamento regular, buscando assim, leis de regularidade,
modelos explicativos. Esses modelos não podem ser confirmados, mas apenas refutados
quando da ocorrência de casos que os contradigam (contra-exemplos). Conforme os
modelos vão resistindo ao tempo, vão sendo corroborados. A proposição desses
modelos e de hipóteses é um processo criativo dos cientistas (e aí está a outra grande
crítica ao positivismo), e não decorrem da observação. Quando observa um fenômeno, o
cientista já possui algum tipo de hipótese, ou alguma forma de interpretar a experiência
empírica. [POPPER].

Outro autor imprescindível na discussão epistemológica é Thomas Kuhn. Sua


contribuição mais importante é a idéia de que todos os modelos propostos pela ciência
possuem dimensões metafísicas, ou seja, um conjunto de convicções que não podem ser
testadas empiricamente, e que orientam a interpretação dos fenômenos. É de sua obra
que extraímos a noção de paradigma1. Os paradigmas são universos simbólicos, são
formas de compreender a realidade, e no caso das ciências, fornecem uma base
metodológica, hipóteses iniciais e problemas a serem resolvidos. As “verdades”,
portanto, são válidas apenas dentro de um paradigma, de um sistema interpretativo.
[KUHN].

Kuhn vai mostrar ainda que a ciência não está numa evolução constante, ela
sofre rupturas paradigmáticas. Velhas formas de conceber a realidade são substituídas
por novas, invalidando velhos resultados. Afirma a ciência como um empreendimento

1
Conjunto de concepções que envolve uma determinada ciência e dá sentido à pesquisa.
10

humano, um fenômeno social, e os cientistas aderem a um paradigma simplesmente por


acreditarem em seu poder de explicação. Nas suas palavras:

“[...] Requer-se aqui uma decisão entre maneiras alternativas de se praticar a


ciência. [...] [o cientista] precisa ter fé na capacidade do novo paradigma para
resolver os grandes problemas com que se defronta, sabendo apenas que o paradigma
anterior fracassou em alguns deles. [...] É necessário que exista uma boa base para a fé
no paradigma escolhido, embora não precise ser, nem racional, nem correta. [...]
Considerações estéticas pessoais e desarticuladas podem realizar isso.” [KUHN].

“Dado que os novos paradigmas nascem dos antigos, incorporam comumente


grande parte do vocabulário e dos aparatos, tanto conceituais quanto de manipulação
que o paradigma tradicional já empregara. Mas raramente usam esses elementos
emprestados de uma maneira tradicional. Dentro do novo paradigma, termos, conceitos
e experiências antigos estabelecem novas relações entre si. [...] A comunicação através
da linha divisória revolucionária é inevitavelmente parcial.” [KUHN].

A inteligência artificial é uma ciência bastante nova, no entanto, dinâmica o


suficiente para que tenhamos atenção às advertências feitas pela filosofia da ciência.
Basta pensarmos nas condições em que nasceu a inteligência artificial, na década de 50.
A idéia de computador ainda estava associada a de “calculadora gigante”, e apenas
alguns cientistas começavam a vislumbrar sua capacidade de processamento simbólico.
Piaget estaria ainda formulando suas teorias sobre o desenvolvimento intelectual. A
biologia teria o cérebro ainda como um completo enigma. A concepção que essas
pessoas tinham para a inteligência artificial, em vista daquelas realidades e dos
discursos científicos possíveis naquele contexto, com certeza é muito diferente da
concepção que temos hoje, colocados meio século de desenvolvimento dos
computadores, da psicologia e da biologia para apoiar-nos, além da própria fundação da
inteligência artificial como campo de pesquisa científica.

Outro alerta dos filósofos da ciência deverá conduzir nossa reconstituição


histórica da IA. Sempre que tentamos reconstituir uma história, acabamos
inevitavelmente por caricaturá-la e também por contá-la à nossa maneira. A
reconstituição que estamos fazendo nessa obra não poderá ser diferente. Ao
apresentarmos a história da Inteligência Artificial, o que de fato estamos fazendo é
apresentando uma versão própria dessa história. Estamos criando uma ligação em
grande parte artificial entre os fatos históricos. Estamos exagerando a posição dos
autores clássicos, estereotipando-os e transformando-os em personagens. Esta
autocrítica não é, de forma alguma, uma condenação (tenhamos isso claro). Serve
apenas para lembrarmo-nos de que a objetividade plena é impossível, e que esse texto
(bem como a interpretação que os leitores farão dele), está imersa em subjetividade. O
já referido Thomas Kuhn escreve:

“É característica dos manuais científicos conterem apenas um pouco de história


[...] em referências dispersas aos grandes heróis de uma época anterior. Através dessas
referências, tanto os estudantes quanto os profissionais sentem-se participando de uma
longa tradição histórica. [...] Em parte por seleção e em parte por distorção, os
cientistas de épocas anteriores são implicitamente representados como se tivessem
trabalhando sobre o mesmo conjunto de problemas fixos e utilizando o mesmo conjunto
de cânones estáveis. [...]”. [KUHN].
11

Michel Foucault, sociólogo e filósofo, também condena as reconstituições


históricas que tentam ligar os fatos em continuidade, quando na verdade há uma série de
rupturas:

“Nessas disciplinas chamadas história das idéias [...] a atenção se deslocou das
vastas unidades descritas como épocas (continuidades) para fenômenos de ruptura. [...]
Redistribuições recorrentes fazem aparecer vários passados, várias formas de
encadeamento, várias hierarquias de importância, várias redes de determinações,
várias teleologias, para uma única e mesma ciência, à medida que seu presente se
modifica [...] Analisar positividades é mostrar segundo que regras uma prática
discursiva pode formar grupos de objetos, conjuntos de enunciações, jogos de
conceitos, séries de escolhas teóricas. [...] São a base para produzir o conhecimento”.
[FOUCAULT b].

Mas Foucault não limita-se à crítica da “história das idéias”, propondo métodos
para manter a objetividade na reconstituição histórica dos discursos. O “arqueólogo do
saber” (como chama) deve identificar as regularidades discursivas de um dado contexto
histórico, e compreender como o contexto foi sendo transformado a partir do embate
entre esses discursos. É assim que buscaremos dar sentido ao processo de formação da
Inteligência Artificial enquanto ciência, em um primeiro momento reconstituindo essa
história de práticas discursivas, para depois identificarmos seus paradigmas
contemporâneos com suas diferenças e suas equivalências.
12

3. A História que Envolve a Inteligência Artificial


A história da pesquisa em Inteligência Artificial é uma história fascinante,
relatada por Pamela McCorduck em seu livro “Machines Who Think” (máquinas que
pensam), publicado em 1979 [McCORDUCK]. Seu trabalho será o apoio fundamental
do nosso projeto, uma vez que conseguiu falar da história dessa disciplina sabendo
respeitar os contextos de cada momento, as continuidades e as rupturas paradigmáticas,
e tendo o privilégio de entrevistar muitas das pessoas cujo trabalho influenciou a
formação desse campo. Sua motivação está descrita no prefácio:

“Este livro é uma história da inteligência artificial. [...] os seres humanos que
estavam presentes quando esta arte se transformou em ciência – na realidade, os
causadores dessa transformação – falam por si mesmos nessa páginas, contando-nos
não só como ocorreu, mas também seus sonhos e esperanças pessoais. [...] A ciência é,
acima de tudo, um empreendimento humano. Está povoada por seres humanos, e não
por uma solitária verdade (ainda que haja verdades dentro dela)”.

O termo inteligência artificial foi definitivamente adotado para representar essa


ciência a partir da famosa conferência de Dartmouth em 1956, porém o intento de
reproduzir essa característica distinta do ser humano (a inteligência, o pensamento) data
de muito antes. Nossa história está cheia de exemplos, que se constituem em três
caminhos diferentes. O primeiro é o caminho da imaginação (de onde surgem as
principais hipóteses), o segundo é o caminho da filosofia (onde estão a maioria das
idéias que ligam a imaginação com a realidade), e o último é o caminho da realidade
(onde estão os artefatos que pudemos construir, onde está a inteligência artificial como a
conhecemos depois da invenção dos computadores digitais). É nessa última linha que
devemos concentrar nosso trabalho, porém seria impossível compreendê-la sem
compreender as outras duas. [McCORDUCK]

Antes de mergulharmos nessa história, gostaria de adiantar um pouco quanto à


estrutura que utilizei para contá-la. Inicialmente pensei em seguir Pamela McCorduck
[McCORDUCK], que procura (sem muito rigor) manter uma ordem cronológica dos
acontecimentos, porém, essa forma acabou resultando um pouco difícil para mim, pois
implicava em muitas “costuras”. Para ajudar-me a estruturar a história, então, inspirei-
me no primeiro capítulo do livro de Guilherme Bittencourt, “Inteligência Artificial –
Ferramentas e Teorias” [BITTENCOURT], que conta praticamente a mesma história
(sem a riqueza dos detalhes) organizada por temas (Filosofia, Matemática e
Tecnologia). Seja como for, as maneiras de organizar o conteúdo não dizem nada (são
arbitrárias), o que não tira sua importância no que toca a clareza da obra. Dessa forma,
fiz como me pareceu mais natural fazê-lo, de acordo com o rumo para onde se insinuava
nosso trabalho, e acredito que tenha ficado confortável também para os leitores.

A história será contada em duas partes. Inicialmente, uma visão geral de linhas
da história que não são propriamente a história da Inteligência Artificial, mas que se
conectam com ela por antecedê-la ou acompanhá-la. Fazem parte dessa história
“marginal” a Ilusão, a Engenharia, a Filosofia, a Matemática, a Computação, a
Tecnologia e a Psicologia. Depois sim, mergulharemos na história própria deste ramo de
pesquisa científica, a Inteligência Artificial, razoavelmente demarcado por certas datas,
certas idéias e certas pessoas.
13

Antes de seguirmos, gostaria de lamentar a falta, aqui, de um capítulo sobre a


biologia, que envolveria a medicina e a neurofisiologia, e de outro sobre as ciências
sociais, principalmente antropologia. Ambas as ciências são significativas no campo da
IA, mas a falta de tempo levou-me a negligenciá-las, ainda que algumas referências a
elas se encontrarão diluídas no decorrer do texto. Por fim, aviso que, ao escrever esta
obra, estive compartilhando com a visão de Pamela McCorduck: “Gosto de pensar na
Inteligência Artificial como a apoteose científica de uma longa tradição cultural”.
[McCORDUCK].

3.1. Ilusão e Engenharia

Talvez o primeiro exemplo que mostra a idéia de produzir “pessoas artificiais”


está na mitologia grega, registrada na “Ilíada” de Homero, em meados do século IX
a.C. Segundo conta, Hefesto (ou Vulcano na versão latina), Deus do Fogo, filho de Zeus
e Hera, não podendo andar construiu assistentes para ajudá-lo. “São douradas e tem a
aparência de jovenzinhas viventes, e há inteligência em seus corações”
[McCORDUCK]. Mas não seriam as únicas estátuas a magicamente ganhar vida na
mitologia e nas histórias populares.

Passando da imaginação para a realidade, ou seja, do mito para o artefato, somos


levados a conhecer os autômatos, produtos da engenharia árabe desenvolvida desde o
século III a.C. São mecanismos que tem por objetivo “comportar-se como um ser vivo”.
Embora a principal aplicação dos autômatos no mundo árabe tenha sido a diversão dos
grandes senhores, seus princípios eram os mesmo usados na construção de outros
artefatos engenhosos usados para aplicações práticas, como mecanismos movidos à
força de boi para elevar água em um campo, ou as clepsidras (relógios de água gregos).
[BITTENCOURT]

É dito que a forma de pensamento ocidental tem raízes na tradição intelectual


fundada na Grécia Antiga. Isso é verdadeiro, mas é importante citar o papel dos árabes
nessa história, pois eles foram herdeiros diretos dos gregos, continuaram desenvolvendo
a matemática e a engenharia, e durante muito tempo foi através deles que os ocidentais
tiveram acesso a esses conhecimentos. Exemplo disso é a introdução, a partir século XI,
do ábaco2 e dos números arábicos na Europa, em substituição aos algarismos romanos,
atribuídas ao papa Silvestre II (papa entre 999 e 1003 d.C.). [McCORDUCK].

O desenvolvimento das matemáticas árabes entre os séculos VIII e XV d.C.


propiciou o desenvolvimento paralelo de instrumentos de precisão, especialmente dos
relógios. A arte de fazer relógios ornamentados com figuras animadas tornou-se
conhecida durante o século XIV, e alguns bastante sofisticados tornaram-se
monumentos públicos nas primeiras cidades burguesas da Renascença. Um exemplo é o
relógio da catedral de Estrasburgo, na França, construído em 1352, que usava um
sistema de pesos para movimentar suas engrenagens. [McCORDUCK]

Não é surpreendente que a construção desses autômatos tenha alimentado a


crença popular em histórias de “estátuas inteligentes”. A maioria das pessoas que

2 Silvestre II conheceu o ábaco através dos árabes, porém ele é um instrumento de cálculo
chinês do século XIII a.C. [RIOS].
14

viviam naquele início de Idade Moderna não poderia perceber a enorme diferença que
há entre uma estátua que move a cabeça, faz reverências, caminha e golpeia um gongo
na hora certa, e uma estátua que responde a perguntas e prediz o futuro. Ilustrado numa
frase de Arthur C. Clarke: "Qualquer tecnologia suficientemente avançada é
indistinguível da mágica”.

Da cópia de um artefato árabe chamado Zairja, Ramon Llull em meados do


século XIII d.C., construiu sua Ars Magna. Era uma espécie de mecanismo que
pretendia dar respostas automáticas a qualquer tipo de perguntas. Formado por uma
pilha de discos divididos em segmentos angulares (como uma pizza), onde em cada
segmento há uma palavra. Esses discos são colocados em um mesmo eixo, e girando-os,
pode-se combinar as palavras para dar respostas. [McCORDUCK]

Uma importante referência dessa “pré-história” da inteligência artificial é o


“pato digeridor”, autômato construído por Jacques Vaucanson em 1738. Tinha penas e
forma de pato, agitava as asas, bebia água e comia grãos, que logo digeria e excretava
por meio de um complicado sistema de tubos que tinha no estômago. Sua estátua
mecânica fez tanto sucesso que, em 1777, Vaucanson foi consultado para fazer parte de
uma enciclopédia de ciências, e, ao falar do pato, disse que não tinha a intenção de
imitar perfeitamente o processo digestivo, apenas de simular seus aspectos mais gerais,
que incluíam a tomada do alimento, a mastigação e os processos químicos prévios à
excreção. [McCORDUCK]

Voltando para o “caminho da imaginação”, conta-nos a história que um médico


e alquimista chamado Paracelso, no início do século XVI, afirmava ter a fórmula para
construir um homúnculo, um homenzinho. Sua receita: “o esperma humano colocado
dentro de um vaso hermeticamente fechado, enterrado em esterco de cavalo e
adequadamente magnetizado começa a viver e a mover-se. Depois desse período,
adquire a forma e a aparência de um ser humano, mas será transparente e sem corpo.
Se alimentado com sangue humano até umas quarenta semanas, viverá!”. Não
esqueçamos que naquela época, muito mais do que hoje, a idéia de criar um ser artificial
confrontava violentamente a ética religiosa, que concebe a “vida” como uma criação
divina. Em 1833 foi publicada (postumamente) a ópera “Fausto” que Goethe escreveu
inspirado na história de Paracelso. [McCORDUCK]

Em 1580, uns quarenta anos depois da morte de Paracelso, apareceu outra


história de um “homem artificial”. Esse chamou-se Golem, e foi criado pelo grande
rabino da cidade de Praga, Judah ben Loew. Diz-se que o rabino era amigo de Johannes
Kepler, cujo trabalho é base para a astronomia moderna. O Golem era uma estátua que,
“depois dos encantamentos e orações corretas”, teria ganho a vida, e ajudava o rabino a
cuidar do templo. A história termina quando o Golem torna-se perverso e ataca seu
criador, forçando-o a matá-lo. Esse tema (da criatura artificial que ganha vida e volta-se
contra seu criador) tornou-se comum na literatura do século XIX, e na ficção científica
do século XX. A obra mais representativa dessa série talvez seja o “Frankenstein” de
Mary Shelley, escrito em 1818. [McCORDUCK].

O livro, que fez parte de um projeto byroniano3 de histórias de terror, conta a


história do Dr. Victor Frankenstein, um cientista que, depois de muito estudar o corpo

3 Lord George Gordon Byron é o poeta do romantismo intimista. Ada Lovelace, personagem
importante da nossa história, é sua filha. [McCORDUCK].
15

humano, consegue descobrir o segredo da vida. Apesar de suas intenções iniciais


consistirem em apenas curar os enfermos, o cientista não resiste à idéia de ser o criador
de uma nova espécie. Ele sintetiza tecidos, constrói um corpo, e, numa noite chuvosa de
novembro, dá vida à sua criatura. O fato é que Victor se arrepende do experimento, uma
vez que a criatura à que deu a vida é feia e imperfeita, assemelhando-se a um monstro.
Resolve esquecer a experiência e passa a não dar atenção à criatura, que fica
abandonada à sua própria sorte, e, devido à miséria, torna-se cruel. Mary Shelley, toca
em questões psicológicas, sociais e morais, que ficam claras nos dois encontros
acontecem entre o cientista e seu monstro. Em ambos o Dr. Frankenstein queria matá-lo,
enquanto a criatura, da primeira vez questiona-o: “Como te atreves a jogar assim com a
vida?” e na última implora seu perdão pelas maldades que teria feito, consciente de sua
própria ambivalência. [McCORDUCK].

Em 1822 (4 anos após a publicação do livro de Mary Shelley), o rico e brilhante


matemático inglês Charles Babbage (1792 – 1871) estaria concluindo um protótipo de
sua Máquina Diferencial, e convencendo o governo britânico para financiá-lo na
construção de um modelo maior, que calcularia automaticamente diversas tabelas
necessárias para a navegação. Até então, tais tabelas eram calculadas a mão.
[McCORDUCK]. Babbage não foi o primeiro a construir uma calculadora mecânica,
esse feito é creditado ao alemão Wilhelm Schikhard (1592 – 1635) , em 1623, e outras
pessoas a aperfeiçoaram antes de Babbage. Os ilustres pensadores Pascal e Leibniz
também já haviam construído suas calculadoras. [BITTENCOURT].

Babbage4 substituiu o mecanismo de rodas dentadas por cartões perfurados5, e


iniciou o projeto de uma nova calculadora, que chamou de Máquina Analítica. Essa
nova máquina nunca chegou a sair do papel, e consumiu quase toda a fortuna pessoal de
Babbage, uma vez que o governo britânico, depois de dezenove anos, cortou o
financiamento a seus projetos, mas foi detalhadamente descrita por Ada Lovelace,
matemática, que durante muitos anos ajudou Babbage em seus projetos. Trata-se de uma
máquina de calcular de propósito geral, que, além de fazer cálculos aritméticos, podia
fazer análises e podia expressar qualquer função dada em forma de tabela. Pode-se
mesmo dizer que este é o primeiro ancestral do computador. [McCORDUCK]

3.2. Filosofia

4 Babbage conta, em sua biografia, que desde pequeno se interessava por matemática, e que
sua mãe o levava em exposições de máquinas, onde fascinou-se pelos autômatos. Tendo
estudado matemática em Cambridge, foi um importante personagem para o desenvolvimento
da ciência na Inglaterra. [McCORDUCK].

5 os cartões perfurados são dispositivos criados por Joseph-Marie Jacquard (1752-1832) para
automatizar a fabricação de tecidos estampados nas modernas indústrias têxteis da época. O
desenho formado pelos furos faz o padrão da estampa. Lady Lovelace escreve, sobre a
Máquina Analítica, que “teria padrões algébricos da mesma forma que o Tear de Jacquard tem
padrões de telas”. [BITTENCOURT]
16

Até agora havíamos negligenciado o caminho da filosofia, mas ele também tem
papel fundamental em nossa história. A oposição entre Materialismo e Espiritualismo
surgiu com os filósofos da Grécia Antiga, e é uma questão que toca a inteligência
artificial por questionar se a mente é algo material ou abstrato, se depende do corpo ou
não. A consciência da morte e os rituais de sepultamento são tão antigos quanto os
Homens de Neanderthal (50.000 a.C.). E na idéia de sobrevivência após a morte está
implícito um certo dualismo, entre corpo que morre e alma que sobrevive.
[BITTENCOURT]

A idéia de alma como a mais rarefeita das substâncias materiais, presente em


Homero (+850 a.C.), se mantém na filosofia grega até Pitágoras (+497 a.C.) e
Xenófanes. Inicialmente se acreditava que estava localizada no coração, mas,
posteriormente, com a Escola de Hipócrates (?460 – 377 a.C.), passou-se a associá-la ao
cérebro. Em Pitágoras, pela primeira vez, esta essência deixa de ser material e passa a
ser considerada como algo abstrato. Isto pode ser explicado pelo fato de que foi
Pitágoras quem descobriu a relação matemática que há entre os intervalos musicais6.
assim, na sua concepção, todas as coisas, inclusive as idéias abstratas, são “harmonias”
ou corporificações de números. A idéia de mente incorpórea foi seguida por Sócrates
(?470 – 399 a.C.), Platão (?427 – 347 a.C.) e Aristóteles (384 – 322 a.C.). Em
Aristóteles aparece pela primeira vez a noção de consciência do “eu”, tendo sido ele
responsável pela introdução do termo Psicologia, marcando a distinção entre seres
humanos, que tem uma mente consciente, e animais. [BITTENCOURT]

Depois da Grécia Antiga, outro período marcante para a filosofia ocidental foi o
Século XVI. Ele deu início a profundas transformações na visão de mundo ocidental.
No tempo e no espaço, abrem-se novos horizontes: eruditos redescobrem as antigas
doutrinas filosóficas e científicas forjadas pelos gregos e em nome das quais torna-se
possível constituir uma sabedoria nova, oposta às concepções que prevalecem na Idade
Média. Eclodem o Renascimento Cultural, as Reformas Religiosas, a colonização de
outros continentes descobertos pelos navegadores europeus, e a constituição de novas
concepções políticas. [DESCARTES]

O filósofo francês René Descartes (1596 – 1650), herdeiro da tradição que


remonta a Aristóteles, situa-se nesse contexto. Ele construiu a base para o racionalismo
moderno, uma vez que pretendia submeter à claridade racional todos os fenômenos do
universo. O método cartesiano propõe os princípios lógicos necessários para construir o
conhecimento. Entre eles estão o de jamais aceitar a verdade de uma afirmação, a não
ser que seja evidente, e o de dividir os problemas complexos, conduzindo os
pensamentos em ordem, resolvendo primeiramente os mais simples e depois os mais
complexos, compostos pelos mais simples. Palavras do seu “Discurso do Método”:

“[...] Mas o que me contentava mais nesse método era o fato de que por ele,
estava seguro de usar em tudo minha razão [...] além disso, sentia, ao praticá-lo, que
meu espírito se acostumava, pouco a pouco, a conceber mais nítida e distintamente seus
objetos. [...] Seus princípios deviam ser todos tomados à Filosofia” [DESCARTES]

6 A harmonia musical tem uma relação matemática, de acordo com a freqüência das notas
musicais. Por exemplo, a cada intervalo de oitavas, a freqüência da nota dobra.
17

Ainda no mesmo livro, Descartes expõe uma idéia que ficou conhecida como
teoria dos animais-máquinas. Segundo escreve, os animais seriam como autômatos.
Não têm psiquismo, e seus movimentos se reduzem a um conjunto de processos
puramente materiais (mecânicos e químicos). [JULIA]. Em outra obra, o “Tratado do
Homem”, parece estar a ponto de declarar que os seres humanos são máquinas também,
máquinas extraordinárias, possuidoras de mente e alma, mas máquinas. Talvez a
condenação de Galileu em 1633 pela Inquisição tenha-o feito recuar. [McCORDUCK]

Descartes acreditava que a natureza da matéria era diferente da natureza da alma.


Esse dualismo cartesiano (separação entre mente e corpo) até hoje é usado como crítica
à IA, uma vez que só seria possível reproduzir artificialmente a matéria, e não o
pensamento. Seja como for, Descartes separou os atos humanos em duas categorias: os
mecânicos, que poderiam ser imitados pelos autômatos, e os racionais, que não
poderiam ser reproduzidos artificialmente (entre eles o juízo, a vontade e a decisão).
[McCORDUCK]

Esse dualismo acabou sendo superado, e foi questionado inicialmente por


Baruch Espinosa (1632 – 1677). Espinosa via mente e corpo como sendo dois aspectos
diferentes de uma mesma coisa. [McCORDUCK]. O corpo é uma máquina complexa de
movimento e repouso, composta por corpos menores, que por sua vez são também
máquinas de movimento e repouso. É pelo corpo que tomamos contato com a realidade
extensa exterior. A alma é a consciência do corpo. [ESPINOSA]

Espinosa era contemporâneo de Leibniz, outro filósofo que dedicou-se a pensar


sobre essa questão. Além de ter aperfeiçoado a máquina de calcular proposta pelo
matemático Blaise Pascal (1623 – 1662), Leibniz deixou-nos inúmeras obras escritas,
destacando-se entre suas idéias, os princípios da lógica formal, para o cálculo
diferencial e integral, e também a concepção de uma álgebra do pensamento. Essa
proposta consistia em descrever um tipo de linguagem lógica na qual os cientistas
poderiam escrever suas idéias de forma clara e racional. [McCORDUCK]

Thomas Hobbes (1588 – 1679), também dedicou-se a fazer uma teoria sobre a
mente. Sua filosofia abre espaço para o racionalismo e o empirismo. Ele debateu com o
próprio Descartes sobre o dualismo, sustentando uma posição materialista (“o espírito
não é outra coisa senão o movimento de certas partes do corpo orgânico”7). Para ele,
cada aspecto do comportamento humano é simplesmente uma evidência de um
movimento interno, causado por medos ou interesses. Hobbes também observou
aspectos associativos da mente, o fato de que os nossos pensamentos estão associados
entre si e não necessariamente de forma lógica, mas sim contingente. [HOBBES]. Uma
frase dita por ele caberia perfeitamente a um pesquisador de IA: “a lógica é o mesmo
que computação simbólica e manipulação de fórmulas [e] o raciocínio reduz-se e
compreende-se como um tipo de cálculo”. [COELHO]

7 Descartes publicou suas “Meditações Metafísicas” em 1641, anexando as objeções


levantadas por Hobbes e por outros filósofos. O texto é parte da sua quarta objeção. [HOBBES]
18

John Locke (1632 – 1704) dava mais ênfase para a racionalidade humana. Tendo
sido um firme combatente do Inatismo8, no seu “Ensaio sobre o entendimento
humano”, Locke afirma que as fontes de todo o conhecimento são a experiência
sensível e a reflexão. Concebeu a mente humana, no momento do nascimento, como
uma “tábula rasa”, uma espécie de papel em branco, onde o ser humano vai escrevendo
o conhecimento que aprende durante a vida. A partir da composição de idéias simples,
obtém-se idéias mais complexas. [LOCKE]

Locke é um dos precursores do Empirismo. Admitindo a existência real das


substâncias, afirma que estas não podem ser conhecidas em si mesmas, apenas
percebidas através dos sentidos. Alguns anos mais tarde, o ilustre filósofo David Hume
(1711 – 1716) daria continuidade a seu pensamento, acrescentando que ainda que as
idéias compostas estejam formadas por idéias simples, não tem de parecer-se com estas,
pois ao tornarem-se complexas, possibilitam o aparecimento de novas combinações de
idéias. [McCORDUCK]

Para que não cometamos um anacronismo, é importante lembrar que, apesar de


serem fundadores do pensamento contemporâneo, todos esses filósofos da Era Moderna
tinham uma concepção de mundo muito diversa da concepção de um cientista
contemporâneo. Basta ver que, em seus livros, inúmeros capítulos foram usados para
provar a existência de Deus. Descartes, por exemplo, pensava que Deus o havia
iluminado e incumbido de descobrir os fundamentos para a “ciência admirável”.
[DESCARTES]

Por fim, a física elaborada por Isaac Newton (1642 – 1727) foi decisiva para
selar a crença moderna no poder da razão. Usando adequadamente a matematização e o
empirismo, Newton elaborou uma teoria consistente para sistematizar, num todo único,
a astronomia de Kepler (1571 – 1670) com a mecânica de Galileu Galilei (1564 – 1642).
O Universo podia ser explicado pela racionalidade humana. Estava plantada a semente
do Iluminismo, que floresceria plenamente no século XVIII.

O movimento iluminista dos séculos XVII e XVIII incorporava o racionalismo e


o empirismo como formas verdadeiras para conhecer o mundo, também lutava contra o
absolutismo (defendendo ideologias políticas e econômicas liberais, condenando o
excesso de poder concentrado nas mãos dos reis) e o contra o obscurantismo (criticando
o dogmatismo religioso).

Dos escritos do século XVIII, um que nos interessará será o livro do médico
francês Julien Offray de La Mettrie, publicado em 1747 e intitulado “O Homem
Máquina”. La Mettrie queria lembrar aos filósofos que os processos mentais de uma
pessoa estavam profundamente conectados a seu estado físico. As substâncias físicas
afetam o pensamento: dieta, drogas, cansaço. Acabou por construir um modelo para
explicar o ser humano através da metáfora da máquina (que usou com a intenção
deliberada de escandalizar). “Chamarmo-nos de máquina ajuda-nos na nossa
autocompreensão, não nos define, tampouco limita a essência humana”. Denis Diderot
(1713 – 1784) incluirá algumas dessas idéias na famosa “Enciclopédia”. Mas o fato
importante entre tudo isso é que, ao final do século XVIII, o “homem como máquina” já

8 O Inatismo remonta à Platão, afirmando que o espírito já nasce possuindo todas as idéias, e
que a experiência sensível apenas faz com que elas se revelem. Descartes também era
defensor de que algumas das idéias do ser humano tinham de ser inatas.
19

era uma idéia comum, e ninguém se surpreendeu especialmente quando o médico e


filósofo francês Pierre Jean George Cabanis (1757-1808) declarou que o cérebro era um
órgão que, de alguma forma digeria impressões sensoriais e excretava pensamento.
[McCORDUCK].

Concluindo nossa jornada através desse período da filosofia, é preciso citar


Immanhuel Kant (1724 – 1804), pensador que fará algumas ressalvas importantes ao
pensamento até então vigente. Em seu livro “A Crítica da Razão Pura”, Kant afirma
que a mente possui princípios a priori que faz com que as coisas do mundo exterior se
ajustem a esses princípios. Em outras palavras, a configuração do mundo é função de
nossas mentes, e não do próprio mundo. [McCORDUCK]. A Razão sozinha não
conhece coisa alguma, ela organiza as informações fornecidas pela sensibilidade e pelo
entendimento. [CHAUÍ].

A proposta de Kant não é uma unanimidade, e vale muito mais como a primeira
crítica à objetividade do conhecimento. Uma das críticas partirá do filósofo alemão
Georg Friedrich Hegel (1770 – 1831), que, já no século XIX, irá propor “a razão como
a unidade necessária entre o objetivo e o subjetivo”, resgatando a importância da
dialética9 como método de construção do conhecimento. [CHAUÍ]

3.3. Matemática

Euclides (século III a.C.) teve um papel importante na história da matemática.


Ele sistematizou a geometria através da criação do método axiomático ou dedutivo, que
consiste em derivar de maneira lógica as proposições válidas em um sistema, a partir de
uma série de hipóteses iniciais, assumidas como verdadeiras. Essa proposições iniciais
chamam-se axiomas, e as proposições delas derivadas chamam-se teoremas. Foi essa
metodologia que impressionou Descartes. [BITTENCOURT]

Os axiomas que Euclides usou na sua geometria foram resultados de sua


intuição. São proposições que considerou evidente, no entanto, os matemáticos do
século XIX perceberam que não havia como provar que eram necessariamente
verdadeiras em relação ao espaço real. O resultado foi uma tendência a um grau de
abstração crescente: a matemática passa a ser uma ciência que explora as conseqüências
lógicas de um conjunto de axiomas ou postulados, sem levar em conta a possível
verdade ou realidade subjacente a estes axiomas. [BITTENCOURT].

Foi George Boole quem estabeleceu os princípios teóricos da lógica simbólica


em “Uma investigação sobre as leis do pensamento, nas quais estão baseadas as
teorias matemáticas da lógica e do pensamento”, publicado em 1854. Boole escreve no
prefácio: “As leis que temos de examinar são as leis de uma das nossas mais
importantes faculdades mentais. As matemáticas que temos de construir são as
matemáticas do intelecto humano”. A álgebra booleana usa símbolos arbitrários para
representar as categorias de coisas existentes, por exemplo, as operações binárias,

9 Dialética é a idéia de que a história evolui através do embate de contradições, ou seja,


quando dois pensamentos diferentes se enfrentam (tese e antítese), é preciso chegar a um
terceiro pensamento que englobe a verdade total (síntese). O conhecimento vai sendo
construído progressivamente pela dialética. [JULIA]
20

usando os elementos 0 e 1 (apropriados, mais tarde, pela teoria da computação).


[McCORDUCK].

A redução de todos os conceitos da aritmética a idéias puramente lógicas implica


em uma série de desafios. Um grande passo foi dado com a obra de Whitehead e
Russell, intitulada “Principia Mathematica”, publicada em 1910. Seu programa
consistia em descrever toda a matemática em um pequeno número de proposições, a
partir das quais as demais poderiam ser deduzidas. [BITTENCOURT]. A reestruturação
da lógica levada a cabo por Bertrand Russell (1872 – 1970) é idêntica em espírito à
efetuada por Gottlob Frege (1848 – 1925). As categorias de sujeito e predicado cedem
lugar às de argumento e função proposicional. A noção de função proposicional foi
obtida por extensão da noção de função matemática: “Por uma função proposicional,
entendemos algo que contém uma variável x e exprime uma proposição quando um
valor é atribuído a x” (por exemplo: “x é homem”). [RUSSELL].

O sucesso dos programas de formalização da matemática chegaria a seu ápice


com David Hilbert, que em 1928 formulou três questões, cujas respostas acreditava ser
“sim”: “a matemática é completa?” (isto é, toda a proposição pode ser provada
verdadeira ou falsa?), “a matemática é consistente?” (isto é, uma seqüência de passos
válidos de prova nunca leva a uma contradição?) e “a matemática é decidível?” (isto é,
existe um método definido, que possa ser aplicado, em princípio, a qualquer proposição,
e que seja capaz de decidir se esta é verdadeira?). [BITTENCOURT]

Kurt Gödel (1906 – 1978), numa publicação de 1931, daria resposta negativa
para as duas primeiras questões, demonstrando a incompletude de todo o sistema
axiomático expressivo o suficiente para conter a teoria dos números. A argumentação de
Gödel mostra que em sistemas complexos (como a matemática) existem enunciados
verdadeiros que não podem ser demonstrados. A matemática não é completa e não pode
ser provada consistente. [BITTENCOURT].

O teorema de Gödel é freqüentemente citado como prova da impossibilidade de


uma “inteligência artificial”, pois tal inteligência deveria ser definida matematicamente
e a matemática é limitada. Em outras palavras, nem todos os problemas possuem uma
solução algorítmica. Este argumento é falho, uma vez que esse limite matemático
impõe-se não só ao computador, mas à própria matemática abstrata e à inteligência
humana também, mas serve como exemplo da estreita ligação entre a lógica e a IA.
[BITTENCOURT].

3.4. Teoria Computacional

A terceira pergunta de Hilbert foi respondida negativamente em 1936, de forma


independente por Church, Post e Turing, mostrando a existência de problemas
indecidíveis. Church propõe um formalismo chamado lambda-calculus, que, embora
não tenha tido o mesmo impacto da Máquina de Turing na Ciência da Computação, é
um formalismo equivalente e serviu como base para a linguagem LISP.
[BITTENCOURT].
21

Alan Turing (1912 – 1954), brilhante matemático britânico formado em


Cambridge, demonstra, em seu artigo, que certas classes de problemas não podem ser
resolvidas mediante um procedimento fixo. A Máquina de Turing é baseada na
metáfora de um computador (“computer”, que em 1936 significava unicamente uma
pessoa realizando cálculos), e consiste em uma fita de papel infinita, dividida em
quadrados, um “lápis”, e um mecanismo de controle. Cada um dos quadrados pode
conter um símbolo de um conjunto finito de símbolos, ou estar vazio. O controle é
representado por uma tabela finita, onde está especificado, para cada estado da máquina,
para cada possível símbolo a ser lido, uma ação a fazer, e um novo estado para a
máquina. As possíveis ações são: escrever um símbolo na fita e mover a cabeça para
esquerda ou para a direita. A Tese de Church-Turing diz-nos que todo e qualquer
programa computável pode ser expresso por uma Máquina Universal (Máquina de
Turing). Assim, quando não se pode construir uma Máquina de Turing para resolver um
problema, significa que o problema não tem solução algorítmica (não é computável).
[BITTENCOURT].

Turing era um desses gênios carismáticos, ainda que alguns o considerassem


excêntrico. Admirava o trabalho de Babbage, e além de ter trabalhado com Church, teve
um frutífero intercâmbio de idéias com Von Neumann. A partir de 1939, durante a
Segunda Guerra Mundial (1939 – 1945), Turing foi trabalhar para o governo britânico,
tendo ajudado a construir uma máquina eletromagnética que decifrava mensagens
codificadas pelos alemães. [McCORDUCK]

Em 1947, Turing recebe a visita de Norbert Wiener, onde tratam das idéias
fundamentais da cibernética. No mesmo ano escreve um artigo chamado “Intelligent
Machinery”. O resumo do artigo evidencia sua ousadia: [McCORDUCK]

“Aqui se discutem as possíveis maneiras de fazer que uma máquina mostre um


comportamento inteligente. A analogia com o cérebro humano é utilizada como
princípio diretor. [...] A investigação centra-se principalmente em um processo de
aprendizagem análogo [ao aprendizado humano] aplicado às máquinas. Se define a
idéia de uma máquina não organizada e se sugere que o córtex de uma criança é dessa
natureza”.

Ainda nesse artigo Turing faz a comparação do ser humano com a máquina,
propondo a semelhança funcional entre uma câmera filmadora e um olho, entre um
microfone e um ouvido, entre um robô com servomecanismos e os membros dos
movimentos, e completa: [McCORDUCK]

“Estamos principalmente interessados no sistema nervoso. Poderíamos


construir modelos elétricos bastante exatos para copiar o comportamento dos nervos,
mas isso não parece ter muita utilidade. Seria como fazer um grande esforço para
substituir as rodas dos carros por pernas. Os circuitos elétricos que se utilizam nos
computadores parecem ter a propriedade essencial dos nervos. São capazes de
transmitir a informação de um lugar ao outro, assim como de armazená-la”.

No final do artigo, Turing propõe a possibilidade de construir um “cérebro” que


poderia jogar xadrez, fazer tradução de idiomas, criptografia e matemática. Essa lista
resultou ser (coincidentemente) parte essencial do programa de investigação que ocupou
os cientistas da IA nas décadas seguintes. O artigo só foi publicado em 1969.
22

Porém, o artigo mais famoso de Turing, escrito e publicado em 1950, chama-se


“Computing Machinery and Intelligence” (Computação e Inteligência). O artigo inicia
com a pergunta “Podem as máquinas pensar?”, e sugere que a resposta poderia ser
dada pelo Jogo da Imitação (mais tarde conhecido simplesmente domo Teste de
Turing). Trata-se de um computador tentando passar-se por um ser humano para um
interrogador humano. Os dois devem estar em salas separadas, e se o interrogador, ao
final de uma conversa, não conseguir dizer se estava conversando com um humano ou
com uma máquina, então a máquina pode ser considerada inteligente. Além de
estabelecer esse critério para verificar a inteligência de máquina, Turing ainda trata das
primeiras críticas à IA, entre elas as de origem teológica e as matemáticas. [TURING]

Turing, ainda trabalharia na construção de novos modelos computadores e participaria


do “Ratio Club”, um grupo informal de fisiologistas, físicos, matemáticos e
engenheiros que se reuniam periodicamente em Londres para discutir problemas de
interesse comum. Por ele Turing conheceu Donald MacKay e teve contato com o
trabalho de Warren McCulloch, mantendo-se igualmente convencido de que um
enfoque matemático ao problema do funcionamento do cérebro seria mais frutífero que
um enfoque anatômico. Turing só não era mais otimista com relação a possibilidade das
máquinas pensarem porque o estado em que estava a tecnologia dos computadores na
década de 50 não o permitia. [McCORDUCK].

Sua morte, em 1954, é envolvida em circunstâncias tristes. Não há consenso


sobre a história, mas sabe-se que Turing ingeriu cianureto de potássio, um veneno
mortal para o ser humano. Aqueles que o conheciam bem sugerem que foi uma grande
desgraça para ele ter sua homossexualidade desmascarada em uma época e em um lugar
onde o homossexualismo sofria duras recriminações legais e morais. Turing não teria
suportado a ameaça de perder as coisas que mais lhe importavam: seu trabalho, seu
sustento, sua ciência e a estima dos amigos. [McCORDUCK].

3.5. Cibernética

Wiener publicava, em 1948, a primeira edição de “Cibernética”10 e propôs a


passagem da teoria da energia para a teoria da informação. As idéias dessa teoria se
mostravam mais adequadas para explicar todo um conjunto de eventos, desde o
comportamento dos circuitos eletrônicos até o de uma célula replicante. Usando
conceitos como codificação, armazenamento, ruído, etc., a Teoria da Informação podia
tratar com sistemas abertos, relacionados com o mundo exterior pela recepção de
impressões e pela realização de ações. [McCORDUCK].

Alexander Berg, da academia de ciências da URSS escreve, já na década de 60:

“De uma década e tanto para cá temos acompanhado o rápido progresso da


cibernética, uma nova ciência dedicada ao estudo do controle e das comunicações.
Essa ciência abrange três esferas principais: controle dos sistemas mecânicos e dos

10 Wiener e seus colegas utilizaram o termo cibernética em referência ao físico do Século XIX,
Clerck Maxwell, que já escrevia sobre mecanismos de realimentação. A palavra se deriva de
uma deformação latina do grego “kybernetes”, que significa “piloto”.
23

processos manufatureiros, controle da atividade humana [socialmente] organizada, e


ainda o controle dos processos dentro dos organismos vivos. [...] Instrumentação
moderna e meios de colher, armazenar e processar informações acerca do
funcionamento dos organismos vivos abrigam notáveis perspectivas para a biologia (..)
[envolvendo] uma cooperação cerrada entre peritos da eletrônica, matemáticos e
biólogos. [...] Naturalmente emerge a indagação sobre a possibilidade de se poder
simular o cérebro eletronicamente, ao menos parcialmente. Um dos mais novos ramos
da cibernética se denomina biônica, sendo uma de suas tarefas a elaboração de
análogos eletrônicos do neurônio e com sua utilização dentro de máquinas
computadoras [...]” [SAPARINA]

Norbert Wiener (1894 – 1964) foi um garoto prodígio. Aos dezoito anos
receberia a titulação de doutor pela Universidade de Harvard, e dali foi estudar lógica
com Russell e depois com Hilbert, até estabelecer-se no departamento de matemática do
MIT. Junto com seu amigo, o psicólogo mexicano Arturo Rosenblueth, idealizava um
instituto científico interdisciplinar. Ambos fascinaram-se pelas analogias que se podia
fazer entre os mecanismos eletrônicos e os biológicos. Seu encontro aconteceu durante a
Segunda Guerra Mundial. Wiener e seu colega Julien Bigelow estavam estudando
servomecanismos (dispositivos que usam realimentação para impulsionar um
mecanismo, tal como um termostato em uma geladeira), e os três juntos idealizaram um
modelo do sistema nervoso que explicava algumas de suas atividades mais
características como processos circulares, saindo do cérebro para os músculos e
voltando ao cérebro pelos órgãos sensoriais. Se hoje essa idéia não desperta muita
emoção, em 1943, quando foi publicada, deixou os leitores atônitos. [McCORDUCK].

Mas consideremos um descendente intelectual de Babbage, Leonardo Torres y


Quevedo, um membro da Real Academia de Ciências de Madrid. Torres havia se
dedicado a construir mecanismos automáticos de diversas classes, especialmente
calculadoras. Em 1911 construiu um autômato eletromecânico para a jogada final de rei
contra rei e torre no xadrez. Ele não gostava de dizer que seus autômatos “realmente
pensavam”, mas em 1915 afirmou, numa entrevista, que “os limites dentro dos quais o
pensamento é realmente necessário devem ser melhor definidos [...] um autômato pode
fazer muitas coisas que são habitualmente classificadas como pensamento”. Torres
ainda estabeleceu uma distinção entre uma classe de autômatos mais simples, que
possuem relações mecânicas invariáveis (por exemplo, um torpedo autopropulsado,
aparato que havia desenvolvido), e outra, mais interessante, de autômatos mais
complexos, nos quais as relações entre as partes operativas variam conforme as
circunstâncias. Um autômato desse tipo necessitaria de órgãos sensoriais (“como
termômetros, bússolas, dinamômetros, manômetros, etc.”) e membros, capazes de
executar as instruções procedentes dos órgãos sensoriais, imaginando que o autômato
tomaria decisões a partir de um sistema de regras. [McCORDUCK].

Os servomecanismos (como designaremos as máquinas de Torres) aparecerão


em grande número em princípios do século XX e constituíram o motivo de inspiração
imediato para o campo da cibernética. A cibernética, assim, nasceu com os autômatos,
não com os computadores. A primeira edição de Cibernética, por exemplo, só tinha um
capítulo tratando de computadores, associando o caráter binário do computador ao
equilíbrio biestável dos neurônios. Fato é que os computadores digitais, de propósito
geral, controlados por programas (concepção atual do computador) não estiveram
operantes antes da Segunda Guerra Mundial. [McCORDUCK]
24

3.6. Tecnologia Computacional

A Segunda Guerra Mundial, com todo a barbárie que encerrou, tirou muitos dos
intelectuais e cientistas de seus trabalhos para participarem de pesquisas para a guerra.
Quase todos os personagens da nossa história, que viveram nesse período foram nela
envolvidos de alguma forma. Nesse período nasceu o computador na sua concepção
moderna. Em 1940, Turing construiu, para o serviço de inteligência britânica, um
computador operacional usando a tecnologia de relés chamado Heath Robinson. Em
1943, essa máquina seria substituída pelo Colossus, que utilizava válvulas. Ambas
foram construídas especificamente para decifrar mensagens alemãs cifradas com a
máquina Enigma. [McCORDUCK].

Parece que a honra de ter posto em funcionamento o primeiro computador


digital de propósito geral controlado por programa se deve ao engenheiro alemão
Konrad Zuse, em 1943, com sua Máquina Z. Em 1945 havia desenvolvido inclusive
uma linguagem de programação chamada Plankalkül, e estava convencido de que
poderia resolver não só problemas matemáticos, mas também muitos outros problemas
simbólicos, como os movimentos do xadrez. Ilhado pela derrota alemã na guerra e
impedido de desenvolver a eletrônica pelas proibições do pós-guerra, Zuse ficou para
trás, ainda por que os americanos e os britânicos logo (e independentemente)
desenvolveriam seus computadores de propósito geral. Em 1976 Zuse disse que sempre
acreditou na possibilidade da inteligência artificial, mas que tinha medo das
conseqüências dela, e que os cientistas estavam brincando com o que não deviam. Em
suas palavras: “Estava aterrorizado. Não vejo nenhuma razão para que as máquinas
não possam pensar, e não me surpreenderia se algum dia fizerem isso melhor que os
humanos. Mas...”. [McCORDUCK].

Porém o nome mais associado ao advento do computador é John von Neumman.


A esse extraordinário matemático se atribui a idéia de armazenar os programas, isto é,
controlar o computador por meio de um programa armazenado na memória interna do
próprio computador. O computador, assim, ajudaria a preparar seus próprios programas,
e essa proposta abriu caminho para o desenvolvimento de ferramentas de programação.
[McCORDUCK].

Não existe uma separação precisa entre as últimas grandes calculadoras e os


primeiros computadores, mas nessa fronteira, no período de 1945 a 1950, algumas
máquinas podem reivindicar o título de “primeiro computador”, entre elas o EDVAC
(concebido por von Neumman, Eckert e Mauchly, desenvolvido na Moore School,
colocado em funcionamento em 1951), o IAS (construído no “Institute os Advanced
Study”, na Universidade de Princeton, por von Neumann, concluído em 1952), o
BINAC (construído por Eckert e Mauchly, ficou pronto em 1949), o EDSAC
(funcionando em 1949 na Universidade de Cambridge, obra do professor Wilkes) e o
MARK 1 (desenvolvido na Universidade de Manchester por Max Newman e Alan
Turing). O MARK 1 tornou-se operacional em 1948, sendo, então, o primeiro. Duas
outras máquinas, o ENIAC, desenvolvido por H. H. Goldstine e o IBM SSEC, da IBM,
apesar de serem ainda grandes calculadoras, foram utilizadas de maneira semelhante
aos computadores. [BITTENCOURT]
25

Por aquela época, o termo “cérebros gigantes” havia conquistado a imaginação


do público (pois os computadores de então ocupavam salas enormes de grandes
prédios). Von Neumann também fascinava-se com a idéia, porém tratava de mostrar, em
resposta aos mais entusiastas, que o computador estava ainda muito longe de comportar-
se como um ser humano. Apesar de ter sido ele um dos responsáveis pela denominação
das partes do computador referindo-se a funções humanas, em um artigo escrito em
1951 esmerou-se em assinalar as diferenças entre elas. Em primeiro lugar diferenças
físicas consideráveis. As peças do computador são grandes, incomodas e pouco
confiáveis, se comparados com as minúsculas e eficientes células do cérebro. O sistema
nervoso humano também mostra claramente tanto um comportamento discreto quanto
contínuo. Além disso, era difícil colocar programas complexos no computador, pela
dificuldade de fazê-los e pela falta de instrumentos lógicos que auxiliassem a tarefa. No
artigo faz um elogio ao trabalho de McCulloch e Pitts: [McCORDUCK].

“As atividades e funções do sistema nervoso humano são tão complicadas que
possivelmente nenhum mecanismo simples será capaz de reproduzi-las. [...] o trabalho
de McCulloch e Pitts [...] prova que qualquer coisa que pode ser descrita
exaustivamente e sem ambigüidade, qualquer coisa que possa expressar-se com
palavras por completo é, ipso facto realizável por meio de uma rede neuronal finita
apropriada”.

Von Neumann seguiu pistas nas distintas influências da IA. Estudou matemática
em Zurique com George Polya (que mais tarde daria aulas a Allen Newell), interessava-
se por lógica formal e arquitetura de computadores, e em 1944 havia se reunido com
Howard Aiken, de Harvard, coinventor do MARK 1, com o cibernético Norbert Wiener,
com o lógico Walter Pitts e com o neurofisiologista Warren McCulloch para formarem
a “Sociedade Teleológica” e discutirem suas idéias. Infelizmente, já em 1956, enquanto
preparava seu pronunciamento para uma convenção em Yale, von Neumann teve
descoberto um câncer, que se desenvolveu rapidamente e causou sua morte. Essas
últimas notas foram publicadas postumamente sob o título de “The Computer and the
Brain” (1958), onde pretendia descrever o funcionamento do cérebro a partir de um
ponto de vista matemático. [McCORDUCK].

A década de 50 é marcada pelo surgimento dor primeiros computadores civis e


pelo desenvolvimento de grandes computadores militares. São exemplos disso o
UNIVAC 1, concebido após inúmeros percalços por Eckert e Mauchly voltado para
aplicações em administração, e o Whirlwind (Turbilhão) desenvolvido no Massachusetts
Institute of Technology (MIT), para simulação de vôos na aeronáutica. Inspirados no
IAS, em 1953 surgem o IBM 701 e o IBM 702, dando origem a uma série de
computadores que tornariam a IBM líder absoluta na fabricação de computadores.
Paralelamente, começa a ser aplicada a tecnologia de transistores, mérito do Bell
Laboratories, adotados pelas linhas da IBM a parir de 1959. [BITTENCOURT].

Somente durante a década de 70, o desenvolvimento da tecnologia de


computadores deixaria de depender das verbas governamentais (principalmente
militares), para estabelecer-se comercialmente. [BITTENCOURT] Utiliza-se,
didaticamente uma escala para marcar a evolução dos computadores: a primeira geração
(1947-1960) usando válvulas, a segunda geração (1960-1964) usando transistores, a
terceira geração (1964-1970) usando Circuitos Integrados, e a quarta geração, a partir da
década de 1970, com os circuitos integrados de larga escala (LSI e VLSI), que
26

continuam a aprimorar, sendo a tecnologia vigente ainda hoje, nesse início de século
XXI. Essa nomenclatura (por gerações) já não é tão usada hoje em dia, até por que
novas gerações (depois da quarta) não se tornaram muito claras, mas fato é que em 1985
os japoneses lançaram o projeto “Quinta Geração” e recentemente lançaram o projeto
“Sexta Geração”. No livro de Helder Coelho, “Sonho e Razão”, essas classes já estão
colocadas, sendo a quinta geração caracterizada por forte paralelismo e processamento
do conhecimento, a sexta geração por processamento neuronal, e a sétima geração por
processamento molecular. Essas novas tecnologias estão na iminência de romper as
barreiras da tradicional eletrônica do silício, mas (apesar de alguns experimentos
promissores) ainda não são uma realidade. [COELHO].

Por fim, a evolução dos computadores chega aos nossos dias marcada pela
produção de microcomputadores (o primeiro lançado pela Digital Equipment
Corporation em 1973), e pela popularização dos computadores a partir do advento do
computador pessoal (PC) na década de 80. [BITTENCOURT]. A informática na
sociedade contemporânea (duas coisas que se desenvolvem em ritmo muitíssimo
dinâmico) causou um impacto que pode ser vista como uma revolução. Alguns
sociólogos mesmo especulam sobre a “era da informação”, a contemporaneidade
ocidental, comparável à Revolução Industrial do século XVII. As máquinas
modificando os hábitos, a cultura, as relações pessoais, as relações de trabalho, e modo
de compreender o mundo.

3.7. Psicologia

Esta é outra ciência que, assim como as Ciências Sociais e, como a própria
Inteligência Artificial (tema deste trabalho), vive uma grande luta para afirmar-se como
uma ciência legítima (uma vez que essa idéia ainda guarda resquícios do materialismo
científico). Talvez esse seja um fardo para todas as ciências humanas, que em algum
momento precisam lidar com a subjetividade, com o significado, e não apenas com os
fenômenos explícitos. Algumas obras do século XVI já usavam o termo “Psicologia”,
que da origem grega significa “o estudo da alma”, porém o vocabulário só foi ser
definitivamente adotado por Kant, e hoje a melhor definição (ainda que vaga) seria
“ciência do comportamento” [SILVA].

A psicologia moderna encampa muitos debates, que não lhe permitem


estabelecer um paradigma consensual, formando algumas escolas de pensamento. Um
desses debates se dá entre Materialismo e Espiritualismo. O ilustre psicólogo C. G.
Jung fala sobre isso em seu livro “A Realidade da Alma”: [SILVA].

“Esses dois conceitos [espírito e matéria] são apenas símbolos de fatores


desconhecidos, cuja existência, ao sabor dos humores, dos temperamentos individuais,
das épocas, proclamados ou abolidos. Nada proíbe que a especulação intelectual veja
na psique um fenômeno bioquímico e a reduza, em última análise, a um jogo de
elétrons, ou ao contrário, decrete como vida espiritual a aparente ausência de regra
que reina no centro do átomo. A metafísica do espírito no curso do século XIX teve de
ceder perante uma metafísica da matéria. [...] No entanto as duas explicações são
igualmente lógicas, igualmente arbitrárias e igualmente simbólicas”.
27

Das escolas ainda vivas, uma das mais antigas foi fundada por John B. Watson.
Para essa escola só é válida a conduta objetivamente verificável como objeto de estudo
da Psicologia. Sua teoria ficou conhecida por Behaviorismo ou Comportamentalismo, e
reduz toda a psique11 ao princípio do estímulo-resposta. Watson desconsidera, assim,
toda a discussão sobre se o ser humano é dotado de consciência ou não. [SILVA]

O experimento de Pavlov já tornou-se clássico. Datado de 1889, o neurologista


russo Ivan Petrovich Pavlov apresentou a um cão um pedaço de carne, e percebeu que,
ao vê-la, o cão produzia secreção gástrica. Ou seja, um estímulo natural (a imagem da
comida) promovia o despertar de um reflexo natural (a secreção gástrica). Ao fim de
algum tempo, e em repetidas e sucessivas vezes, faz-se anteceder a presença da carne
pelo toque de uma campainha, que age como estímulo indiferente. Essa experiência,
igualmente repetida um certo número de vezes, desencadeia, o que Pavlov chamou de
Reflexo Condicionado. O toque da campainha por si só passou a estimular a secreção
gástrica. Por outro lado, se esse reflexo condicionado não for reforçado e associado à
ingestão da carne, precedida pelo toque da campainha, acaba desaparecendo. A
explicação dada por Pavlov para o fenômeno é a de que o cérebro cria “arcos nervosos”
ligando os núcleos (no experimento, o cão teria criado uma ponte entre o núcleo
auditivo e o núcleo gástrico) [SILVA]

A hipótese dos arcos não tem muita credibilidade entre os cientistas, mas o fato
é que os reflexos condicionados existem através do córtex cerebral. Dessa forma, a
Escola de Pavlov vai justificar a interpretação da psique através desses fenômenos.
Alguns dos sinais que desencadeiam esses reflexos são provenientes do mundo externo,
comuns a nós e aos animais. Porém, destacam-se nos seres humanos um segundo
sistema de sinais, que se processa por meios inteligentes. Uma palavra passa a ser um
sinal, a partir de seu valor semântico, e a “compreensão” é um reflexo condicionado.
Ainda assim, Pavlov não subestimava a complexidade e a diversidade dos
comportamentos humanos, respondendo com muita reserva sobre a extensão de sua
teoria aos seres humanos. Seu estudo desencadearia também uma pesquisa sobre
hipnose (indução de estados mentais através das palavras). [SILVA].

Ainda nessa linha de pensamento se coloca a Escola Associacionista. O


Associacionismo é oriundo das discussões epistemológicas do empirismo, representado
por Leibniz, Locke e Hume. O médico britânico David Hartley (1708-1757) levava uma
vida profissional suficientemente tranqüila para poder passar muito tempo especulando
sobre a origem do pensamento. Sugeriu que as fibras nervosas eram grupos em
movimento numa ordem correspondente à experiência. Um ser humano nasce com a
capacidade de acumular experiência sensorial de formas progressivamente mais
complexas. [McCORDUCK].

Para os associacionistas só existe aquilo que pode ser sensorialmente observado.


A sensação é a única fonte de conhecimento e tudo o que escapa aos sentidos não tem
realidade. As idéias complexas viriam da associação de outras mais simples. Essa escola

11 ”Psique” é um termo geral para incluir todos fenômenos psíquicos. Uma nova palavra para o
que se chamava “alma” na filosofia.
28

compartilha seus métodos com o funcionalismo12 explicando a relação dos fenômenos


através das funções que exercem. [SILVA]. Essa escola está ligada a W. Wundt, que em
1879 instalou na Universidade de Leipzig o primeiro laboratório de Psicologia
Experimental. A Escola de Würzburg, fundada por seu discípulo O. Külpe, a chamada
Psicologia do Pensamento, acreditando que este era o processo de transformação dos
“conteúdos da mente”.

Max Wertheimer (1880-1943), um dos fundadores da Psicologia da Gestalt13, se


opunha a qualquer tipo de mecanicismo ou associacionismo. Sua escola vai conceber o
processo cerebral como um sistema dinâmico, um contínuo organizar e modelar que se
dá a partir da experiência sensorial. Envolve a percepção global, como explica o
exemplo de Marleau-Ponty: “Quando vejo uma árvore, não percebo primeiramente as
folhas, depois os galhos... para deduzir deles a idéia de árvore. Percebo primeiramente
a árvore como uma totalidade (uma forma, uma estrutura), somente depois analiso a
existência de folhas, galhos...”. Os gestaltistas rompem com a psicologia atomista, para
quem a percepção global não era primeira, mas sim, um composto de sensações
particulares. [JULIA], [McCORDUCK], [SILVA].

No início do século XX, Alfred Binet e seus colegas propuseram uma série de
testes para “medir a inteligência”. Sua motivação foi um pedido do governo francês que
desejava saber por que algumas crianças não atingiam bom desempenho escolar. Binet
contemplava a inteligência como uma combinação de faculdades diversas, medidas em
uma escala gradual. Apesar de ter falecido em 1911 sem terminar seu projeto, as bases
lançadas por ele foram aprimoradas e são válidas ainda hoje, usadas nos testes de Q.I.14
Wolfgang Kohler, colega de Wertheimer, escreveu, com relação a Gestalt que “de
acordo com a definição funcional mais geral do termo, é possível que se deva incluir os
processos de aprendizagem, de memória, de luta, de atitude emocional, de pensamento,
de atuação, etc.”. [McCORDUCK], [SILVA].

Em 1890, William James (1842-1910) escrevia seus “Princípios da Psicologia”.


William James estudou medicina em Harvard, e era um grande interessado nos
mistérios da mente. Adepto do pragmatismo (exigência do esclarecimento preciso de
todos os conceitos), fez questão de negar o dualismo cartesiano, sem no entanto
depreciar o estudo específico dos fatos psíquicos, ainda que esses estivessem
intimamente relacionados com os fatos estabelecidos pela fisiologia nervosa. Por ser um
empirista, considerava que a verdade devia provir dos fatos, porém acrescentou que só
isso não basta. É preciso que haja crença na verdade, e que ela seja significativa para a
vida prática do ser. Para William James, a verdade é algo que se faz dinamicamente.
[WILLIAM JAMES], [SILVA].

William James fala dos vários “eus” que existem numa pessoa. São, na verdade,
as imagens de possíveis “eus”. Ele escreve: “Assim, podemos observar o paradoxo de

12 teoria que explica as coisas pela sua função. Considera os sistemas como organismos, que
tem partes que se relacionam entre si. Essas relações tem uma função, para suprir uma
necessidade do organismo.....

13 “Gestalt” tratuz-se por “forma”. Termo usado pelo estruturalista Kurt Goldstine, para
descrever uma teoria global do organismo, para entendê-lo como um todo, sem isolar suas
partes. [JULIA].

14 Sigla para “Quociente Intelectual”.


29

um homem que se sente envergonhado por ser o segundo melhor remador do mundo. O
fato de que ele seja capaz de derrotar toda a população do globo menos um nada
significa. Comprometeu-se a derrotar aquele único homem, e enquanto não o fizer,
nada mais importa. Aos seus próprios olhos, ele é incapaz de derrotar quem quer que
seja, e se ele assim pensa, ele assim é”. [SILVA]

Para William James, a consciência pessoal tem um papel importante na psique


humana, e pode ser vista como “uma corrente que flui continuamente” [WILLIAM
JAMES]. Já Sartre descreve a consciência como a única realidade da qual o homem tem
experiência [SILVA]. Resgatar as discussões sobre a consciência15 que se dão na
psicologia é importante, uma vez que essa questão se coloca para a inteligência artificial
da seguinte maneira: “poderá uma máquina ter consciência?”

O filósofo Jean-Paul Sartre foi o primeiro representante do Existencialismo na


França. Tendo sido influenciado pela Fenomenologia de Husserl, apresenta-nos em “O
Ser e o Nada” o princípio de que “a existência precede a essência”, ou seja, a
personalidade de um indivíduo não constitui de modo algum, para ele, um destino, que a
vida origina-se numa sucessão de escolhas livres, que não são nunca totalmente
justificáveis. “O homem está condenado a ser livre”. O fenômeno (ser-em-si), sendo
simplesmente aquilo que é, não pode ser livre. A consciência (ser-para-si) leva o
homem a fazer-se, em vez de apenas ser. [SARTRE], [JULIA], [SILVA].

A consciência, para Sartre, é o que permite ao homem dar significado ao mundo.


Tomar consciência de um objeto é pensar nele distinguindo-se dele. O Existencialismo é
uma escola de pensamento ligada ao Humanismo, ou seja, que acredita na humanidade,
na responsabilidade do homem, enquanto ser livre, para decidir seu futuro. Nas palavras
de Sartre: “O homem é antes de mais nada um projeto que se vive subjetivamente [...]
será, antes de mais nada, o que tiver projetado ser”. [SARTRE], [SILVA].

A Escola Estruturalista, fundada na Psicologia por Edward Bradford Titchener,


ainda em 1898, também visa a descoberta de elementos conscientes, seus
relacionamentos entre si, e sua relação com o sistema nervoso. Para Titchener, enquanto
a física estuda o mundo sem considerar o homem, A psicologia estuda o mundo em
relação ao indivíduo que o experimenta. “No mundo da física não há cores, nem sons,
nem sabores, odores e significados, porque tudo isso depende da pessoa que os
experimenta [...] Em nossa interpretação, ‘mente’ significa simplesmente a soma total
dos processos mentais experimentados pelo indivíduo durante o período de sua vida.
Idéias, sentimentos, impulsos, processos mentais, etc.”. [SILVA].

Todas as escolas psicológicas que vimos até agora nasceram de questões


filosóficas, muitas vezes sobrevivendo por forças acadêmicas. A Psicanálise, porém,
não é acadêmica, solidificando-se na prática clínica. Ela está ligada ao austríaco
Sigmund Freud (1856-1939), tendo nascido de observações sobre a histeria. Tratava-se
de uma paciente do professor Joseph Breuer, com a qual empregavam o hipnotismo para
fins distintos de sugestão hipnótica. A moça, que apresentava paralisia, contraturas,
inibição e distúrbios psíquicos, libertava-se desses sintomas desde que se fizesse com
que recordasse, no estado de vigília, lembranças particularmente esquecidas, das quais,

15 Consciência é uma idéia relacionada ao sentimento que cada um tem de sua existência e
de seus atos. Na definição do Dicionário de Filosofia organizado por Didier Julia: “A consciência
desenvolve-se com a memória e o retorno sobre si mesmo”. [JULIA].
30

porém, se lembrava na hipnose. Freud concluiu, dessa experiência, que existem na vida
psíquica idéias latentes, ou capazes de consciência, sem que nenhuma resistência se
oponha a isso. Tais idéias podem, de um momento a outro, deixar de reaparecer na
consciência, tolhidas por algum embaraço, ou ainda por atração do inconsciente. Há
idéias que, por motivo de outra ordem, são recalcadas, tornando-se incapazes de
consciência. Assim, Freud propõem os conceitos de consciente (o que se acha presente
na consciência em um dado momento), subconsciente (representações latentes, capazes
de consciência) e inconsciente (o que não volta a ser consciente), não associando-os a
nenhuma parte do cérebro específica. [SILVA].

Reconhecidamente foi Freud que revelou à psicologia a grande influência dos


processos inconscientes no comportamento. Nas palavras de Gastão Pereira da Silva, no
seu “Compêndio de Psicologia”: “Se havia uma noção de inconsciente, antes de Freud,
[...] não era objeto de estudo direto. Ninguém até então penetrara nesta vasta região do
espírito humano, desvendando o seu dinamismo e descobrindo, através da análise, que
o homem não vive apenas a vida do seu psiquismo consciente e que uma outra vida
palpita no interior do homem. Freud foi o seu desbravador. Concluiu que o
inconsciente não é só a cadeia em que se acorrentam as tendências indignas do
consciente. Nele existe um punhado de formações psíquicas herdadas. Comparado a
uma povoação primitiva, o inconsciente é também a região agreste onde reside o
homem bárbaro, onde adormece a besta com todos os instintos selvagens. Aí está tudo
aquilo que ‘esquecemos’ por ser temível, fatal, ou vergonhoso à nossa personalidade”.
[SILVA].

Freud distingue três sistemas na psique humana: o id, o ego e o superego. O id,
entendido como parte mais antiga da mente, é um depósito de forças instintivas e fica
inteiramente inconsciente. O ego fica entre o subconsciente e o consciente, resultante
dos processos de percepção. É o ego que organiza a defesa, assegura a adaptação à
realidade, regula os conflitos, opera a censura (filtro que estabelece bloqueios,
impedindo que as idéias do inconsciente passem para o subconsciente), e representa a
razão, a sabedoria, a motilidade, a percepção e a memória. Exercendo essas funções, ele
não só pode entrar em conflito com os outros sistemas, como suas próprias funções
podem entrar em conflito entre si. O superego relaciona-se com os sentimentos de culpa
e com as aspirações do ego. O movimento dado à esses sistemas ocorre pela natureza
humana que divide-se entre a busca do prazer e a autopreservação. [FREUD].

Freud é o fundador de uma próspera escola da psicologia. Alfred Adler (1870-


1937), um de seus maiores discípulos, separou-se do mestre por achar que Freud reduzia
demais a psique humana a instintos sexuais. Acreditando na sua teoria sobre o homem,
Adler tomou-a para conceber o homem em suas múltiplas dimensões. Outro discípulo
dissidente foi Jung, a quem Freud descreveu como “filho amado, em quem tenho as
minhas complacências”. [FREUD], [SILVA].

O psicólogo e psiquiatra suíço Carl Gustav Jung (1875-1961), percebendo que o


ambiente atua poderosamente no espírito do homem, definiu o conceito de inconsciente
coletivo, estendendo o conceito freudiano de inconsciente pessoal. O inconsciente
coletivo, mesmo residindo no indivíduo, representaria um fenômeno social, onde
situam-se os mitos e as religiões. Jung não concebe uma psicologia sem alma, tomada
esta num sentido puramente abstrato, pois, ainda que haja uma correspondência entre os
31

processos mentais e os processos físicos do sistema nervoso, não é por essa via que se
compreenderá a psique humana. [SILVA], [JULIA].

Não poderíamos encerrar nossa incursão pela psicologia sem falar de Jean
Piaget. Piaget iniciou sua vida acadêmica estudando biologia na sua cidade natal na
Suíça, porém, após doutorar-se, começou a estudar filosofia e psicologia. Os estudos
como biólogo fizeram-no suspeitar de que os processos de conhecimento poderiam
depender dos mecanismos de equilíbrio orgânico. Por outro lado, Piaget convenceu-se
de que tantos as ações externas quanto os processos de pensamento admitem uma
organização lógica. Assim, no decorrer de sua vida, Piaget tratou de estudar a criança,
tentando entender os processos de formação das estruturas cognitivas e do
conhecimento. Assim, legou-nos tanto uma teoria sobre a inteligência humana, quanto
uma epistemologia, sobre a gênese dos conceitos das ciências. [PIAGET].

Para Piaget, inteligência é adaptação e sua função é estruturar o universo. As


estruturas da inteligência mudam através de adaptações a situações novas. Cada pessoa
constrói um “modelo de mundo”. É o modo como acredita que as coisas funcionem, e
como dá significado a elas. Sempre que nos defrontamos com uma nova situação, ou a
compreendemos com base nas estruturas que já temos (assimilação), ou (quando tal
situação é incompatível com nosso modelo) somos obrigados a modificar nossas
estruturas para compreendê-la (acomodação). Conhecer é, assim, operar sobre o real e
transformá-lo, a fim de compreendê-lo. [PIAGET].

As estruturas cognitivas são um sistema de esquemas de ação. Se alguns desses


esquemas são simples (talvez inatos e de natureza reflexa), a maioria deles são
construídos pouco a pouco pelo indivíduo, dando lugar a diferenciações e composições
de esquemas, através de acomodações à situações novas. O processo da inteligência e
do aprendizado se dá nesse equilíbrio dinâmico entre acomodações e assimilações. Mas
Piaget não chegou a essas conclusões apenas filosofando. Foram as diversas
experiências práticas que fez com crianças que lhe permitiram perceber os processos de
construção do conhecimento, e conceber sua teoria dos estágios. O ser humano,
segundo diz, só completaria a formação de sua inteligência depois dos 12 anos de idade.
Até então, há uma diferença de natureza entre o mundo da criança e o do adulto. Separa,
assim, quatro grandes estágios: o sensório-motor, até dois anos de vida, quando não há
linguagem, mas a criança aprende na interação com o mundo; o de representação, que
começa com a linguagem a possibilidade de representar uma coisa por outra, até os sete
anos; depois, até os doze anos, o operatório-concreto, onde as crianças aprendem a
manipular o mundo, porém apenas na prática, e depois dos doze, o operatório-formal,
quando a criança pode fazer manipulações simbólicas, adquirindo o raciocínio lógico-
dedutivo. Nas suas palavras em “Problemas da Psicologia Genética”: [PIAGET]

“Existe uma diferença entre aprender um resultado e formar um instrumento


intelectual, formar uma lógica, necessária à construção de tal resultado. Não formamos
um instrumento novo de raciocínio em alguns dias. [...] Para que um novo instrumento
lógico se construa, é preciso sempre instrumentos lógicos preliminares. [...] Isso nos
conduz à teoria dos estágios do desenvolvimento, que se faz por graduações sucessivas.
[...] Existe uma inteligência antes da linguagem, mas não existe pensamento antes da
linguagem. Distinguimos a esse respeito, pensamento e linguagem. A inteligência é a
solução de um problema novo para o indivíduo. É a coordenação dos meios para
atingir um certo fim, que não é acessível de maneira imediata; enquanto o pensamento
32

é a inteligência interiorizada e se apoiando não mais sobre a ação direta, mas sobre
um simbolismo, sobre a evocação simbólica pela linguagem, pelas imagens mentais,
que permitem representar o que a inteligência sensório-motora, pelo contrário, vai
aprender diretamente [...]. A Linguagem é solidária do pensamento e supõe, pois, um
sistema de ações interiorizadas. Chamaremos de ‘operações’ ações interiorizadas, quer
dizer, executadas não mais material, mas interior e simbolicamente, e que podem ser
combinadas de todas as maneiras [...] É durante o primeiro ano que a criança constrói
precisamente todas as subestruturas [que alguns pensavam inatas]: a noção de objeto,
de espaço, de tempo, sob a forma das seqüências temporais, a noção de causalidade,
em suma, as grandes noções das quais o pensamento se servirá ulteriormente”.
[PIAGET].

Em 1955 (ano que antecedeu a conferência de Dartmouth), nascia o Centro


Internacional de Epistemologia Genética, em Genebra, sob os auspícios da Fundação
Rockfeller. Esse centro interdisciplinar de altos estudos reúne pesquisadores desde a
pedagogia até a cibernética, entorno de um denominador comum: Jean Piaget.
[PIAGET].
33

4. A História da Inteligência Artificial


No ano de 1942, durante uma conferência em Nova York, Arturo Rosenblueth
ministrava uma palestra em que expunha suas idéias sobre a Cibernética. Entre o
público se encontrava o Dr. Warren McCulloch, da Escola de Medicina da Universidade
de Illinois, um interessado pelo estudo da organização do córtex cerebral. McCulloch,
um neurofisiologista, nesta época já havia começado a trabalhar com Walter Pitts, um
matemático, na tentativa de descrever formalmente certos comportamentos neuronais.
Em 1943, mesmo ano em que apareceu o artigo de Rosenbleuth, Wiener e Bigelow,
McCulloch e Pitts publicavam “Um cálculo lógico das idéias imanentes à atividade
nervosa”. Na introdução do artigo, escreveram: “devido as características de ‘tudo-ou-
nada’ [binário] da atividade nervosa, os sucessos neuronais e as relações entre elas
podem ser tratadas mediante lógica proposicional”. Sua pretensão era propor uma
teoria e princípios para construir máquinas capazes de tratar qualquer aspecto da mente
humana. Seymor Pappert do MIT, referiu-se ao tema com as seguintes palavras: “Estes
dois artigos apresentam com tanta claridade o novo marco do pensamento, que sua
publicação poderia tomar-se como o nascimento da cibernética”. McCulloch e Pitts
criaram o primeiro modelo matemático do neurônio. [McCORDUCK]

As idéias desse paradigma, que mais tarde foi chamado de Conexionismo,


estiveram, assim, profundamente ligadas à cibernética, com sua teoria da informação,
acenando com a possibilidade de imitar a cognição humana simulando sistemas de
neurônios. Naquela época, parecia claro que a correspondência entre o comportamento
biestável do computador e o comportamento biestável dos neurônios proporcionava
fundamento suficiente para poder simular os sistemas neuronais e, portanto, o
comportamento inteligente. Acreditava-se que o cérebro era um sistema de propósito
geral, e que os neurônios organizavam-se para cumprir funções de acordo com os
estímulos externos. McCulloch estava convencido disso, e com a força das idéias e de
seu carisma, atraiu muitos investigadores para o MIT, onde havia, então, se instalado.
Infelizmente a promessa conexionista mostrou-se difícil, e, apesar dos resultados
iniciais, logo estagnou. [McCORDUCK]

McCulloch, antes de dedicar-se à neurofisiologia, havia sido diplomado em


filosofia e psicologia pela Universidade de Yale. Esteve trabalhando com psiquiatria em
Illinois até 1952, depois transferiu-se para o laboratório de eletrônica do MIT, onde
ficou até sua morte, em 1969. McCulloch e Pitts, no seu artigo de 1943, não haviam
provado a afirmação de que todas as funções completamente descritas poderiam ser
postas em prática em uma rede de neurônios, porém, ao demonstrar a possível
equivalência entre uma Rede Neuronal e a Máquina de Turing, tornaram mais viável a
interpretação do cérebro como uma máquina. Ainda que seu modelo de neurônio
artificial era bastante simples (comparado ao neurônio natural), e que mais tarde se
refutou a equivalência entre suas redes e a máquina universal, McCulloch e Pitts
fizeram perceber que se o conhecimento é algo complexo, e os neurônios algo
(relativamente) simples, seria preciso analisar sim sua organização. [McCORDUCK].

Para McCulloch, o ser humano nasceria com poucos conhecimentos inatos.


Além deles, o cérebro seria como uma rede neuronal que começa com valores
aleatórios. Estes neurônios são capazes de conectar-se de diversas formas. Dado um
conjunto de estímulos, a rede organiza suas conexões de uma determinada maneira.
Outro tipo de estímulo daria lugar a outro tipo de combinação, e estímulos posteriores
34

(se razoavelmente persistentes) fariam a rede se modificar, ainda que já não fosse mais
aleatória. Essa modificação como resposta a um estímulo é aprendizagem, afirmava
McCulloch, e uma rede circular poderia incorporar não só aprendizagem como
memória, capacidade de predição, intencionalidade e capacidade de escolha. A idéia era
tão atraente que durante os anos seguintes muitos pesquisadores se dedicaram a ela,
incluindo a tese de doutorado de Marvin Minsky, em Princeton. [McCORDUCK].

Turing, Von Neumann, Wiener, McCulloch e Pitts (além de outros, como


Shannon, MacKay, Walter16 e Ashby), os homens que discutiam o futuro na Sociedade
Teleológica e no Ratio Club, podem ser colocados na primeira geração que lidou com a
inteligência artificial de fato. E realmente estavam todos relacionados, tanto por motivos
de amizade, de proximidade, quanto pela fascinação diante da possibilidade de
compreender alguns aspectos do pensamento humano. McCarthy foi aluno dessa
geração, e começava, junto com seus colegas, a perceber tanto o cérebro quanto o
computador como processadores de informação. A idéia de processamento da
informação (que é diferente de teoria da informação) mudaria o enfoque da pesquisa
em IA, deixando de lado a fisiologia neuronal (década de 40) e valorizando a abstração
simbólica (década de 50). [McCORDUCK].

O físico Donald MacKay, sentia-se, desde a década de 40, desconfortável com o


excesso de formalização da informação. Achava que, para melhor modelar o
conhecimento humano, seria necessário combinar técnicas analógicas e digitais, e usar
não só valores quantitativos, mas também qualitativos para tratar a informação. Nas
suas palavras: “creio que já estamos nos aproximando do limite em que o que a
inteligência artificial espera é a mecanização em hardware de interações paralelas, que
permitam que um computador de magnitude cresça em comportamento inteligente [...].
Creio que o ponto crucial é uma interação paralela, que permita um enfoque
multidimensional e gradual”. [McCORDUCK].

Embora desde a década de 70 MacKay tenha voltado seu enfoque para o estudo
e a modelagem do cérebro humano, naqueles finais da década de 40 perguntava-se a
respeito da natureza da informação. MacKay pensava que, para um artefato ser
autenticamente autônomo, tinha que ser capaz de responder e de se ajustar a novos tipos
de informação (aprendizado). Ele seria então capaz de levar uma disciplinada existência
independente da intervenção humana, uma existência com pelo menos um sentido
abstrato de intencionalidade: a busca da adaptação, do equilíbrio. O comportamento
dessa máquina não precisaria estar predeterminado por seu programador, uma vez que
poderia estabelecer metas a si mesma, em torno da meta maior, que é a própria busca de
equilíbrio. MacKay também percebeu a necessidade de se adotar sistemas
probabilísticos, pois não acreditava na redução do pensamento humano a proposições
verdadeiras ou falsas. Em 1955, voltou a considerar estes problemas, desta vez por
convite de Claude Shannon e John McCarthy, que estavam compilando seu conhecido
volume “Automata Studies”. Seu artigo, de caráter mais filosófico, intitulado
“Problemas Epistemológicos dos Autômatos”, propõe um modelo capaz de aprender e

16 Grey Walter, neurofisiologista em cujos laboratórios nasceu o Ratio Club, e que fez
importantes descobertas sobre a atividade elétrica do cérebro, construiu um autômato
interessante que ficou conhecido por “Tartaruga de Walter”. Tratava-se de um aparato
eletromecânico que contornava obstáculos e voltava para sua “toca” quando sua bateria
necessitava ser recarregada. [McCORDUCK].
35

de construir seus próprios símbolos para representar conceitos abstratos.


[McCORDUCK].

Em 1952, o psiquiatra W. Ross Ashby publicou seu livro “Design for a Brain”,
propondo um método para imitar a capacidade do cérebro de gerar comportamento
adaptativo. Ashby escreve: “Eu tenho tentado deduzir o que é necessário, que
propriedades deve possuir o sistema nervoso, se comporta-se ao mesmo tempo de forma
mecânica e adaptativa [...]. o organismo vivo livre e seu entorno, tomados juntos,
formam um sistema absoluto [...] a máquina atua para manter determinadas variáveis
dentro de certos limites [...] é um sistema que se autoorganiza, que responde a
estímulos, modificando seu comportamento, e em certo sentido sua forma, para atingir
a estabilidade” (Ashby construiu uma máquina nesses moldes que denominou
Homeostato). Em seu livro, suscita também uma outra discussão pertinente: se a IA esta
buscando criar uma inteligência, ou se está tentando simular especificamente a
inteligência humana. “[...] Se o cérebro vivo falha em certos aspectos característicos,
então eu quero que meu cérebro falhe também, porque tal falha seria uma evidência de
que tenho um bom modelo”. [McCORDUCK].

A idéia da autoorganização pareceu dar uma nova luz ao modo com que se
entendia o funcionamento do cérebro. Um dos sistemas autoorganizativos mais
conhecido foi criação do grupo de pesquisas liderado por Frank Rosenblatt, ex-colega
de Marvin Minsky, chamado Perceptron17, em 1959. Originalmente tinha três níveis: o
primeiro era uma rede de fotocélulas que representavam a retina do olho, reagindo à
estímulos luminosos; o segundo eram unidades de associação que recolhiam os
impulsos provenientes das fotocélulas; e o terceiro nível dava os sinais de resposta. Os
elementos em cada nível eram conectados com cabos de forma aleatória. O Perceptron
aprendia a reconhecia satisfatoriamente muitos padrões (formas, letras, etc.).
[McCORDUCK].

Com o passar do tempo, o Perceptron foi ganhando notoriedade, talvez mais


pelo próprio Rosenblatt do que por si mesmo. Os que conviveram com ele recordam-se
de que tendia a defender vigorosamente suas opiniões, e fazia comentários
extravagantes sobre as habilidades de sua máquina, muitas vezes falando mais das
coisas que ele pretendia que ela fizesse no futuro, do que das coisas que ela fazia
realmente. Enquanto irritava a alguns, convencia a outros. Não que sua máquina não
tenha tido valor. Com certeza teve, mas o conexionismo já via-se ameaçado por não
conseguir ir além disso. Assim, o Perceptron viu-se com dificuldades tanto teóricas
quanto práticas, e a morte acidental de Rosenblatt pareceu acabar com as energias
necessárias para continuar o trabalho. [McCORDUCK].

Uma das pessoas que se desentendia facilmente com Rosenblatt era Marvin
Minsky, talvez por que o perceptron não era distinto das redes neuronais, modelo que
lhe induzia ao mesmo tempo fascínio e frustração. Muitas discussões acaloradas
ocorreram entre Rosenblatt e Minsky no final dos anos 50 e início dos 60. Apesar disso,
Minsky ainda dedicaria bastante do seu tempo a estudos teóricos sobre os perceptrons e
outras máquinas baseadas no conexionismo. Em 1961, numa conferência sobre o tema,
conheceu o jovem investigador Seymour Papert, a quem mais tarde McCulloch levaria
ao MIT, e que iria tornar-se companheiro de Minsky em diversos projetos. Um

17 A partir do modelo de neurônio de McCulloch e Pits, e da teoria do aprendizado de Donald


Hebb (1949). [BITTENCOURT].
36

problema que ambos viam na teoria conexionista, é que negligenciava a representação


simbólica interna. Os perceptrons, mesmo classificando os estímulos externos, não
podiam referir-se à eles simbolicamente. E durante alguns anos trabalharam a fundo
para tentar esclarecer definitivamente as verdadeiras capacidades do conexionismo.
Desse estudo resultou um livro marcante para o campo, intitulado “Perceptrons”,
publicado em 1969. [McCORDUCK].

Marvin Minsky é um caso interessante na IA. Minsky cresceu em Nova York e


fez seus estudos de licenciatura em Harvard, onde estudou física. Lá chegou a coordenar
três laboratórios simultaneamente (biologia, física e psicologia). Influenciado pela teoria
de McCulloch e Pitts passou alguns anos do início de suas pesquisas tentando entender
como o cérebro funciona, e tentando entendê-lo do ponto de vista neuronal, utilizando
como modelo as células biestáveis do computador. Depois de algum tempo, passou a
ver poucas perspectivas na fisiologia, para compreender a inteligência. Tal
desmotivação, somada ao incentivo dado por seu colega Ray Solomonoff, levaram-no a
abandonar a abordagem conexionista e migrar para o modelo de processamento da
informação. [McCORDUCK].

Em 1955, quatro cientistas enviavam uma proposta para a Fundação Rockfeller.


“Propomos que se leve a cabo uma revisão da inteligência artificial de dois meses e dez
homens, no Dartmouth College de Hanover, New Hampshire. A revisão é para fazê-la
seguir adiante, baseado na conjectura de que qualquer aspecto do aprendizado ou
qualquer outro fenômeno da inteligência pode em princípio ser descrita de forma tão
precisa que pode permite a uma máquina simulá-los”18. Os quatro eram John
McCarthy, então professor de matemática em Dartmouth, Marvin Minsky, de Harvard,
Nathaniel Rochester, diretor de investigação da informação, da IBM (projetista do
revolucionário modelo IBM 701), e Claude Shannon, matemático dos laboratórios Bell
Telephone, que já era famoso por sua teoria da informação. [McCORDUCK]

McCarthy era o principal organizador desse evento (que ficou conhecido entre
os cientistas da IA como a Conferência de Dartmouth). Ele conhecia Minsky e Shannon
porque trabalharam juntos nos laboratórios Bell em 1952, e sabia de seu interesse pelo
tema. Conheceu Rochester por causa de um computador que a IBM deu de presente ao
MIT, e nas poucas conversas descobriu que também se interessava pelas máquinas
inteligentes. A fundação Rockfeller forneceu algum subsídio, e os quatro organizadores
convidaram outras pessoas que compartilhavam sua crença na IA. Entre essas pessoas
estavam Trenchard More e Arthur Samuel da IBM, Oliver Selfridge e Ray Solomonoff,
do MIT, e quase na última hora, duas pessoas que não eram muito conhecidas da RAND
Corporation de Santa Mónica e do Instituto Carnagie de Pittsburgh, Allen Newell e
Herbert Simon. Esta idéia de última hora acabaria sendo muito proveitosa.
[McCORDUCK]. Ainda outros fariam algumas visitas ao grupo, para mostrar trabalhos
relacionados, como por exemplo Alex Bernstein, da IBM, que iria falar do programa de
xadrez que estava fazendo. [McCORDUCK].

18 Se fizéssemos uma genealogia lógica, Turing deveria ser a referência central dessa
conferência. Em seus artigos já estava clara a necessidade de construir inteligência em
máquina por meios simbólicos, mas a história tem sua própria forma de se constituir, e
aconteceu que as pessoas que estavam na Conferência de Dartmouth tinham sido pouco
influenciados pelo trabalho de Turing. [McCorduck]
37

Oliver Selfridge lembrava da conferência como tendo sido algo decisivo:


“Estávamos diante de um campo em que se iriam realizar grandes feitos. Quase
nenhuma das promessas que fizemos foi cumprida no tempo previsto, mas elas seguem
estando aí”. Já John McCarthy estava um pouco decepcionado: “Todos estavam
decididos a prosseguir com as idéias que tinham antes de chegar, e ali não houve, até
onde pude ver, nenhum verdadeiro intercâmbio de idéias. As pessoas chegavam em
momentos diferentes. A idéia é que todos deviam estar de acordo em ficar lá seis
semanas inteiras, mas as pessoas ficam só alguns períodos, às vezes dois dias. Fiquei
decepcionado porque isso queria dizer que não poderíamos ter reuniões regulares”.

Durante a conferência discutiu-se muito sobre o nome que deveria ser dado ao
novo campo. A expressão “Inteligência Artificial” foi cunhada pelo próprio McCarthy,
termo que defendeu com energia. Era necessário distinguir de uma vez por todas esse
campo de estudo das máquinas inteligentes, dos autômatos em geral. A nomenclatura
acabou vingando, apesar de que não era unânime entre os pesquisadores que lá estavam.
[McCORDUCK].

Pode ser que os resultados concretos da conferência de verão de Dartmouth


tenham sido escassos. Minsky mostrou algumas idéias que mais tarde dariam origem ao
artigo “Steps Toward Artificial Intelligence” (1963). Ray Solomonoff, que então estava
trabalhando em modelos de inferência indutiva, lembra que tentou convencer as pessoas
de que não precisavam estipular problemas difíceis para ver se a máquina estava
pensando realmente, mas sim definir uma noção sólida do que era pensar. Solomonoff
interessou-se particularmente por uma idéia de McCarthy: a possibilidade de expressar
qualquer problema intelectual em termos de uma máquina de Turing. [McCORDUCK].

Minsky também estava envolvido com um programa que provava


automaticamente teoremas de geometria, idéia que já havia interessado a Newell e
Simon. Nathaniel Rochester levou o projeto a um jovem recém doutorado em física que
estava trabalhando como programador na IBM. Era Herbert Gelertner, que iria
desenvolver um famoso provador de teoremas de geometria, tendo um vínculo
intelectual com a primeira linguagem de processamento de listas de Newell e Simon (o
IPL) que daria origem à Linguagem LISP, pensada por McCarthy. [McCORDUCK].

Minsky recorda-se da Conferência de Dartmouth: “Havia uma falsa sensação de


que estávamos começando a entender as teorias da manipulação simbólica e as teorias
da cibernética que tratavam com conceitos em lugar de simples realimentação. [...]
Parecia que havia chegado o momento de fazer alguma coisa realmente impressionante
a curto prazo”. Fazer uma máquina ter comportamento inteligente era muito mais
difícil do que todos em 1956 pensavam que seria. [McCORDUCK].

Cada um deles fez planos para os futuros trabalhos. Minsky tentaria encontrar
maneiras de permitir à máquina elaborar dentro de si mesma um modelo abstrato do
ambiente em que se encontra, para, a partir dele fazer experimentos externos. Devido a
este estudo preliminar interno os experimentos externos pareceriam ser inteligentes e
imaginativos. Rochester pretendia descobrir como dotar a máquina de originalidade na
solução dos problemas. McCarthy pretendia criar uma linguagem de alto nível, que
pareceria com o linguagem natural e permitiria programar o computador para o
aprendizado. Shannon planejou aplicar os conceitos da teoria da informação aos
modelos de cérebro para poder sintetizar alguns de seus aspectos. Nenhum era ingênuo
38

o suficiente para esperar concluir a tarefa em 1956, mas também não imaginaram que
estariam projetando sua vida profissional para as próximas décadas, como foi o caso de
Minsky, McCarthy, Newell e Simon. Rochester e Shannon acabaram interessando-se
por outras áreas e permaneceram como espectadores benévolos da IA nos anos
seguintes. [McCORDUCK].

Claude Shannon havia estado pensando sobre IA já fazia muito tempo. Sua tese
de mestrado, apresentada no MIT em 1937, falava da aplicação de álgebra booleana em
sistemas de engenharia. Shannon foi uma das pessoas que mais trabalhou, naquela
época, para tentar mostrar que o computador era uma ferramenta muito mais geral e
poderosa do que uma “calculadora gigante”. Em 1950 publicou um artigo intitulado “A
Chess-Playing Machine”, onde assinala que as novas máquinas podiam “trabalhar
simbolicamente com elementos que representavam palavras, proposições ou outras
entidades conceituais”. Descreve também um modelo de máquina jogadora de xadrez.
Seu modelo usava métodos inteligentes para calcular as jogadas, porém não aprendia.
Mais tarde, em 1953, ele voltaria ao assunto, e proporia para a comunidade científica os
seguintes problemas: como fazer uma máquina organizar-se em uma hierarquia de
níveis, como parece que a inteligência humana está organizada, e fazer com que a
máquina vá progredindo gradualmente nesta hierarquia? Como podemos programar o
computador de tal forma que ele próprio possa escrever seus programas?
[McCORDUCK].

Shannon passou a dedicar-se à teoria da computação, mas em uma conversa com


Pamela McCorduck, em 1975, falava a respeito dos temas de IA: “Realmente é
fantástico que uma coisa muito simples possa produzir coisas tão complexas! [...] as
formigas, diferentemente do que afirmou Simon, desenvolvem um comportamento muito
complexo para sobreviver [...] e só possuem umas poucas centenas de células nervosas.
Parece completamente incrível porque se eu tivesse que fazer isso com umas poucas
centenas de relés, realmente não poderia, e olha que sou muito bom com os relés”.
Falou também sobre um “rato” eletromecânico que havia feito, capaz de achar a saída
em um labirinto, aprendendo a solução por tentativa e erro. [McCORDUCK].

Talvez o grande acontecimento da conferência tenha sido o trabalho


apresentado por Newell e Simon. Eles tinham algo que ninguém tinha e pelo que todos
suspiravam: um programa genuinamente inteligente e que funcionava. Também já
incorporava as idéias do novo paradigma de processamento da informação. Chamava-se
“Teórico Lógico” e era capaz de provar os teoremas dos “Principia Mathematica”19, de
Whitehead e Russell, uma proeza respeitável, que foi recebida com um entusiasmo
contido pelos outros. Minsky, por exemplo, só iria reconhecer a revolução iniciada por
Newell e Simon em 1961, quando a maioria da pesquisa em IA já adotava aquelas
idéias. Esse reconhecimento está em “Steps Toward Artificial Intelligence” publicado
em 1963 no livro “Computers and Thought”, organizado por dois ex-alunos de Simon,
Feigenbaum e Feldman. [McCORDUCK].

Minsky fala do clima em Dartmouth, devido ao feito de Simon e Newell: “Eles


tinham um projeto bem desenvolvido, no qual estiveram trabalhando durante muito
tempo, em jornadas intensivas, enquanto nós tínhamos estado trabalhando de uma

19 O Teórico Lógico descobriu uma prova para o teorema 2.85 mais simples e satisfatória do
que a proposta por Whitehead e Russell. Simon escreveu a Lord Russell comunicando-lhe a
nptícia, que o deixou encantado. [McCORDUCK].
39

maneira muito mais fortuita e muito mais genérica em um curto período de tempo, e
queríamos compartilhar o cenário com igual autoridade, o que não estava muito bem.
Estávamos falando especulativamente sobre o que pensávamos que queríamos fazer,
enquanto eles falavam como cientistas”. [McCORDUCK].

Outro resultado da Conferência de Dartmouth foi o estabelecimento de uma


organização social e cultural dentro do campo científico. A IA, nascia já “feudalizada”,
sendo seus senhores, esses homens que lá se encontravam. Mobilizados por
reconhecimento e pesados financiamentos, quatro núcleos de pesquisa se consolidariam
e centralizariam a pesquisa em IA até a década de 70: a Universidade de Carnagie-
Mellon (de Newell e Simon), o MIT (onde trabalha Minsky), a Universidade de
Stanford (de McCarthy) e o Instituto de Investigação de Stanford (onde trabalham
muitos de seus alunos).

O próprio Arthur Sammuel, que também participou da conferência reclama


desse “nepotismo científico”. Também o professor Lotfi Zadeh, da Universidade da
Califórnia em Berkeley afirma-se ao mesmo tempo dentro e fora do campo. Ele, ainda
na década de 60, propôs o modelo da “lógica difusa” (fuzzy), e acredita que a IA é mais
exclusivista que os outros campos principalmente por que é financiada por um único
grande órgão (o governo americano) – pelo menos assim era ainda durante a década de
70. John McCarthy comenta: “Creio que não nos falamos tanto como deveríamos.
Tendemos a ter esses impérios separados, trocando idéias mediante embaixadores, na
forma de estudantes de doutorado”.

Newell e Simon conheceram-se na RAND (onde também conheceriam Shaw),


trabalhando num projeto para o centro de defesa área. O experimento pretendia mostrar
que uma maior atenção aos fatores de organização melhoraria o resultado dos
trabalhadores humanos de forma substancial. Newell entrou na RAND em 1950 depois
de passar um ano estudando matemática em Princeton. “Eu me dedicava à resolução de
problemas [diz Newell], e queria problemas que poderiam ter aplicação. Simplesmente
não podia entender o que motivava os matemáticos puros [...] Assim foi minha
despedida de Princeton”. Newell foi para a RAND pois sabia que ali se estava
trabalhando com Teoria dos Jogos. Também ficou encantado com a liberdade que se
oferecia ao pesquisador para seguir seus próprios caminhos. Newell é um pesquisador
ambicioso e crê que o cientista deve fazer uma aposta quanto à relevância de seu
estudo. Essa postura intelectual atribui ao próprio pai, que era professor de medicina em
Stanford.

Herbert A. Simon tem uma destacada reputação nos campos das ciências
políticas, administração de empresas, psicologia e informática. Tendo feito importantes
contribuições à filosofia e à economia, recebeu o Prêmio Nobel de Economia em 1978.
Ao contrario de Newell, Simon gosta muito de ler ficção científica. Entrou na RAND
em 1952 e seu trabalho envolvia o estudo do comportamento humano em organizações.
Achava extremada tanto a posição dos que defendiam que o comportamento humano é
completamente moldado pelo meio, como também a dos que lhe atribuíam muita
racionalidade. Em um bem sucedido livro publicado em 1947, “Administrative
Behavior”, Simon mostra como as pessoas, mesmo sendo muito racionais, podem
defender idéias diferentes, dependendo da posição em que se encontram. Sobre a
RAND, conta-nos: “processamento da informação já era uma expressão usada por
40

Newell quando eu ali cheguei, em 52, e comecei a transferir isso para as minhas idéias
sobre tomada de decisão e decisões relacionadas com suas premissas”.

Simon pensou a mente como uma máquina lógica: “Quando comecei a pensar
que se podia ver o computador como um aparato para processar informação, não só
números, então a metáfora que eu estava utilizando, a da mente como algo que tomava
algumas premissas, as fundamentava e processava para extrair conclusões começou a
transformar-se na idéia de que a mente era algo que tomava algumas entradas
(programas e dados), processava sobre os dados e produzia uma saída”. E em 1954, ao
conhecer o experimento de Oliver Selfridge estabeleceu novas metas.

Selfridge e seu colega Dinneen haviam desenvolvido uma máquina para o


reconhecimento de padrões que incluía vários níveis de lógica. O que mais
impressionou a Newell, em seu experimento, é que a partir de subprocessos simples,
coordenados num processo maior, surgiu um comportamento inteligente. Em 1955
deixou a RAND para ir trabalhar com Simon em Pittsburgh, e, dessas novas motivações
nasceria o novo paradigma do processamento da informação. Decidiriam trabalhar suas
idéias em um programa de xadrez e no programa provador de teoremas. Para isso
contaram com a ajuda do brilhante programador Cliff Shaw. Shaw participaria também
do projeto GPS (General Problem Solver), sucessor do Teórico Lógico. O trabalho de
Simon, Newell e Shaw sobre o Teórico Lógico havia ficado suficientemente pronto para
poder ser levado a Dartmouth e ser o mais importante. [McCORDUCK].

Durante muito tempo, a falta de computadores potentes impediu que a IA


tentasse utilizar suas técnicas ante problemas reais. Os cientistas passaram a tratar de
problemas mais simples, porém igualmente desafiadores, na medida em que exigiam
inteligência em sua solução. Os jogos eram um bom teste para as máquinas pois, num
universo diminuto, requeriam uma série de aspectos da inteligência. O xadrez é o
exemplo preferido na IA20.

Arthur Sammuel foi um homem dedicado aos jogos de IA. Foi ele que, em 1953
aprimorou o algoritmo MiniMax proposto por Claude Shannon em 1950. [COELHO].
Samuel dedicou-se muito a seu programa jogador de damas, o que deixava a IBM um
pouco insatisfeita, uma vez que o havia contratado para projetar computadores. O jogo
de damas não é trivial, e Sammuel descobriria isso nos 20 anos que dedicou ao projeto,
tanto desenvolvendo técnicas de comportamento e aprendizado para a máquina, quanto
buscando compreender todas as nuances do jogo de damas (do qual não gostava muito).
[McCORDUCK].

Desde a fundação da Inteligência Artificial até bem pouco tempo atrás, o


processo que se via no campo era o seguinte: mesmo com um cenário cada vez melhor,

20 Tendo sido chamado de drosófila da IA pelo matemático russo Alexander Kronrod em 1965,
(em homenagem à espécie de insetos usados por Thomas Morgan no estudo da genética) por
ser para ela um tipo de laboratório. Desde o século XVI sonhava-se com a possibilidade de um
autômato poder jogar xadrez. [COELHO]. Exemplo disso o Barão Wolfgang Von Kempelen, que
dizia ter construido um autômato que jogava xadrez. Foi apresentado à imperatriz Maria Tereza
da Áustria em 1769, e consistia em uma grande caixa sobre a qual encontrava-se o busto de
um turco, em escala natural, que movia as peças de um tabuleiro. Depois descobriu-se que não
era mecânico, havia um jogador humano dentro da caixa que manipulava as peças. Dizem as
fontes do mundo dos espetáculos que o turco ganhou até de Napoleão Bonaparte.
[McCorduck]
41

ou seja, desenvolvimento de novas técnicas, melhora na tecnologia computacional e


avanços da neurofisiologia e da psicologia, a IA acabava percebendo que havia
estabelecido objetivos muito grandes, e os diminuía. Jorge Muniz Barreto faz um retrato
interessante dessa história, dividindo-a em épocas. Esse quadro, publicado no seu livro
“Inteligência Artificial no Limiar do Século XXI”, reproduzo: [BARRETO].

ÉPOCA PRÉ-HISTÓRICA (até 1875). Nesta época nada se conhecia sobre os


mecanismos da mente, nem sob o prisma fisiológico nem psicológico e por esta razão
vai até 1875 quando Camilo Golgi visualizou o neurônio.

Objetivo: Criar seres e mecanismos apresentando comportamento inteligente.


Metodologia e conquistas: Mecanismos usando mecânica de precisão
desenvolvida nos autômatos, mecanismos baseados e teares, etc. Apelo ao
sobrenatural.

Limitações: Complexidade dos mecanismos, dificuldades de construção.


Insucesso dos apelos ao sobrenatural.

ÉPOCA ANTIGA (1875-1943). Época em que a lógica formal apareceu (Russell,


Gödel,etc) bem como se passou a reconhecer o cérebro como órgão responsável pela
inteligência. Hilbert imaginava um mundo paradisíaco, em que tudo poderia ser
axiomatizado e reduzido à Lógica. Entretanto assim como o final do século XIX viu o
desmoronamento do mundo Euclidiano, Gödel abalou o mundo de Hilbert com seu
teorema de incompletude da aritmética. Foi a época em que, tal como os filósofos gregos
fizeram, são colocadas as bases da IA Simbólica e IA Conexionista, terminando com a
publicação do trabalho de McCulloch e Pitts modelando o neurônio.

Objetivo: Entender a inteligência humana

Metodologia e conquistas: Estudos da psicologia e de neurofisiologia.


Nascimento da psicanálise.

Limitações: Grande distância entre as conquistas da psicologia e da


neurofisiologia.

ÉPOCA ROMÂNTICA. (1943-1956) É o otimismo desordenado. Até a reunião no


Dartmouth College)

Objetivo: Simular a inteligência humana em situações pré-determinadas.

Metodologia e conquistas: Inspiração na natureza. Nascimento da Cibernética.


Primeiros mecanismos imitando funcionamento de redes de neurônios. Primeiros
programas imitando comportamento inteligente.

Limitações: Limitação das capacidades computacionais.

ÉPOCA BARROCA (1956-1969). Havia um grande otimismo, que lentamente foi


cedendo devido à demora dos resultados. A marca decisiva do final desse período foi o
livro Perceptrons mostrando que nem tudo era possível. Além disto, grandes fabricantes
de computadores, interessados em vender suas máquinas para aplicações de escritório
tiveram grande interesse em desmistificar o computador que na época chegou a ser
chamado pelo grande público de "cérebro eletrônico".)

Objetivo: Expandir ao máximo as aplicações da IA tanto usando a abordagem


simbólica quanto a conexionista.

Metodologia e conquistas: Perceptron. Primeiros sistemas especialistas usando


a abordagem simbólica. Grandes esperanças da IAS.
42

Limitações: Dificuldades em técnicas de aprendizado de redes complexas.

ÉPOCA DA TREVAS (1969-1981). Diminuição de quase todas as pesquisas em


IA por falta de verbas. Acabou quando em outubro os japoneses anunciaram seus planos
para a Quinta Geração de Computadores e em outro ambiente Hopfield publica célebre
artigo sobre redes neuronais. Uma característica interessante é que o renascimento da
IA simbólica se fez em ambientes de computação e o de redes neuronais em um
ambiente interdisciplinar. Assim como a Idade Média da História da humanidade viu
florescer idéias novas, nesta época não foi de total trevas. Nasceram as primeiras
aplicações dos conjuntos nebulosos de Zadeh, nascendo o controle inteligente com
Mamdani. Além disto os sistemas especialistas se firmaram com Shortliffe.

Objetivo: Encontrar para a IA aplicações práticas.

Metodologia e conquistas: Sistemas especialistas. Aplicações principalmente em


laboratórios. Os computadores usados principalmente para aplicações administrativas e
numéricas. Interesse dos fabricantes de computadores de desmistificar a máquina
levando a pouco interesse em IA.

Limitações: Interesses econômicos.

RENASCIMENTO (1981-1987). Começou a corrida para IA. Os resultados


obtidos nas épocas anteriores atingiram o público em geral. Sistemas especialistas se
popularizaram. Primeira conferência internacional de Redes Neuronais marca final do
período. Note-se que redes neuronais evoluiu independente da IA Simbólica.

Objetivo: Renascimento da IA, simbólica e conexionista

Metodologia e conquistas: Popularidade da linguagem Prolog, adotada pelos


japoneses. Crescimento da importância da Lógica. Proliferação de máquinas suportando
ferramentas para IA. Alguns poucos pesquisadores continuaram seus trabalhos em
RNAs, Grossberg, Kohonen, Widrow, Hinton, etc. No final do período, trabalhos de
Hopfield, do grupo PDP, etc., criaram condições para a fase seguinte no que diz respeito
às RNAs.

Limitações: a IAS e a IAC evoluindo separadamente.

ÉPOCA CONTEMPORÂNEA (1987- atual). Logo no início do período Gallant


publica seu célebre artigo sobre sistemas especialistas conexionistas. Foi o ponto de
partida para a união das duas abordagens de IA, tornando a abordagem dirigida
problemas a abordagem atual. É a abordagem adotada neste trabalho.

Objetivo: Alargamento das aplicações das IAs. Uso em tomografia, pesquisas


em campos de petróleo, e bases de dados inteligentes.

Metodologia e conquistas: Redes diretas como aproximador universal. Lógica


nebulosa usada largamente em indústrias para controle inteligente. Sistemas
especialistas se torna tecnologia dominada. Bons resultados em problemas mal definidos
com sistemas usando hibridismo neural-nebuloso. Novo paradigma de programação:
programação conexionista.

Limitações: Quem sabe???

Analisando de um ponto de vista externo, poderíamos dizer que a IA esteve do


seu nascimento até há pouco, em um processo de fechamento e especialização. A velha
vontade de desvendar os mistérios da inteligência foi sendo substituída pela pesquisa de
técnicas específicas. De início, isso foi necessário, uma vez que até a década de 60 havia
um otimismo excessivo agravado pela falta de ferramentas e conhecimentos sobre
cognição. Como efeito colateral, a IA concebeu a maioria de seus cientistas
43

contemporâneos ausentes das discussões epistemológicas e céticos quanto aos sonhos


colocados pelo seu passado. Se o mergulho dado pela IA, na década de 70, nos Sistemas
Especialistas, e na resolução de problemas específicos, teve seu lado positivo (pois
finalmente os conhecimentos adquiridos pela disciplina passavam a ser utilizados em
larga escala na prática), também teve seu lado negativo (desarticulando a IA enquanto
um grande projeto de compreensão da inteligência). Nas palavras de Helder Coelho: “O
colapso dos sonhos utópicos dos anos 60 deu oportunidade aos pragmáticos, os quais
aproveitaram para, no fim da década de 70, afastar imediatamente a disciplina do
trabalho sobre os fundamentos”. Afirma, no entanto, um renascimento: “Mas, na
medida em que se alargou o espectro de complexidade dos novos problemas reais a
resolver, tornou-se imperioso regressar de novo à zona das áreas nucleares da IA”.
[COELHO].

Em 1991, durante uma conferência em Sydney, o professor Marvin Minsky


resolveu ajustar as contas com os divisionistas da IA: “Nos últimos dois anos não houve
uma defesa forte da IA, após os ataques de Penrose, Edelman e Searle, e todo o lixo
conceitual que tem sido jogado cá para fora. Estou zangado e envergonhado de todos
vocês. A disputa que se passa atualmente na IA não é entre agentes cognitivos e
reativos, como pensa Brooks, mas sim em torno da pergunta ‘o que pode uma máquina
fazer?’ [...] Antes de um agente fazer é preciso que ele pense sobre a teoria que o
governa, e isto quer dizer que não devemos ter medo de enfrentar o que um agente não
é capaz de fazer. O velho espírito da IA de aventura, de loucura, de última fronteira, de
alegria, está sendo substituído pela seriedade, chatice e demasiada formalidade. [...]
Os mistérios da mente não serão resolvidos com a rejeição da cognição”. [COELHO].

Nos seus modelos clássicos, a IA Simbólica foi mais longe que a IA


Conexionista, porém logo deparou-se com dificuldades. Ficou claro que não era
possível reproduzir os estados mentais do ser humano através dos seus sistemas
tradicionais. Os modelos baseados na lógica de primeira ordem e as técnicas de busca
heurística21 no espaço de soluções, mostravam-se inviáveis para domínios reais, por que
desencadeavam explosões combinatórias. Além disso a falta de tratamento à informação
incompleta, incerta, e incoerente (comuns na realidade) e a falta de flexibilidade em
geral mostrava que a IA ainda tinha muito o que aprender. [BITTENCOURT].

Durante os anos seguintes muitas técnicas novas surgiram. Quase todas surgiram
com o objetivo de resolver dificuldades práticas que a IA enfrentava. Paralelamente,
contribuíram para a evolução do Paradigma Simbólico e do Paradigma Conexionista, e,
em alguns casos, permitiriam vislumbrar rupturas, ainda que parciais, com relação a
eles. Em 1965, a já citada Lógica Difusa, proposta por Zadeh, foi o primeiro método
para escapar da inflexibilidade do verdadeiro ou falso. Em 1975 Holland propôs os
algoritmos genéticos e Barto (retomando uma idéia de von Neumann) os autômatos
celulares, dando início ao que alguns chamam de IA Evolutiva. Em 1976 Shortliffe
divulga o MYCIN, um dos mais famosos sistemas especialistas baseado em regras. Em
1982 Hopfield propõe o algoritmo de Backpropagation, recuperando a credibilidade do
modelo conexionista. Na década de 80, surge o projeto quinta geração, difunde-se o uso
de métodos de raciocínio probabilísticos, raciocínio indutivo e raciocínio por analogia.
Em 1987 Chapman propôs modelos para o planejamento e para o improviso. Por fim, a

21 Heurística, do grego, heuristikein, que significa encontrar, descobrir. As heurísticas, nos


sistemas simbólicos, permitem discernir, no conjunto de derivações possíveis, aqueles que têm
maiores probabilidades de sucesso. [GANASCIA].
44

década de 90 foi marcada pelo surgimento de uma série de modelos híbridos, utilizando
elementos dos diversos discursos da IA. [COELHO], [BITTENCOURT], [BARRETO].

Durante a década de 70, dois trabalhos destacaram-se pela sua importância, o de


Winograd, em torno do programa SHRDLU, que conversava com um robô num
ambiente do mundo dos blocos e o de Shank, na compreensão de histórias de crianças,
ambos tratando de incorporar informação semântica na análise sintática de frases.

Terminemos este capítulo falando do ELIZA, construído por Joseph


Weizenbaum. ELIZA é um programa muito interessante que simula o papel de um
psicólogo numa conversa via computador entre psicólogo e paciente. Seu poder estava
centrado num conjunto de regras bem elaboradas, que conseguia extrair palavras da
frase digitada pelo usuário e rebatê-las estrategicamente em forma de pergunta. O
próprio Weizenbaum sabia que não havia nada de extraordinário em seu programa (era
um belo truque), o computador não compreendia a conversa, apenas propiciava um
ambiente e respostas coerentes para que o usuário percebesse-a assim. A imensa
repercussão que o programa teve entre a comunidade psicológica como “uma nova
ferramenta para a psiquiatria” assustou-o. Em 1976 escreveria o livro “Computer Power
and Human Reazon”, sendo o primeiro a questionar seriamente a IA do ponto de vista
moral. [McCORDUCK].
45

5. Paradigmas da IA

Outros trabalhos já propuseram definições para o campo da Inteligência


Artificial, identificando seus paradigmas. Helder Coelho fez um trabalho muito
interessante nesse sentido. Segundo percebe, a discussão na IA tem se caracterizado
pela busca de argumentos a favor ou contra uma dada hipótese, muitas vezes traduzidos
em forma de artefatos. As metáforas e o recurso a máximas tem ajudado a focar novas
linhas de investigação em terrenos férteis à especulação e divagação. Umberto Eco 22 fez
uma referência à IA como sendo um “espelho do espírito”, mediado pelo computador.
Mas não seria um espelho plano. Ao contrário, curvo e distorcido pelos desejos, sonhos
e antevisões do mundo daqueles que o interpretam. [COELHO].

5.1. IA Simbólica

Helder Coelho fala inicialmente do paradigma clássico, do Modelo de


Processamento da Informação, podendo também ser chamado de IA Simbólica. Baseia-
se em dois princípios, propostos por Herbert Simon e Allen Newell: em primeiro lugar,
“as restrições computacionais no pensamento humano levam as pessoas a ficar
satisfeitas com soluções suficientemente boas” (justificação para as heurísticas), e que
“um sistema físico de símbolos é necessário e suficiente para a ação inteligente”.
Dentro desse paradigma há uma cisão, daqueles que dão ênfase ao conhecimento, e dos
que dão ênfase à lógica. [COELHO].

Edward Feigenbaum (que foi aluno de Simon) é dos que dão ênfase ao
conhecimento. A idéia pode ser expressa em dois princípios complementares: “a
procura compensa a falta de conhecimento”, e “o conhecimento elimina a necessidade
da procura”. Feigenbaum foi um entusiasta dos Sistemas Especialistas23, defendendo o
estudo dos modelos de engenharia do conhecimento em detrimento dos sistemas
formais e das lógicas. Para ele, é o conhecimento que ajuda a restringir o crescimento
exponencial na procura de uma solução. Em conjunto com Douglas Lenat, fundou o
projeto CYC, em 1983, com o objetivo de montar uma base do conhecimento
semelhante ao senso comum. É um conhecimento enciclopédico que está sendo possível
pelo estudo de processos de aquisição do conhecimento e modelos de representação
mais flexíveis. [COELHO].

Jaime Carbonell, em 1981, pensando na interpretação que um agente inteligente


faz, numa conversa, definiu o Princípio da Compreensão Subjetiva: “As regras da
conversa restringem o processo de inferência na geração e compreensão de frases
conversacionais. A interpretação subjetiva das frases e os objetivos conversacionais de
ambos os participantes estreitam ainda mais a focagem do processo de inferência”.
[COELHO]

22 Umberto Eco, um dos consagrado intelectual contemporâneo, é professor de Semiologia na


Universidade de Bolonha.

23 Feigenbaum participou da construção do famoso sistema DENDRAL, precursor dos


ajudantes inteligentes que viriam a se chamar de Sistemas Especialistas. [McCORDUCK].
46

McCarthy é do grupo dos lógicos, e crê que o comportamento inteligente


apresentado pelo ser humano deve-se muito mais aos métodos de raciocínio que usa
para fazer suas escolhas do que necessariamente do conhecimento que acumula. Em
1972, Winograd propôs sua teoria do significado, onde diz que o significado de uma
frase é descrito através de sua estrutura simbólica (por exemplo, uma fórmula lógica) e
o seu valor é determinado pelos modelos (interpretações) que lhe conferem a
veracidade. Nils Nilsson também defende o uso da lógica para representar o
conhecimento. Segundo ele a vantagem é que o conhecimento pode, assim, ser visto de
forma declarativa (proposições lógicas), e ao mesmo tempo procedimental (deduções
para derivar conseqüências). [COELHO].

As idéias de Boole inspiraram a escola de programação em lógica. Lewis Carrol


mostrou como a lógica pode levar a humor por encerrar raciocínios pouco usuais,
podendo ser considerado um precursor (mesmo sem que soubesse) para o uso da
imprecisão em IA. [BARRETO]. Leibniz (primeiro grande propositor de uma notação
lógica universal e de um cálculo simbólico) escrevia em 1678 que “é preciso pedir aos
símbolos que se envolvam com a investigação e que isso só acontece quando eles
exprimem de maneira concisa a natureza íntima das coisas, captando
maravilhosamente o esforço do pensamento”. Mas sem os trabalhos de Boole (leis do
pensamento e álgebra lógica), Frege (lógica de primeira ordem ou cálculo de
predicados), Hilbert (segurança dos instrumentos lógicos, através da introdução de
consistência de uma prova), Gentzen (noção de cláusula lógica), Whitehead e Russell,
Gödel (completude da lógica de primeira ordem), Traski (formalização da semântica da
lógica de primeira ordem, noções de modelo e relação de denotação) e Church
(indecidibilidade do valor de verdade de uma cláusula lógica), não teria sido possível
chegar ao princípio de resolução de Robinson, em 1965, pedra angular da escola de
programação em lógica (à custa das relações) e da linguagem de programação
PROLOG. [COELHO].

Em 1969, McCarthy e seu colega P. J. Hayes publicaram “Alguns problemas


filosóficos do ponto de vista da IA”. Apesar de admitirem as deficiências das teorias
comportamentalistas da inteligência, acabam aceitando o princípio de que “uma
máquina é inteligente se ela é capaz de solucionar uma classe de problemas que
requerem inteligência para serem solucionados por seres humanos”. Nesses termos, um
programa inteligente deve ter uma representação geral do mundo, e “deve decidir o que
fazer por inferir que uma determinada estratégia o levará a atingir seus objetivos”.
[McCARTHY].

McCarthy divide o problema da IA em duas partes. A parte epistemológica trata


das formas de representação do conhecimento, de tal forma que a solução dos
problemas segue logicamente dos fatos expressados na representação. A parte
heurística é relativa ao mecanismo que, com base na informação, resolve o problema e
decide o que fazer. O artigo é dedicado à parte epistemológica e descreve um
formalismo lógico proposicional aprimorado para representar o universo. Comporta
situações (estados do mundo representado), causalidades (seqüências de situações),
ações (meios pelos quais se modificam as situações) e estratégias (seqüência de ações),
operadas através de mecanismos de raciocínio não-monotônicos24. O tema ainda seria

24 Um sistema tradicional, baseado na lógica de predicados é dito monotônico porque, ainda


que possam ser incluídas novas declarações ao sistema, todas as declarações anteriores
devem continuar verdadeiras. Porém esse tipo de raciocínio não comporta situações onde haja
47

retomado por McCarthy em 1977, num artigo intitulado “Problemas Epistemológicos


da Inteligência Artificial”, onde confirma-se que, para McCarthy, a inteligência é
racionalidade, é ponderação consciente. [McCARTHY], [ROCHA COSTA c].

O edifício construído por Newell e Simon está ligado ao princípio da


racionalidade, ou seja, que a inteligência caracteriza-se pela escolha racional de uma
ação, entre muitas opções, que maximize a possibilidade de atingir um objetivo. Pregam
também a necessidade de entender as estruturas de alto nível da cognição humana,
baseando-se em mecanismos explícitos, como a representação do conhecimento, a
lógica e as regras de inferência. Essas idéias estão fundamentadas em alguns artigos que
ambos escreveram.

De acordo com a teoria do conhecimento proposta por Newell em “Sistemas


Físicos de Símbolos” (1980), a mente poderia ser reduzida funcionalmente a um
conjunto de restrições, entre as quais encontram-se operação em tempo real,
racionalidade (capacidade de encontrar e utilizar os meios para alcançar os objetivos),
autoconsciência (diferenciar a representação de si da representação das outras coisas),
uso de símbolos (representação), aprendizado e universalidade (capacidade de poder
produzir qualquer função de saída, considerando o ambiente externo como entrada).
Newell define também o conceito de sistema físico de símbolos, como sendo a classe
dos sistemas que possuem duas daquelas características: a universalidade e o uso de
símbolos. Sua hipótese é de que qualquer sistema físico que manipule símbolos é capaz
de apresentar comportamento inteligente, estando nessa categoria tanto o cérebro quanto
o computador. [ROCHA COSTA c].

Nas palavras de Newell e Simon, num outro artigo publicado em 1976, podemos
entender o que querem dizer por sistema físico de símbolos: “O sistema físico de
símbolos consiste em um conjunto de entidades, denominadas símbolos, que são
padrões físicos e que podem ocorrer como componentes de outro tipo de entidade
denominada expressão (ou estrutura de símbolos). Dessa forma, a estrutura de
símbolos é composta de diversos casos (ou fichas) de símbolos relacionados de alguma
forma física (como por exemplo, uma ficha estar junto a outra). A qualquer instante, o
sistema conterá uma coleção dessas estruturas de símbolos, Além dessas estruturas, o
sistema também contém uma coleção de processos que operam sobre as expressões
para produzir outras expressões: processos de criação, modificação, reprodução e
destruição. O sistema simbólico físico é uma máquina que produz através do tempo
uma coleção evolutiva de estruturas de símbolos, tal sistema existe em um mundo de
objetos mais amplos do que as próprias expressões simbólicas”. Daí surgirá a hipótese
de que “um sistema físico de símbolos possui os meios necessários e suficientes para a
ação inteligente geral”. [RICH].

O artigo de 1982, “O Nível do Conhecimento”, foi uma tentativa de Newell de


tornar claros os conceitos de “conhecimento” e “representação”. Propõe que
compreendamos os agentes inteligentes através de níveis de abstração. Estes níveis
devem poder ser definidos autonomamente, e ao mesmo tempo devem poder ser
completamente descritos no termos do seu nível inferior. Ao referir-se ao computador,
identifica diversos níveis: o nível físico (mais baixo), o nível de circuitos (da elétrica), o

informação incompleta ou imprecisa, onde haja mudança de crenças e necessidade de fazer


suposições, coisas que aparecem na maioria dos domínios reais. As lógicas não-monotônicas
incluem mecanismos específicos para generalização e indução e uso de imprecisão. [RICH].
48

nível lógico (dos bits) e o nível simbólico (das expressões). A proposta de Newell é que
se perceba mais um nível acima desses todos, o nível do conhecimento.

Uma estrutura de dados, com todos os seus operadores é um sistema de


símbolos, e pode servir para fazer a representação (nível simbólico), mas só torna-se
conhecimento (nível do conhecimento) quando se lhe aplica uma interpretação especial,
dada pelo princípio da racionalidade. O conhecimento torna-se, assim, distinto de suas
possíveis representações, transformando-se numa entidade independente, composta por
crenças, objetivos, planos, intenções e ações, conectados por tal princípio. O
conhecimento fica caracterizado apenas funcionalmente, e não estruturalmente.
[NEWELL].

No artigo ainda há uma idéia que poderíamos chamar de intersubjetividade


entre agentes conhecedores, na medida em que um agente observador (que é um sistema
de conhecimento) pode tratar um agente observado como outro sistema de
conhecimento (supondo-o orientado pelo princípio da racionalidade) e tentar prever suas
ações e objetivos. Newell acena com a possibilidade de compreender o comportamento
de um agente sem que tenhamos seu modelo operacional do processamento que
efetivamente está sendo realizado. [NEWELL], [ROCHA COSTA c].

5.2. IA Conexionista

A IA Conexionista é a posição que está do outro lado do campo dos discursos.


Aposta que a inteligência emerge da organização complexa de estruturas relativamente
simples, como os neurônios. O desafio da IA, nessa perspectiva, é conseguir dar
condições à essa emergência através de certas estruturas computacionais. Seu modelo
fundamental é a Rede Neuronal. [BARRETO]. Helder Coelho também chama este
modelo de IA Fisiológica, uma vez que busca fundamentos na neurofisiologia, em
oposição à IA Psicológica, baseada em escolas da psicologia. [COELHO].

A neurofisiologia ensina que o sistema nervoso está organizado por grupos e


subgrupos de neurônios interconectados. São cerca de 150 bilhões de neurônios com
cerca de 1.000 a 10.000 conexões por neurônio. O sistema nervoso recebe centenas de
informações dos diferentes sensores. Ele combina essas informações com informações
armazenadas, obtidas pela hereditariedade ou pelos mecanismos de aprendizado para
produzir respostas. O funcionamento eletroquímico do neurônio permite modelagens
matemáticas, tendo a primeira sido proposta por McCulloch e Pitts em 1943. A teoria
que envolve as redes neuronais artificiais se desenvolveu bastante, desde então,
possibilitando um aumentando da complexidade dos padrões de conectividade, dos
métodos de propagação, dos estados de excitação dos neurônios, das topologias das
redes (redes com ciclos, redes recorrentes de Hopfield) e tornando o modelo mais
poderoso e versátil. Seja como for, as redes neuronais, ainda que atentas às novas
descobertas da neurofisiologia, são uma técnica independente, apenas inspirada no
próprio cérebro. [BARRETO].
49

5.3. Novos Paradigmas

Helder Coelho chama um novo paradigma emergente de IA Organizacional,


ligado às idéias de Marvin Minsky. Em 1975, foi publicado o artigo “Uma Estrutura de
Trabalho para a Representação do Conhecimento”, onde propôs o uso de “frames”
(“armações”). O artigo não é muito formal e bastante especulativo, uma vez que
Minsky tentava indicar um caminho. A essência da teoria proposta é a seguinte: quando
alguém encontra uma nova situação, ou faz uma mudança substancial de ponto de vista
sobre um problema, um frame é ativado. O frame é uma estrutura de dados para a
representação de uma situação estereotipada, que tenta enquadrar-se à realidade através
da modificação de detalhes necessários. Ele armazena informações sobre como ser
utilizado, sobre o que é esperado da situação, e o que fazer se as expectativas falharem.
Os “níveis superiores” de um frame são fixos, já os níveis mais baixos devem ser
preenchidos pelas instâncias específicas da situação. Um frame pode referenciar outro
frame, formando sistemas de frames. [ROCHA COSTA c].

Ainda que não muito intensamente, Minsky, desde aí, mostra-se preocupado
com a viabilidade da inteligência artificial comparada com as propostas da filosofia
(fenomenologia) e da psicologia (epistemologia psicogenética), tendo inspirado-se
também em outros modelos mais simples que já surgiam no próprio campo da IA. A
teoria dos frames inclui metas, expectativas e pressuposições, generalizações e
analogias. Os terminais dos frames estão normalmente preenchidos com valores padrão,
que tratam as informações incompletas, servindo como técnica para superar a lógica, e
as interconexões entre frames ajudam a encontrar o frame mais adequado para uma dada
situação. Diversos frames podem encaixar-se a uma mesma situação, o que significa que
o sistema possui pontos de vista diferenciados que pode adotar. Em 1977, Roger Shank
irá propor o uso de “scripts”, estruturas semelhantes aos frames, para fazer sistemas de
compreensão de linguagem natural. [ROCHA COSTA c].

Já havíamos comentado linha de posicionamento, em que de um lado estão os


pesquisadores que atribuem papel fundamenta à lógica na representação do
conhecimento, e de outro os que a consideram secundária, ou até acham-na limitante
para a representação. Minsky estaria mais próximo dessa segunda postura. Nilsson, no
seu livro “Princípios da Inteligência Artificial” (1982), faria um trabalho no sentido de
mostrar que os frames poderiam ser representados através da lógica formal. Talvez
Minsky não duvidasse disso, porém seu desconforto com os sistemas lógicos
relacionava-se com o fato de que certas situações só se podia tratar de maneira muito
complexa, enquanto outros modelos poderiam aproximar-se mais com a maneira
humana de tratar os problemas. Sua obra mais importante, no entanto, seria publicada
apenas em 1985, “A Sociedade da Mente”. No capítulo intitulado “Exceções para a
Lógica”, esse tema é retomado: “Passamos nossas vidas aprendendo coisas, contudo
estamos sempre nos deparando com exceções e erros. A certeza parece estar sempre
fora de alcance. Isto significa que temos que correr alguns riscos para não sermos
paralisados pela covardia. [...] buscamos ‘ilhas de consistência’ dentro das quais o
raciocínio comum pareça seguro. [...] por que não podemos fazer isso de modo lógico?
A resposta é que raramente a lógica perfeita funciona [no mundo real]. Uma
dificuldade é encontrar regras infalíveis para se raciocinar. [...] quando lhe dizer
‘Rover é um cão’, você suporá que Rover tem um rabo; porém se ficar sabendo que
Rover particularmente não tem um rabo, sua mente não se autodestruirá; ao contrário,
você modificará sua ‘armação-Rover’, mas ainda esperará que muitos outros cães
50

tenham rabo. [...] As exceções são um fato da vida porque poucos ‘fatos’ são sempre
verdadeiros”. [MINSKY].

Mas nesse livro, Marvin Minsky propõe toda uma nova teoria da mente. Para
ele, o cérebro pode ser visto como um conjunto de agentes (cerca de 300 microteorias)
sendo que metade do sistema nervoso central é composto à custa de agentes gestores. É
justamente uma sociedade de agentes cognitivos na mente, sendo que essas se
relacionariam através de transações, de acordo com disponibilidades e necessidades,
reorganizando prioridades. Nas primeiras frases do prólogo, explica: “Chamarei de
Sociedade da Mente este esquema, no qual cada mente é feita de vários processos
menores. Estes denominaremos ‘agentes’. Cada agente mental sozinho só pode fazer
alguma coisa simples que não necessite, de modo algum, de nenhuma mente ou
pensamento. Contudo ao agruparmos esses agentes em sociedades – de determinadas
maneiras muito especiais – acabamos nos deparando com a verdadeira inteligência”. E
segue: “As mentes são simplesmente aquilo que os cérebros fazem. [...] As mentes
parecem estar separadas da existência física de modo muito natural. Não importa o que
os agentes são; só importa o que fazem e a que estão ligados. [...] As mentes não são
coisas, estando fora do alcance dos sentidos, no entanto estão ligadas a coisas
chamadas cérebros. [...] Será que todos os outros tipos de processos possuem um tipo
correspondente de mente? Isso poderia conduzir a um debate. Um lado poderia insistir
que é só uma questão de grau, porque as pessoas possuem mentes bem desenvolvidas
enquanto os tijolos e as pedras não possuem quase nenhuma. Um outro lado poderia
tentar delinear um limite mais acentuado, argumentando que apenas as pessoas podem
ter mentes, e talvez certos animais. Que lado está certo? Não se trata de uma questão
de certo e errado, pois o debate não é sobre um fato, mas tão-somente quando é sensato
usar uma certa palavra. [Seja como for], a diferença reside no fato de que os cérebros
usam processo que modificam a si próprios”.

Uma vez estabelecida a teoria, Minsky passa a responder uma série de questões
que darão sustentação a seu modelo: Como trabalham os agentes? De que são feitos, De
que modo se comunicam? De onde vieram os primeiros agentes? Nascemos todos nós
com os mesmos agentes? Como criamos novos agentes e modificamos os antigos?
Quais são os mais importantes tipos de agentes? O que acontecem quando os agentes
discordam? Como é possível essas redes necessitarem ou desejarem? Como grupos de
agentes podem fazer aquilo que os agentes sozinhos não conseguem? O que lhes dá
unidade ou personalidade? Como eles podem compreender? Como podem ter
sentimentos ou emoções? Como podem ser conscientes ou conhecedores de si mesmos?
[MINSKY].

Relacionado ao modelo de Minsky, porém mais geral, desenvolveu-se na IA


outro paradigma, chamado de IA Distribuída, que trabalha com Solução Distribuída de
Problemas e com Sistemas Multi-Agentes. A idéia principal é que não é preciso
centralizar a resolução do problema, ele pode ser resolvido a partir da resolução de
subproblemas individualmente e mesmo sem um controle centralizado. Essa escola
recorre, para tanto, a algumas idéias provenientes da Sociologia, para implementar
métodos de cooperação entre agentes, comunicação, divisão das tarefas ou até
competição. A seguinte definição de agente proposta em 1991 por Ferber e Gasser é
bem aceita pela comunidade de IA: “Chama-se agente uma entidade real ou abstrata
que é capaz de agir sobre ela mesma e sobre seu ambiente, que dispõe de uma
representação parcial deste ambiente, que, em um universo multi-agente, pode
51

comunicar-se com outros agentes, e cujo comportamento é autodeterminado, de acordo


com suas observações, seu conhecimento e suas interações com os outros agentes.”
[BITTENCOURT].

Importante destacar uma das faces da IA Distribuída, representada por Rodney


Brooks. É obra sua a famosa experiência com pequenos robôs, como agentes reativos.
Seus robôs estavam programados com um conjunto de regras, e uma prioridade de
aplicação dessas regras (hierarquia de subsunção). Os robôs coordenavam-se e
resolviam um determinado problema (por exemplo: juntar uma série de latas espalhadas
numa sala e colocarem-nas em um canto). A experiência em si, além de ser visualmente
interessante, mostrava que não era preciso cognição para que houvesse aquele
comportamento inteligente. Os robôs não memorizavam nenhum aspecto do ambiente,
já estavam pré-programados, no entanto, adaptavam-se a diversas situações, embora
essa adaptação fosse limitada ( no exemplo, os robôs sempre conseguiam juntar as latas
mesmo que sua disposição na sala mudasse, porém, se alguém colocasse o robô de
cabeça para baixo, ele nada poderia fazer).

Jorge Muniz Barreto ainda destaca uma outra corrente de pensamento mais
recente, chamada IA Evolutiva, inspirada na Biologia, mais especificamente na teoria da
diferenciação pelos mecanismos de seleção natural. Apesar de já ter sido referida em
1960 por Lawrence Fogel, como Programação Evolucionária, a IA Evolutiva tem como
sua principal ferramenta os Algoritmos Genéticos, propostos inicialmente por J. H.
Holland em 1975. Tais algoritmos mostraram-se muito interessantes para resolver certos
problemas de otimização. Eles modelam uma população de objetos abstratos. Esses
objetos são manipulados a partir de operadores inspirados na evolução biológica
(operadores genéticos), como recombinação e mutação, e as soluções vão
“sobrevivendo” de acordo com a seleção. [BARRETO].

No meio da década de 80, os temas da adaptação, da otimização e da autonomia,


no contexto das interações entre os membros de uma população, tornaram-se atraentes.
A Escola tradicional da IA da Cognição Simbólica, apoiada nas idéias da computação e
representação, sofria um novo desafio, também inspirado na Biologia. As fronteiras da
IA eram redesenhadas para dar lugar à escola da Vida Artificial, abrindo-se ainda mais
as perspectivas sobre inteligência e cognição, que deixaram de ser estudadas em
ambientes fechados e sobre agentes isolados. A Vida Artificial passou a ser associada ao
estudo dos sistemas feitos pelo homem (artificiais) que exibem comportamentos
característicos dos sistemas vivos naturais. É muito controverso dizer que A Vida
Artificial é um Paradigma da IA, uma vez que estudam classes de problemas um pouco
diferentes e métodos também um pouco diferentes, mas em todo caso, a IA teve que
abrir-se para incorporar a vida como um sistema dinâmico, que através de certos
mecanismos se autoorganiza, interage com o ambiente, se desenvolve e se adapta. A
inteligência nessa escola ganha uma nova definição, sendo a classe de comportamentos
adaptativos, enraizados nas capacidades de coordenação das percepções com as ações,
de modo a assegurar a sobrevivência em ambientes, na maioria das vezes, hostis,
incertos e impiedosos. Aeron Sloman, outro importante pesquisador da IA, defende que
a Inteligência Artificial e a Vida Artificial se aceitam mutuamente, apresentando
diferenças no enfoque e no nível de descrição. A Vida Artificial trabalha com a
simulação de animais ou organismos, seja através de sua implementação física
(animats), seja através de ambientes artificiais no computador. [COELHO]
52

Existe ainda um novo modelo emergindo. Talvez seja o mais subversivo de


todos para a IA Clássica e baseia-se nas teorias de Humberto Maturana, de que a
representação é um erro. A inteligência não depende de representações explícitas da
realidade. Poderíamos chamar de IA Anti-Representacionista. Mas tenho pouco a falar
sobre ela.

5.4. IA Construtivista

De todos os novos paradigmas, gostaria de fazer uma referência especial ao que


tem-se chamado de IA Construtivista. Esse novo paradigma é descrito pelo pesquisador
brasileiro Antônio Carlos da Rocha Costa em uma série de trabalhos desde a década de
80. O primeiro que vamos trabalhar foi publicado como relatório de pesquisa na
Universidade Federal do Rio Grande do Sul, e é intitulado “Para uma Revisão
Epistemológica da Inteligência Artificial”. Rocha Costa inicia comentando o quanto a
IA Tradicional tem um enfoque reducionista, convergente com a filosofia do
empirismo, que vê o conhecimento como um conjunto de “representações internas”,
resultantes da organização de representações elementares adquiridas através do contato
com o mundo, e que vê o pensamento como o resultado da manipulação dessas
representações internas. Embora compatibilizando o comportamento inteligente com a
ausência de “sensibilidade” nas máquinas, Newell e Simon admitem a inteligência e o
conhecimento constituído sobre “símbolos”, e não diretamente sobre sensações como na
versão clássica do empirismo. [ROCHA COSTA a]

Rocha Costa segue com a crítica: “Também característico da orientação


dominante na IA é a recusa em reconhecer à Psicologia a posse dos recursos
metodológicos próprios, suficientes para produzir explicações adequadas dos
mecanismos de inteligência, postulando que ela dependeria de resultados da Ciência da
Computação para produzir tais explicações. Em oposição a essa orientação dominante,
o presente projeto reconhece na Psicologia a ciência por excelência dos
comportamentos inteligentes e dela toma emprestada a teoria da inteligência
desenvolvida por Jean Piaget, que passa a usar como teoria de referência da pesquisa
a ser realizada. [...] Piaget viu na inteligência a etapa final do processo de adaptação
do ser vivo ao seu ambiente, adaptação que, no caso do ser humano, se faz em relação
a todo o universo do possível, além da realidade imediatamente perceptível e
manipulável. Piaget compreendeu a inteligência como o resultado de uma construção.
[...] vai além de uma adaptação orgânica ao ambiente, atingindo o nível cognitivo, das
ações interiorizadas que constituem o pensamento”. [ROCHA COSTA a].

Piaget propôs uma Lógica Operatória, resultado de suas experiências e de suas


teorias psicológicas. Pesquisar as aplicações da lógica operatória à inteligência artificial
significa, por um lado, mostrar que ela é capaz de descrever corretamente
procedimentos e sistemas clássicos da área. Por outro lado, significa levantar problemas
que nem a lógica convencional, nem uma lógica “ad hoc” conseguiram resolver
satisfatoriamente, e resolvê-los através da lógica operatória. Rocha Costa propõe então
que se faça uma análise epistemológica da IA, confrontando os paradigmas com as
escolas da psicologia. Pergunta-se onde terminaria a Psicologia e começaria a
Inteligência Artificial, e que contribuições uma pode proporcionar para a outra.
[ROCHA COSTA a]. No mesmo ano de 1986 publicaria, então, “Sobre os Fundamentos
53

da Inteligência Artificial”, onde concretizaria a proposta, apontando dois caminhos


através dos quais a Psicologia subsidiou a formação inicial da IA: através de uma antiga
escola alemã, a escola da Psicologia do Pensamento, e através da Psicologia
Comportamentalista. [ROCHA COSTA b].

A escola iniciada por W. Wundt, depois chamada Psicologia do Pensamento,


tem como principal contribuição para a IA, a noção de representação, nos termos
wundtianos, os “conteúdos da mente”. Na sua idéia, a representação mental seria uma
estrutura formada pela associação de sensações elementares (por exemplo, perceber
uma folha de papel em branco é perceber a brancura, a forma retangular, etc.). O
Estruturalismo de Wundt era Associacionista, seu objeto de estudo era a representação
mental, mas considerada no âmbito da experiência imediata. Forma seus sucessores, da
escola da Psicologia do Pensamento, que trataram de definir o pensamento como sendo
uma sucessão de transformações dessas representações mentais. Derivado diretamente
desses resultados, O. Selz estabeleceu, em 1922, o que seria posteriormente o ponto de
contato efetivo dessa tradição psicológica com a IA: a noção de que, em situações de
resolução de problemas, o pensamento não procede pela aplicação de operações
isoladas, mas por combinações de esquemas, isto é, seqüências parciais de operações,
preestabelecidas em função da vivência e da experiência com problemas semelhantes.
[ROCHA COSTA b].

Porém a IA recebeu uma forte herança conceitual da escola americana de J.


Watson, chamada Behaviorismo, ou Comportamentalismo. Watson, no início do século
XX, queria instaurar a objetividade na Psicologia, para tanto restringiu-a ao estudo dos
fatos observáveis, recusando a construção de modelos explicativos da subjetividade,
uma vez que esta é inacessível. Apenas o comportamento, ou seja, o aparência externa,
seria considerado. Esses princípios levaria os comportamentalistas a trocarem os seres
humanos por animais, para que pudessem observá-los em laboratório, sob um controle
mais rigoroso. Essa idéia não era nova, derivando mesmo do trabalho de Charles
Darwin. Ao estabelecer uma continuidade biológica entre o homem e o animal, em seu
livro “A Origem da Espécies”, publicado em 1859. Em 1882 G. Romanes, um amigo de
Darwin, publicou o livro “Inteligência Animal”, criando o termo “psicologia
comparada” e formulou a necessidade de buscar uma continuidade psicológica.

Os famosos experimentos de aprendizagem com um rato em um labirinto


iniciaram ainda no final do século XIX, com E. L. Thorndike. Trata-se de tentar mostrar
que o rato, após sucessivas tentativas, aprende o caminho certo em um labirinto.
Procede-se do seguinte modo: coloca-se um rato faminto em um ponto do labirinto, a
fim de motivá-lo a procurar a comida colocada em outro ponto. Nos primeiros
experimentos, o rato percorre o labirinto de forma errática, alcançando o ponto C por
puro acaso. Repetindo-se a experiência um número suficiente de vezes, nota-se que o
comportamento do rato passa a ser orientado, indo direto à comida sem muitas
hesitações. A característica behaviorista reside na explicação. Como não cabe ao
pesquisador imaginar os processo internos de cognição do rato, faz-se uma explicação
baseada em estímulos e respostas.

A explicação behaviorista acaba sendo pobre, consistindo em supor que, dado


um “impulso” de procurar comida, o rato executa uma seqüência de ações, cada qual
sendo determinada pela situação em que ele se encontra dentro do labirinto naquele
momento. A situação é o estímulo, a ação é a resposta. A descrição behaviorista do
54

comportamento, constitui-se em pares de estímulo e resposta, e a aprendizagem é a


associação que o ratinho faz entre eles (Por exemplo: “posição 1 = direita ; posição 2 =
para frente ; etc.). [ROCHA COSTA b].

O behaviorismo “ortodoxo” seria criticado em suas limitações, e a IA também


faria suas críticas, principalmente por acreditar na necessidade de tratar as
representações internas do pensamento, ainda que aceite a idéia de que a inteligência se
define na observação do comportamento. Nessa perspectiva, o trabalho dos Psicólogos
O. K. Moore e S. Anderson, sobre resolução de problemas foram importantes. Seus
experimentos consistiam em pedir a uma pessoa para resolver determinado problema,
porém pensando em voz alta, para que o psicólogo pudesse perceber as operações que
estava usando em cada momento, os erros, as correções, as tentativas. Cada um desses
processos particulares formava um “protocolo”. Um dos experimentos era o seguinte:
colocava-se uma pessoa que havia sido treinada no uso de doze regras de derivação do
Cálculo Proposicional (Modus Ponens, De Morgan, Adição, Implicação, etc.), era
colocado em uma sala em penumbra, em que, na parede, era projetado um quadro onde
havia um conjunto de premissas e uma conclusão. O sujeito, usando as regras, deveria
tentar derivar a conclusão a partir das premissas ou de proposições que ele mesmo
tivesse derivado. Percebe-se o quanto essa idéia ainda era behaviorista e considerando o
modelo estímulo-resposta.

Moore e Anderson haviam proposto, nas suas palavras: “Uma técnica


experimental para o estudo da resolução de problemas de nível mais alto [...] usando o
mais sutil e barato dos materiais: os símbolos”. Newell e Simon, no seu projeto GPS
(General Problem Solver) passaram a utilizar esses “protocolos”, a fim de compreender
as técnicas de resolução de problemas usadas pelos seres humanos. Newell disse: “Logo
que começamos a utilizar os protocolos, vimos que eram incrivelmente interessantes.
Capturavam todo um conjunto de processos que estavam acontecendo”. Apesar de
cuidadosos, acreditavam que a psicologia deveria tomar o modelo de processamento da
informação como uma maneira útil de explicar e entender o comportamento humano. A
partir dos resultados apresentados durante os anos de construção do GPS, Newell e
Simon acharam adequado adotar o modelo de Regras de Produção (do tipo “se...
então...”) para descrever os processos mentais. [ROCHA COSTA b], [McCORDUCK].

A Psicologia do Processamento da Informação nasce ao lado da IA,


considerando a mente como um sistema simbólico que incorpora processos de
transformação da informação, tendo se mostrado viável em domínios fechados, como
por exemplo a resolução de problemas logicamente estruturados. Essa “escola” que
então surgia, também trazia uma novidade: livrou-se da limitação de ter de reduzir os
processos mentais à processos fisiológicos observáveis. Postulando a existência de um
nível especificamente psicológico, constituído de elementos armazenadores e
transformadores de informação (processamento de informações), na estrutura do sujeito.
A questão de como esse nível é realizado fica a cargo da neurofisiologia, que deve
decidir se esse nível é diretamente abstraível do nível cerebral, ou se é preciso postular
outros níveis intermediários. Resultado disso foi a crença de que o mecanismo
computacional subjacente às linguagens lógicas e às heurísticas era um modelo
aceitável do mecanismo cognitivo dos seres humanos, porém o tempo demonstrou que,
na campo da psicologia, o modelo do processamento da informação não foi muito
fecundo. [ROCHA COSTA b].
55

Considera três discursos que tem, até então, fundamentado a Inteligência


Artificial, cada um deles implicando diferentes preocupações de pesquisa e mesmo
pressupondo diferentes conceitos do que seja “inteligência de máquina”. Os três modos
são o comportamental, o estrutural e o funcional. [ROCHA COSTA b]

O modo comportamentalista caracteriza-se pelo pressuposto de que a


inteligência de um sistema só é observável com objetividade quando ele está entregue a
uma tarefa específica, e se define pela direção que ele dá a suas ações. Além disso, esse
ideal comportamentalista evita considerar qualquer tipo de mecanismo intrínseco em
uma máquina, que possa ser apontada como sua inteligência. É declaradamente uma
concepção da IA como uma simulação da inteligência humana, e é derivado das idéias
de Newell e Simon. O próprio Teste de Turing enquadra-se nessa categoria, uma vez
que apenas avalia o comportamento da máquina numa dada situação para considerá-la
inteligente. [ROCHA COSTA b].

O modo estruturalista, também está voltado à idéia de simulação da inteligência,


porém considera que a inteligência surge a partir de estruturas específicas. Coloca como
tarefa para a IA, então, descobrir que tipos de estruturas dão suporte ao comportamento
inteligente, e implementá-las. Há duas linhas de atuação que trabalham nessa
perspectiva. A primeira delas é a dos conexionistas, supondo que a melhor maneira de
explicar o comportamento inteligente do ser humano é através da organização neuronal
do sistemas nervoso. A outra linha não se fundamenta em “estruturas fisiológicas”, mas
em “estruturas lógicas” e está vinculada a McCarthy. [ROCHA COSTA b].

O modo funcionalista vai considerar o modo como um sistema interage com o


meio em que está inserido. Diz respeito às funções que o sistema desempenha para o
ambiente, e às funções que os elementos do ambiente desempenham para o sistema.
Refere-se, em suma, ao que pode ser chamado de “trocas funcionais” entre o sistema e o
ambiente. Toda máquina é construída para uma finalidade, e desse ponto de vista, ela é
tanto mais inteligente quanto melhor atingir, através de suas ações, esses objetivos.
Assim, o enfoque funcionalista deixa de ver a inteligência como algo estrangeiro à
máquina, como algo modelado pela inteligência humana, mas sim, no aprimoramento
que a máquina pode fazer em suas próprias estruturas de interação funcional [ROCHA
COSTA b].

Rocha Costa estava preparando o terreno para dar um passo decisivo: a busca
por uma inteligência artificial fundamentada na Epistemologia Psicogenética de Jean
Piaget. Ele foi co-autor de um pequeno artigo publicado pela pesquisadora Rosa Maria
Vicari, também da UFRGS, minha orientadora nesse trabalho. Intitulado “Inteligência
em Máquina, Inteligência de Máquina e Inteligência Artificial”, o artigo tenta
compreender a diferença entre tais conceitos e encontrar suas ligações. Os autores
começam o artigo dizendo que, em vista do rumo das pesquisas em IA, em plena década
de 90, suas considerações deveriam recair sobre a aprendizagem, adaptação ao meio e
raciocínio. Na IA, estas atividade se refletem na aquisição de conhecimento e na
mudança de comportamento dos sistemas, definindo assim a “inteligência em máquina”.
Através do termo “inteligência de máquina”, os autores querem propor uma
desantropomorfização da inteligência artificial, ou seja, desvinculá-la da inteligência
humana. Esta é a interpretação que Rocha Costa faz das idéias de Piaget, que resultaram
na sua tese de doutoramento. Significa dizer que o ser humano é dotado de um certo
tipo de inteligência porque tem certos tipos de objetivos, de estruturas e um certo tipo de
56

vivências. O computador habita outro tipo de ambiente e seu processo de adaptação


resultará num tipo de inteligência específico. [VICCARI].

Dentro desse mesmo contexto (embora não partilhando completamente de todos


esses pressupostos) coloca-se o trabalho do professor Raul Wazlawick, da UFSC, que
serviu de base para a dissertação de mestrado de outro pesquisador da UFRGS, Mauro
Enrique de Souza Muñoz, em 1999. Nas palavras de Muñoz: “A área da inteligência
artificial, hoje em dia, se vê diante de um grande impasse: por um lado, busca-se uma
máquina inteligente que tenha autonomia, capacidade de adaptação, poder de decisão,
de conclusão, de análise, etc.; por outro lado, esta mesma máquina deve realizar as
tarefas que lhe sejam incumbidas. Para resolver esse impasse, a seguinte solução foi
apresentada: modelar as tarefas a serem realizadas pela máquina inteligente como
sendo parte de suas necessidades básicas (inatas) expressas por sensações, deixando-a
livre para seguir seu caminho de construção cognitiva através de sua interação com o
meio”. [MUÑOZ].

O “Agente de Wazlawick” é um híbrido, envolvendo o modelo de algoritmos


genéticos e o modelo neuronal autoorganizativo de Kohonen. Ele possui uma interface
com o ambiente e uma população de esquemas de ação, sendo que, para cada situação
em que se encontrar, e dependendo de sua vontade em alterar essa situação, o agente
selecionará e ativará um desses esquemas de ação. Cada esquema de ação possui um
modelo da situação para qual é planejado, porém pode ser ativado quando o agente
julgar a situação atual semelhante, e não tiver nenhum outro esquema melhor para usar.
O esquema faz com que o agente atue no ambiente, e tem uma expectativa quanto aos
resultados da ação. É a comparação entre os resultados ocorridos e os resultados
esperados (repetidas vezes) que fará a avaliação do esquema. O esquema, ao ser
aplicado, também se modifica, a fim de dar conta da nova situação para a qual se
encaixou, e das mudanças ocorridas no ambiente que não eram esperadas (aprendizado
inspirado no modelo neuronal). Esquemas ruins vão sendo eliminados para dar lugar a
outros possíveis. [MUÑOZ].

Quando o agente exclui esquemas, novos são gerados. Essa geração pode
acontecer por diferenciação ou por geração criativa. A diferenciação funciona como
especialização de esquemas, utilizada quando um determinado esquema tem uma boa
avaliação, mas não funciona bem para algum caso específico de seu domínio. Essa
geração se dá através de uma reprodução com cruzamento entre o esquema em questão
e outros esquemas similares, gerando novos esquemas. A reprodução criativa se dá
quando a população está baixa, então novos esquemas são gerados por cruzamento e
mutação. Esse modelo é uma boa implementação das teorias de assimilação e
acomodação piagetianas. O agente, durante sua vida, fica constantemente buscando o
equilíbrio de seus esquemas cognitivos com o meio ambiente. [MUÑOZ].
57

6. As críticas à IA
A discussão filosófica sobre a IA nunca deixou de existir. Mesmo nos momentos
em que o pragmatismo dominou o campo, as questões sobre o significado da IA
estiveram sempre de fundo. No decorrer dos anos, os otimistas e os descrentes da IA
fizeram um grande debate, sobre sua viabilidade e seus limites. Os argumentos que se
iam colocando nunca deixaram de estar um pouco misturados com as paixões pessoais
de cada personagem dessa história. Franklin, em seu livro “Artificial Minds”, publicado
em 1995, dedica um capítulo todo para contá-la, e nele me baseio. [FRANKLIN].

É John Haugeland que propõe a caricatural divisão entre “scoffers”


(zombadores) e “boosters” (estimuladores) na comunidade científica da IA. Os
“scoffers” tanto não acreditam que uma máquina possa ter uma mente genuína, quanto
acham a idéia ridícula. Os “boosters” estão igualmente certos de que isso é apenas uma
questão de tempo, e que computadores dotados de mentes são inevitáveis. Para
mergulharmos nessa discussão é preciso conhecer os termos “IA Fraca” e “IA Forte”.
[FRANKLIN].

“IA Forte” e “IA Fraca” representam duas posturas no campo. Se o pesquisador


acredita que a inteligência humana pode ser reproduzida (que as explicações das
funções cognitivas humanas são suportadas por processos computacionais), então é
adepto da Tese Forte. No entanto, se sente-se mais confortável com a idéia de que o
computador pode apenas simular alguns aspectos do comportamento inteligente, então
enquadra-se na Tese Fraca. [COELHO].

Muitas críticas à IA foram feitas, desde antes do seu nascimento, a maioria delas
no entanto tem caráter dogmático ou moral. São argumentos interessantes, no entanto
não podem ser tecnicamente solucionados, e dependem do julgamento e crença de cada
um. Entre eles figuram as idéias de que “as máquinas não podem pensar porque são
máquinas, e máquinas não pensam”. Se, por definição, as máquinas não pensam, nada
pode ser dito em contrário. Isso faz parte do conjunto de suposições metafísicas da
pessoa, e está incorporado ao modo como o mundo faz sentido para ela. Também
relaciona-se com o ideal humanista, de que aceitar a possibilidade da máquina pensar é
ceder um pouco da nossa identidade humana, e ter nossa dignidade tocada. Não
condeno nem aprovo tais posturas, e vamos deixá-las de lado agora. Vamos trabalhar
com as opiniões fundamentadas no próprio escopo da ciência, entre as quais a primeira
crítica importante partiu do filósofo Dreyfus. [McCORDUCK], [FRANKLIN],
[TURING].

Hubert Dreyfus, em 1972 publicou o livro “O que os computadores não podem


fazer: uma crítica da razão artificial”. As idéias centrais do livro já haviam sido
publicadas por Dreyfus em 1965, o título fazia uma comparação da IA com a Alquimia.
No entanto Dreyfus não subestima a relevância da questão. No capítulo inicial, escreve:
“Os computadores já tem produzido uma revolução tecnológica comparável a
Revolução Industrial. Se Herbert Simon tem razão sobre a iminência da inteligência
artificial, estão prestes a criar uma revolução conceitual ainda maior, uma mudança na
nossa compreensão do homem. Todo o mundo se dá conta da importância dessa
revolução, mas estamos tão próximos dos fatos que é difícil discernir sua relevância.
[...] se a razão puder ser programada num computador, isso confirmará uma
compreensão da natureza do homem que os pensadores ocidentais vem tentando
58

avançar durante dois mil anos, mas que só agora têm ferramentas para expressar e
colocar em prática. A encarnação dessa intuição mudará drasticamente nossa
concepção de nós mesmos. Se, por outro lado, a inteligência artificial resultar
impossível, então teremos que distinguir a razão humana da artificial, e isso também
mudará drasticamente nossa concepção de nós mesmos.” [McCORDUCK].

No livro, Dreyfus tenta mostrar que a IA nasceu ignorando as descobertas


recentes das ciências que lhe deram apoio, a Biologia, a Psicologia e a Filosofia. Da
parte da biologia, refere-se às redes neuronais, que durante sua evolução, preocuparam-
se pouco com as descobertas da neurologia. Da parte psicológica, o modelo da IA
Simbólica nasce atrelado ao comportamentalismo e ao estruturalismo, ignorando as
críticas que já surgiam com as novas escolas. Dreyfus trabalha com concepções da
Fenomenologia (no livro cita Heiddeger e Wittgenstein) e tenta mostrar que é errôneo
supor que a IA Simbólica descreve a cognição. Diz isso por crer que os pesquisadores
estavam confundindo as regras que uma pessoa está seguindo para fazer algo com as
regras que se podem utilizar para descrever o que ela está fazendo (por exemplo, o
movimento dos planetas; suas órbitas podem ser descritas através de equações
diferenciais, mas os planetas mesmos não resolvem equações diferenciais quando se
movimentam). [McCORDUCK].

Mas o ponto mais importante tem a ver com a suposição de Dreyfus sobre a
incapacidade do computador para igualar certas funções humanas essenciais. No seu
modelo alternativo, uma concepção fenomenológica, acentua o papel do corpo humano
ao organizar e unificar nossa experiência, no papel que desempenha a situação ao
proporcionar um fundamento para que o comportamento possa ser ordenado sem ser
ferreamente sujeito a regras. O computador, da forma como vinha sendo pensado pela
IA naquela época, não contextualizava-se, não baseava-se em intenções e em
necessidades, não distinguia, em uma situação, quais os aspectos relevantes, tendo que
considerar todas as coisas indistintamente. A vida é, de certa forma, o que os homens
fazem dela. A análise de fatos e regras só tem sentido dentro de um contexto e para um
certo propósito. Assim Dreyfus conclui que nem todos os domínios são descritíveis
através de regras, e que existem outros tipos de mecanismos como reconhecimento de
similaridades, uso de experiência, visão holística, etc. Questionando assim a
necessidade de um “Sistema de Símbolos”. Ele usa o exemplo de um motorista
iniciante: esse sim, tem consciência de certas regras do trânsito e fica constantemente
fazendo uso delas. Já um motorista experiente não age dessa forma. [McCORDUCK],
[FRANKLIN].

Idéias semelhantes podem ser lidas nos textos do grande sociólogo Pierre
Bourdieu, considerando que o indivíduo incorpora uma série de valores constituídos
durante sua trajetória, sua vivência social, além de um senso prático para atuar no seu
cotidiano. Ele resume sua teoria em uma entrevista dada em 1985: “Uma análise nem
intelectualista nem mecanicista da relação entre o agente e o mundo [...] minha
representação da ação – o ajustamento das disposições do agente [vontades] à sua
posição [no mundo], das esperanças às chances [...] Sendo produto da incorporação
da necessidade objetiva, o habitus, necessidade tornada virtude, produz estratégias
que, embora não sejam produto de uma aspiração consciente de fins explicitamente
colocados a partir de um conhecimento adequado das condições objetivas, nem de uma
determinação mecânica de causas [externas], mostram-se objetivamente ajustadas à
situação. A ação comandada pelo ‘sentido do jogo’ tem toda a aparência da ação
59

racional que descreveria um observador imparcial, dotado de toda a informação útil e


capaz de controlá-lo racionalmente. E, no entanto, ela não tem a razão como
princípio”. [BOURDIEU a].

A recepção do livro de Dreyfus pelos homens engajados na IA foi, como era de


se esperar, ruim. Seymour Papert já havia publicado um artigo em que refutava suas
críticas ponto a ponto, misturadas com tentativas de desmoralização daquelas idéias:
“Eu sinto simpatia pelos ‘humanistas’ que tem medo de que o desenvolvimento técnico
ameace nossa estrutura social, nossa imagem tradicional de nós mesmos e nossos
valores culturais. Mas há um perigo ainda maior em abandonar a tradição da
investigação intelectualmente responsável e documentada com a fútil esperança de
resolver facilmente esses conflitos”. 25

Cabe aí (como diz sabiamente Pamela McCorduck) um estudo de “sociologia da


ciência”. Se por um lado Dreyfus fazia uma imagem distorcida da IA, por outro lado a
IA pouco tocou-se com suas críticas, que não eram de todo sem fundamento. O fato é
que a discussão envolvia mais do que argumentos, mas os próprios princípios pessoais
dos envolvidos. Se as palavras que vimos na resposta de Papert eram duras, as de
Dreyfus não eram menos. Ao referir-se às previsões que Simon fez em 1957 (de que em
10 anos um computador seria o campeão de xadrez, comporia uma música de
considerável valor estético, provaria um importante teorema matemático e de que a
maioria das teorias psicológicas seria expressa através de programas de computador):
“Desgraçadamente, o décimo aniversário dessa histórica conferência passou
desapercebido, e os investigadores de inteligência artificial não dedicaram tempo em
nenhuma de suas muitas conferências nacionais e internacionais para confrontar essas
predições com os resultados atuais”. Talvez a agressividade que envolvia a crítica tenha
feito só despertar raiva naqueles que poderia ter iluminado. [McCORDUCK].

Apenas para terminar o caso Dreyfus, saiba-se que em seu livro, havia
referências do xadrez como um exemplo emblemático das abusadas pretensões da IA.
Dreyfus insinua que o xadrez seja uma das tarefas que exigem certas capacidades
tipicamente humanas (ou talvez exclusivamente humanas). Fato é que Seymour Papert
convidou Dreyfus, então, para que jogasse uma partida de xadrez com o programa
MacHack, desenvolvido por Grenblatt. Parece que a partida foi bastante dramática, e a
máquina desbancou o filósofo. Simon escreve a respeito dessa histórica partida:
“Dreyfus disse algumas coisas realmente feias sobre o xadrez porque estava pensando
no nosso velho programa de xadrez NSS da RAND, e sabia que uma criança de dez
anos o havia derrotado. Então apareceu o MacHack, que era muito mais potente, e de
alguma forma Dreyfus se sentiu induzido a jogar contra ele, e a máquina lhe deu uma
boa lição”. [McCORDUCK].

A próxima crítica nova à IA surgiria em 1980, através de outro filósofo, John


Searle, mas para entendê-la, retomemos os “scripts” de Roger Shank. Em 1977, Shank,
estudando a compreensão de linguagem natural, construiu um programa que, recebia
uma história escrita simples e conseguia dar respostas corretas a certas perguntas sobre
a história. O método usado era o seguinte: havia um banco de dados com scripts, sendo

25 Apenas para constar, talvez Dreyfus realmente tenha sido movido por ideais humanistas,
mas Bourdieu com certeza não, uma vez que é descendente de uma tradição estruturalista e
anti-humanista. Bourdieu, estaria envolvido em outro tipo de discussão, no âmbito das ciências
sociais, e não posso afirmar se alguma vez estave pensando em IA.
60

que cada script descrevia seqüências comuns de eventos (por exemplo o script de jantar
no restaurante diz que primeiro entra-se no restaurante, depois escolhe-se a mesa, depois
consulta-se o cardápio...); quando indagado sobre a história, o programa, através das
palavras da história, identificava um script adequado e, também por associações de
certas palavras, tentava dar uma resposta de acordo com a previsão do script. Pensando
nesse assunto, Searle iria propor o seu problema do “Quarto Chinês”. [FRANKLIN].

Searle está preocupado com o que realmente significa compreender. Seu


experimento do quarto chinês constitui-se no seguinte: Searle colocaria a si mesmo em
uma sala fechada; uma história e uma questão, ambas escritas em chinês são passadas
para ele por baixo da porta; como não entende chinês, aqueles escritos nada significam
para ele, são apenas rabiscos num papel; mas ele tem um manual de instruções, escrito
em uma língua compreensível para ele, que fornece uma maneira algorítmica de
responder à questão, através de regras para, a partir do conjunto de rabiscos recebidos,
gerar um coerente conjunto de rabiscos de saída. A questão que resulta é a seguinte:
uma vez que Searle não sabe nada de chinês, o fato de que ele tenha dado uma resposta
certa em chinês através de um processo algorítmico permite-nos dizer que ele
compreendeu a história? A questão é sem dúvida pertinente. Em 1990, Searle publicou
um debate com Paul e Patricia Churchland, onde inicia da seguinte maneira “É a mente
de um cérebro como um programa de computador? Não. Um programa simplesmente
manipula símbolos, enquanto que um cérebro atribui significado a eles”. Dessa forma
contesta a validade do Teste de Turing e da Hipótese do Sistema Físico de Símbolos, a
partir da idéia de que a sintaxe sozinha não é suficiente para constituir uma semântica, e
que, portanto um computador, mero manipulador de símbolos, não é capaz de possuir
semântica. Os Churchlands aceitarão algumas das afirmações de Searle, mas o acusarão
de manipular certas definições para poder provar o que quer. Ambos os artigos (tanto o
de Searle quanto o dos Churchlands) despertam idéias interessantes, porém, quando
analisados a fundo não mostram-se muito robustos. Ainda que seja significativa a crítica
de Searle, ele demonstra não ter uma visão muito correta sobre o que pode ou não pode
fazer um computador, e precipita-se em certas conclusões, como, por exemplo, atrelar a
inteligência aos fenômenos físico-químicos do cérebro, negando portanto a capacidade
de um computador ser inteligente simplesmente pelo fato de que é feito de silício. É um
ataque à IA Forte. [FRANKLIN], [SEARLE].

Uma resposta muito interessante dada ao desafio do Quarto Chinês foi proposta
por Franklin ao dizer que existem diferentes “níveis de compreensão”. Se o computador
consegue dar respostas certas, ele tem algum nível de compreensão, ainda que menor do
que o de um chinês nativo, mas já maior do que o de um tijolo, que não consegue sequer
responder. Podemos estender essa explicação a um outro domínio: quando dizemos que
alguém compreendeu algo, imaginamos que tenha feito uma série de associações
mentais de conceitos, memórias, idéias e sensações, contextualizando-as na situação em
que se encontra, e de acordo com suas intenções, ainda que a única coisa que tenhamos
observado é que a pessoa deu uma resposta aceitável. Por exemplo, se eu falo para você
a palavra “cavalo”, você imagina um cavalo, pensa na experiência de já ter cavalgado,
desenvolve sentimentos em relação a uma futura cavalgada, recorda algum
acontecimento, associa a idéia de cavalo à idéia de fazenda, etc. Assim como aconteceu
com Dreyfus, Searle foi por muitos ignorado, por outros difamado, sendo que as
respostas ao quarto chinês muitas vezes pareciam dogmáticas por parte dos
pesquisadores da IA, como por exemplo “é claro que você entendeu chinês!”.
[FRANKLIN], [SEARLE].
61

Seja como for, o artigo dos Churchlands traz a idéia (refutada por Searle) de que
a inteligência emana dos sistemas complexos, como as redes neuronais, e que se
houvesse milhões de Searles trabalhando juntos num “Ginásio Chinês”, então eles
teriam compreendido chinês. Até aí a análise é simplista, mas os Churchlands enfocam
uma outra idéia interessante: eles mostram que a IA Simbólica e a IA Conexionista
sugerem dois tipos de processos inteligentes diferentes. A arquitetura de regras pode ser
mais eficiente para certos tipos de problemas, porém o forte paralelismo das redes
neuronais pode ser vantajosos para outros tipos. O cérebro estaria mais aproximado da
arquitetura neuronal, por isso a impossibilidade de se replicar a inteligência humana
através de regras. [CHURCHLAND].

Essa conclusão dos Churchlands é semelhante a crítica feita pelos filósofos


Horgan e Tienson, com base no problema da explosão combinatória. Segundo eles, cada
vez que se adiciona uma restrição em um sistema de regras, ele demora mais tempo para
tomar uma decisão, enquanto que um ser humano, comporta-se ao contrário, pois
quanto mais restrições ele tem, menos opções tem para escolher, e mais rápido toma a
decisão. Horgan e Tienson não estão reprovando a IA Simbólica como um modelo geral
da inteligência, mas acreditam que dadas as evidências, pode-se concluir que ela não é
um modelo adequado para compreender a cognição humana. [FRANKLIN].

O último ataque considerável recebido pela IA partiu do matemático Roger


Penrose. Baseado no Teorema de Gödel (de que a matemática nunca poderá ser
completamente demonstrada), afirma no seu livro “A Nova Mente do Imperador”
(1989), que alguns julgamentos feitos pelos seres humanos nunca poderão ser feitos por
uma máquina, uma vez eles são baseadas na lógica matemática, e que certos
julgamentos matemáticos não possuem forma algorítmica. A argumentação de Penrose
é bastante convincente, mas foi duramente contestada no mesmo ano pelo grande
pesquisador da consciência, Daniel Denett, que demonstrou o erro de Penrose e de todos
os tipos de argumentação que fazem esse apelo matemático. [FRANKLIN].

O debate sobre a Inteligência Artificial tem avançado através dessas idéias, ainda
que poucos resultados conclusivos tenham surgido. Importa-nos saber que todas essas
posturas intelectuais vão, de alguma maneira, refletir-se na IA sob a forma de posições
no campo.
62

7. IA: Discursos e Conceitos

Floresceram na IA, um bom número de pensadores posicionando-se das mais


diversas formas. Apesar disso, nunca chegou-se a um consenso sobre o paradigma, não
havendo um modelo, uma postura, uma definição, uma metodologia estabelecidos, mas
vários paradigmas conflitantes, lutando por legitimidade dentro da comunidade
científica. Nesse estado constante de revolução teórica, alguns pensam não haver saída
(e que talvez seja assim a maneira de se fazer ciência em IA), enquanto outros estão à
espera de uma teoria unificadora. As discussões nunca cessaram, e tenho a impressão
que o tema está cada vez mais em voga, e de que os debates tem-se tornado cada vez
mais intensos. O fato é que, na maioria das vezes, grandes divergências se dão por
incompreensões conceituais, definições vagas que dão margem a discussões vazias.

Todo o trabalho que fizemos nos capítulos anteriores é parte da tarefa de


compreender o significado dos conceitos, uma vez que são historicamente constituídos.
Nesse capítulo, porém, vamos tratar deles mais diretamente, capturando as definições
proposta e confrontando-as, e também tentando mapear o conjunto dos discursos que
englobam esses conceitos, percebendo que suas relações transformaram-se com a
história e, no embate das diversas posições, continuam a transformar-se.

Helder Coelho cita um e-mail de Ed Feigenbaum: “Caros amigos e colegas,


quero dizer o que disse a Herb Simon ao telefone alguns minutos atrás: estou
profundamente sensibilizado pela notícia que um programa de computador tenha
ultrapassado o campeão mundial de xadrez num jogo completo. Para todos aqueles que
como nós assistiram ao nascimento do campo da IA, este era sem dúvida o problema do
‘grande desafio’. O xadrez computacional não é certamente toda a IA, mas como o
primeiro amor, fica conosco para sempre (parece super sentimental mas é sincero).
Herb Simon disse-me: ‘Bem talvez eu não tenha sido demasiado preciso ao prever o
futuro em 10 anos, mas fiz tudo o que pude para ser correto num horizonte de 40
anos’”. [COELHO]

Aí está, nas palavras de Feigenbaum o retrato da ciência como empreendimento


humano que é. Temos visto que o xadrez foi proposto como problema para a IA mesmo
antes de seu nascimento. Os autômatos do século XIX já queriam ser jogadores de
xadrez, e o problema (como disse Dreyfus) tornou-se emblemático. Mais do que um
desafio técnico, tornou-se uma questão de honra para a IA, e um dia o sonho tornou-se
realidade, concretizado na vitória do computador Deep Blue II (da IBM) sobre o
campeão mundial de xadrez, o russo Garry Kasparov, em 1997. Claro que
compreendemos a emoção daqueles que viram a IA nascer, e que principalmente dos
que dedicaram alguns anos de sua vida para o problema, herdado já de outras gerações,
mas o fato é que aquela vitória não teve o mesmo significado que teria se tivesse
ocorrido 30 anos antes. O Deep Blue pode vencer Kasparov porque era uma máquina
com processadores paralelos muito potentes e podia calcular 200.000.000 de lances por
segundo [COELHO], e não por que implementava algum tipo de algoritmo especial. A
vitória foi por força bruta, e se por um lado, trouxe um alívio para a IA (pois finalmente
havia conseguido cumprir uma velha promessa), ajudou a constatar definitivamente que
não era assim que funcionava a inteligência humana.
63

Retomemos agora, muito resumidamente, alguns conceitos de grandes


“historiadores da ciência”. Tanto Foucault quanto Bourdieu vão nos dizer que o “novo”
é de alguma forma conseqüência do estado anterior das coisas. O campo é o espaço de
enunciados possíveis, ele define como os discursos podem ser articulados. A mudança
só pode partir de alguém que conheça bem essas posições do campo, que tenha “capital
simbólico” suficiente (ou seja, que tenha poder para fazer suas idéias serem
consideradas) e que esteja numa posição incomoda, tendo, assim, disposição para
promover essa mudança. [BOURDIEU a], [BOURDIEU b], [FOUCAULT a],
[FOUCAULT b].

No campo da IA existem alguns exemplos claros desse “jogo de posições”. O


próprio Hubert Dreyfus deve boa parte do ‘sucesso’ de suas críticas por ter trabalhado
na RAND no verão de 1964, vaga conseguida com ajuda de seu irmão Stuart. O fato de
ter publicado seu artigo através da conceituada RAND lhe outorgou algum ‘poder
simbólico’, ajudando a fazer com que suas palavras se impusessem, fossem levadas em
consideração. O envolvimento pessoal, que já vimos que houve nas discussões que se
seguiram entre Dreyfus e Papert, representa suas disposições no campo. Foi na RAND
que Dreyfus conheceu o trabalho em inteligência artificial, porém, já havia chegado lá
disposto à negar essa possibilidade. Era amigo de Anthony Oettinger, um ex-entusiasta
da IA, que havia participado do fracassado projeto de tradução automática iniciado na
década de 50. Sua trajetória pessoal e filosófica levava-o a esta posição no campo e a
este discurso. E não seria diferente com todos os outros personagens da nossa história.
Simon, por exemplo, recorda que desde antes de começar a pensar em IA já tinha
antipatia pelos discursos que tratavam a mente como algo misterioso. [McCORDUCK].

Concluímos, então que não há paradigmas exatamente, mas há posições no


campo, identificadas pelas regularidades discursivas. O campo estabelece as
possibilidades de articulação dos discursos, ou seja, ele mostra as posições válidas no
campo (mesmo que sejam posições antagônicas, como a IA Forte e a IA Fraca),
distinguindo-as das posições consideradas “insensatas”. Essas posições insensatas só
poderiam vir a tornar-se posições aceitáveis, se alguém com “capital simbólico”
suficiente conseguir propô-la. Como já vimos anteriormente, apesar de em muitos
aspectos a ciência ser bastante “democrática”, por outro lado ela é das instituições
sociais contemporâneas a que mais envolve-se de idéias “feudais”, bastando ver o valor
simbólico que tem, por exemplo, os títulos de doutorado, o vínculo com determinadas
instituições conceituadas, ou publicações específicas. Todos esses “títulos” por vezes se
confundem com os títulos de nobreza que propiciavam status na Idade Média. Apenas,
para finalizar essa análise, quero deixar uma pergunta no ar: será que a pouca
repercussão que teve a IA Construtivista (de que tratamos anteriormente), não se deve
ao simples fato de que está vinculada a um país, a institutos e a pesquisadores de pouca
expressão (que têm pouco capital simbólico) na cultura científica da IA, independente
da qualidade da idéia?

O primeiro “corte legítimo” que aconteceu no espaço dos discursos da IA pode


ser atribuído a Alan Turing, no seu artigo de 1950, pois refere-se às críticas mais
comuns que a IA sofre, e as exclui das possíveis articulações com discursos do campo.
Significa dizer que tais argumentos, ainda que digam respeito à inteligência artificial,
são desconsiderados dentro do seu campo. Começa com a “Objeção Teológica”,
representada pelo seguinte discurso: “Pensar é uma função da alma humana imortal.
Deus deu uma alma a todo homem e a toda mulher, mas a nenhum outro animal ou
64

máquina. Logo, nenhum animal ou máquina pode pensar”. Turing, apesar de não se
impressionar muito com esse tipo de argumento, resolve tratá-lo buscando sua negação
do argumento dentro da própria teologia: “Parece-me que o argumento [na tentativa de
preservar o poder de Deus] implica uma séria restrição à sua onipotência. [...] Não
devíamos acreditar que Ele tem a liberdade de conceber uma alma a um elefante, se
quisesse? Poderíamos esperar que ele só usasse tal poder por via de uma mutação que
dotasse o elefante de um cérebro devidamente aperfeiçoado para atender às
necessidades de sua alma. Um argumento semelhante pode ser invocado no caso das
máquinas. [Construindo máquinas inteligentes estaríamos] providenciando moradas
para as almas que Ele cria”. Em todo o caso, não há nenhuma implicação evidente
entre alma e inteligência, ou alma e livre-arbítrio. Essas associações são metafísicas e
dependem de se acreditar nelas ou não. Os cientistas da IA Forte certamente não
acreditam, e isso não implica na necessária negação de sua religiosidade, e de sua
crença na existência de almas. [TURING].

A “Objeção das Cabeças na Areia” é sintetizada no seguinte argumento: “As


conseqüências de máquinas que pensam seriam terríveis. Esperemos e confiemos que
elas não possam nunca fazer isso”. A objeção envolve um certo apelo moral, mas
principalmente um ideal humanista, de que o homem é, por alguma razão intrínseca,
superior a tudo mais. Pamela McCorduck resume tanto o primeiro como o segundo
argumento na categoria “Argumentos Emocionais”, pois estão baseados na premissa de
que a inteligência é uma propriedade exclusivamente humana. Seja por motivos de
origem divina ou acidente biológico, os seres humanos são as únicas criaturas no
planeta que tem ou terão inteligência genuína. [TURING], [McCORDUCK].

Algumas outras objeções citadas por Turing, estão bem sintetizadas em duas
categorias propostas por Pamela: O “Argumento das Diferenças Insuperáveis”. Existem
inúmeras versões desse mesmo argumento, que tem o seguinte formato, proposto por
Turing: “Concordo que você seja capaz construir máquinas que façam todas essas
coisas mencionadas, mas você nunca conseguirá construir uma máquina que faça X”,
onde no lugar de X podemos colocar “que seja bela”, “amigável”, “tenha iniciativa”,
“tenha senso de humor”, “distinga o certo do errado”, “cometa erros”, “apaixone-se”,
“delicie-se com morangos com creme”, “faça alguém se apaixonar”, “aprenda com a
experiência”, “use corretamente as palavras”, “seja tema de seus próprios
pensamentos”, “possa criar e ser original”, “tenha autonomia”, “tenha consciência”,
“tenha inconsciente”, “tenha tudo isso ao mesmo tempo”. Turing responde: “Nenhuma
justificativa é, no geral, dada para esses enunciados. Creio que eles estão, na maior
parte, fundamentados no princípio da indução científica. Um homem vê milhares de
máquinas durante a sua vida. Do que observou tira certo número de conclusões gerais.
As máquinas são feias; cada uma delas foi construída para um objetivo muito limitado;
quando se lhes pede algo um pouco diferente, elas se tornam inúteis; a variedade de
comportamento de qualquer uma delas é muito pequena,; etc. Naturalmente, a
conclusão é de que essas serão, necessariamente, propriedades das máquinas em geral.
Evidentemente a aplicação desse princípio pode resultar inconsistente”. Uma outra
forma de expor as mesmas idéias, porém de outro modo está classificado no que Pamela
chamou de “Argumento da Não Existência de Exemplos”, sintetizado no seguinte
discurso: “Se os computadores são, em princípio, capazes de apresentar tais
comportamentos inteligentes, todavia ninguém conseguiu fazê-los até agora”.
[TURING], [McCORDUCK].
65

Pamela define uma última categoria, a dos “Argumentos de Considerações


Éticas”, sustentando algo como: “Dado que os computadores poderiam ter um
comportamento inteligente, deveríamos perseguir essa possibilidade? Podemos prever
o resultado de um passo tão grande? Não deveríamos fazer um debate público sobre se
queremos ou não conviver com outras inteligências?”. Vamos tratar desses argumentos
mais tarde, agora voltemos a Turing. No seu artigo sugerem-se outras objeções, porém
serão formas embrionárias das críticas que surgiram depois, na IA, e que fazem parte
das posições do campo. Um último argumento externo (e muito interessante) é o da
“Percepção Extra-Sensorial”. Turing diz que crê ser possível viver bem ignorando-os,
mas que isso não é nada reconfortante. Se realmente existirem fenômenos que estão
além das explicações físicas, muitas das nossas concepções sobre o mundo estarão
erradas, e aí é de se temer que o pensamento seja exatamente o tipo de fenômeno onde a
PES seja importante. Tendo isso constado, adentremos no campo. [McCORDUCK],
[TURING].

Turing começa seu artigo tratando de conceitos: “Podem as máquinas pensar? A


reflexão sobre esta questão poderia ser iniciada com definições do significado dos
termos ‘máquina’ e ‘pensar’. As definições poderiam ser esquematizadas de modo a
refletir, na medida do possível, o uso comum das palavras, mas tal atitude é perigosa.
Se os significados das palavras ‘máquina’ e ‘pensar’ tiverem de ser encontrados por
meio de um exame de seu uso habitual, será difícil escapar à conclusão de que a
resposta para a pergunta inicial deva ser procurada numa pesquisa estatística. Mas
isso é absurdo!” [TURING]. Outros autores, depois dele pensariam algo parecido, ao
propor que, para tratar de inteligência artificial é preciso antes compreender o que se
entende pelos termos “inteligência” e “artificial”. Não chega a ser um devaneio, algo
que seja completamente sem importância, a posição de Turing nos remete a Bourdieu,
que ressalta a necessidade do cientista libertar-se das armadilhas do senso comum, pois
muitos conceitos e idéias tomados como naturais são, na verdade, arbitrários e às vezes
até enganosos: “A influência das noções comuns é tão forte que todas as técnicas de
objetivação devem ser utilizadas para realizar efetivamente uma ruptura [...]”.
Segundo Bourdieu, as pré-noções e o próprio método de pesquisa devem ser colocados
em questão, e não tomados como naturais. [BOURDIEU b].

Minsky, numa conversa com Pamela McCorduck fala sobre isso: “O fato é que
ao longo da história, as pessoas que se consideraram a si mesmas ‘mecanicistas’,
tenderam a ser algo mais que isso. Não sei se há uma palavra para os denominarmos.
Devia ser, digamos, ‘simplistas’. Exemplos notáveis são gente como Pavlov e Watson, e
toda a família de pessoas que acreditavam no condicionamento como base para a
aprendizagem, os associacionistas mecânicos. Ainda que superficialmente poderiam ser
considerados mecanicistas porque parecem falar da mente como uma máquina mais
abertamente, seu problema era que a imagem que faziam da máquina era
precomputacional”. E a idéia é complementada pela própria Pamela: “O problema,
creio, tem a ver com as associações que fazemos com a noção de mecanismo, ou de
máquina; ‘máquina’ faz pensar em motores a vapor, britadeiras, coisas que fazem um
ruído metálico infernal, os cérebros ressoam baixinho [...]” [McCORDUCK].

A discussão toca a lingüística, e não poderíamos terminar o assunto sem uma


inserção dessa ciência. Émile Benveniste, discípulo de Sassure, fala a respeito dos
conceitos: “O sentido é a noção implicada pelo termo mesmo da língua como conjunto
de procedimentos de comunicação identicamente compreendidos por um conjunto de
66

locutores [...]”. [BENVENISTE]. “Inteligência” é um desses conceitos pouco


consensuais (assim como por exemplo “democracia”, “justiça”, “beleza”, “amor”, etc.).
Cada pessoa o atribui a um conjunto próprio de coisas ou eventos (conjuntos parecidos,
mas raramente iguais), e, ainda que nas conversas genéricas consigam entender-se,
discussões que necessitem precisão conceitual podem tornar-se impraticáveis. Não há
um conceito mais certo ou mais errado, e (nesse aspecto lingüístico) são apenas formas
diferentes de classificar os fenômenos.

Dessa forma Turing propõe, como método não ambíguo de classificação da


inteligência, o “Jogo da Imitação” (ou “Teste de Turing”). Se uma máquina conseguisse
enganar um ser humano numa conversa, não dando margem para que distinga se está
conversando com uma máquina ou com um outro ser humano, então poderia ser
declarada inteligente. Apesar de não estar dito explicitamente, essa proposta de Turing
já define certas posições no campo. Turing afirma que é possível que a máquina usasse
outras estratégias de inteligência que não as estratégias humanas, e que isso não a
reprovaria no teste. Isso implica dizer que a inteligência artificial não está atrelada à
estrutura cognitiva humana. Por outro lado, o próprio teste supõe o comportamento
inteligente como sendo o equivalente ao comportamento humano, ou seja, uma postura
comportamentalista. [TURING].

Se analisarmos os discursos da IA Simbólica (constituída após a Conferência de


Dartmouth), encontraremos questões semelhantes. Já vimos que essa escola dividiu-se
entre os que dão ênfase ao conhecimento e os que dão ênfase aos mecanismos lógicos
do raciocínio. Helder Coelho ainda identifica outra cisão: “A IA clássica, do paradigma
do processamento da informação, desenvolveu-se ao longo de duas vertentes
principais: a ‘mecanicista’, que corresponde ao estudo dos programas que aparentam
ser inteligentes para o usuário, e a ‘cognitiva’, que invoca o estudo dos
comportamentos inteligentes humanos”. [COELHO]. De uma certa maneira, a própria
tradição filosófica iluminista já via na razão a “luz humana”. Essa idéia não sumiu na
contemporaneidade, por mais combatida que tenha sido, e os pesquisadores da IA
preocuparam-se tanto em compreender a inteligência enquanto racionalidade, que por
vezes acabaram confundindo-as.

Helder Coelho faz uma distinção entre Cognição e Inteligência: “Tal como a
inteligência, a cognição também é um conceito multifacetado que temos dificuldade em
entender com rigor. E por isso não é de admirar que alguns misturem amiúde
inteligência e cognição, o que torna ainda mais confusa a abordagem da IA, muitas
vezes considerada como um dos pilares das ciências cognitivas [...] A inteligência tem
a ver com o poder analítico, isto é, com a capacidade para apanhar o cerne de um
problema ou as características principais de um problema, em outras palavras, a
capacidade para resolver problemas, e otimizar os métodos para alcançar objetivos.
[...] A cognição abarca mais os elementos mentais da identidade, personalidade e auto-
imagem, sob um certo conjunto de valores e atitudes, e da percepção à ação. Ora, essas
qualidades mentais, como o orgulho, a coragem, a lealdade e o amor (e os seus
complementos) nada têm a ver com a inteligência, embora, uma vez colocados os
grandes objetivos, seja através da inteligência que descobrimos os caminhos para os
atingirmos”. Embora a nomenclatura adota por Helder Coelho não seja a que temos
adotado aqui, interessa-nos justamente essa preocupação com todos os aspectos da
inteligência humana, que ele chama “cognição”. [COELHO].
67

As novas descobertas da neurologia foram importantes para confirmar aquilo


que Piaget de certa forma já antevia. “O Erro de Descartes”, livro publicado por
António Damasio, esforça-se justamente por demonstrar que o ser humano só tem a
inteligência que tem porque ele não é puramente racional. O título, deliberadamente
escolhido para chocar, relaciona-se com sua idéia de que a mente não pode ser separada
do corpo (como dizia Descartes). Segundo Damasio, a mente e o corpo, assim como
razão e emoção, não formam oposições: “o cérebro e o corpo encontram-se
indissociavelmente integrados por circuitos bioquímicos e neuronais recíprocos
dirigidos um para o outro”. Ele acredita que o estudo da neuroanatomia pode contribuir
para ajudar a compreender os mistérios da mente, uma vez que os neurônios estão
organizados em grupos, formando sistemas que se interrelacionam e resultam nas
funções mentais. O comportamento inteligente do ser humano seria uma conseqüência
do equilíbrio entre a razão (que compreende os cenários) e a emoção (que induz à ação,
selecionando as hipótese mais simpáticas): “[... os sentimentos] são precisamente tão
cognitivos como qualquer outra percepção”. E complementa sua teoria: “Organismos
complexos como os nossos fazem mais do que interagir, fazem mais do que gerar
respostas externas espontâneas ou reativas que no seu conjunto são conhecidas como
comportamento. Eles geram também respostas internas, algumas das quais constituem
imagens (visuais, auditivas, somatossensoriais) que postulei como sendo a base para a
mente. [...] Nem todos os organismos têm uma mente, isto é, nem todos possuem
fenômenos mentais (o que equivale a dizer que nem todos têm cognição ou processos
cognitivos. Alguns organismos desenvolvem tanto comportamento quanto cognição.
Outros desenvolvem ações inteligentes, mas não possuem mente. [...] O fato de um
determinado organismo possuir mente significa que ele possui representações
neuronais que se podem tornar imagens manipuláveis num processo chamado
pensamento, o qual acaba por influenciar o comportamento em virtude do auxílio que
confere em termos de previsão do futuro”. [DAMASIO].

Mas voltemos a Turing. Havíamos deixado as últimas objeções citadas por ele
para tratar agora. Todas elas podem ser enquadradas numa grande categoria que vou
chamar de “Argumentos de Natureza do Processo”. Entre eles estão o da não
equivalência entre o neurônio da IA Conexionista e o neurônio biológico, e o de que a
cognição humana não tem a mesma natureza das regras da IA Simbólica. Ambos
constituem posições no campo. [TURING]. Um dos destaques da IA Contemporânea,
Raymond Kurzweil supera esse tipo de argumento em seu livro “The Age of Spirtual
Machines”. Um dos exemplos que dá é a de uma pessoa que, em algum lugar no futuro,
começa a fazer uso de implantes biônicos e neuroimplantes (cuja tecnologia, segundo
afirma, ainda que muito primitiva, já se mostrou possível). Se essa pessoa substituísse
todos os seus sistemas sensores e intelectuais (cada sistema biológico substituído por
um similar biônico), seria ainda a mesma pessoa? Se por um lado não, uma vez que
ocorreram mudanças no seu corpo, por outro lado continua tendo a mesma
personalidade e a mesma forma de inteligência. [KURZWEIL].

Seria interessante que ainda fizéssemos incursões pelos interessantes textos de


Kurzweil, e de outros como Daniel Dennett e Steven Pinker, principalmente no que se
refere a suas discussões sobre a consciência, mas creio que isso começa a escapar do
escopo deste trabalho. Por fim, façamos uma última exposição de definições dadas para
Inteligência e para Inteligência Artificial, ainda que soem muito simples perto das
teorias que tem por trás, para que possamos somá-las a tudo o que já foi dito, e para que,
68

através de uma análise decisiva, possamos mapear o espaço de articulação dos discursos
no campo da IA:

Winston: IA é “o estudo dos conceitos que permitem aos computadores serem


inteligentes” [RABUSQUE].

Arnold e Bowie: IA é “a capacidade de adquirir e aplicar conhecimentos


implementada pelo ser humano”. [RABUSQUE].

Feigenbaum e McCorduck: “Se pudermos imaginar um dispositivo capaz de


colecionar, de selecionar entre, de compreender, de distinguir e de saber, então
teremos IA” [RABUSQUE].

Barr e Feigenbaum: “IA é a parte da ciência da computação que compreende o


projeto de sistemas computacionais que exibam características associadas à
inteligência no comportamento humano”. [BARRETO].

Minsky: IA é “a ciência de fazer com que máquinas façam coisas que


requereriam inteligência se feita pelos seres humanos”. [RABUSQUE].

Minsky: “Inteligência está associada à aprendizagem, a mente é uma


organização de submentes comunicantes”. [COELHO].

Simon: “IA é o uso de programas de computador e técnicas de programação


para clarificar os princípios da inteligência em geral e do pensamento humano em
particular”. [McCORDUCK].

Brooks: “A consciência e o pensamento são epifenômenos do processo de estar


no mundo [...] a medida que a complexidade de processamento para enfrentar o mundo
aumenta, veremos a evidência do pensamento e da consciência nos nossos sistemas da
mesma forma que nas pessoas”. [COELHO].

Pinker: “A mente é um sistema de órgãos de computação, projetado pela seleção


natural para resolver os tipos de problemas que os nossos antepassados enfrentaram
ao longo dos tempos, nomeadamente, compreendendo e movimentando os objetos, os
animais, as plantas e mesmo as pessoas”. [COELHO].

McCarthy e Hayes: “Uma máquina é inteligente se ela é capaz de solucionar


uma classe de problemas que requerem inteligência para serem solucionados por seres
humanos [...] Deve decidir o que fazer por inferir que uma determinada estratégia o
levará a atingir seus objetivos”. [McCARTHY].

Hayes: “IA é o estudo do comportamento inteligente como computação”.


[COELHO].

Shank: “Todo o programa inteligente deve ser capaz de aprender”. [COELHO]

Piaget: “A inteligência é a capacidade de adaptar-se ao ambiente”. [PIAGET].


69

Charniak e McDermott: “IA é o estudo das faculdades mentais através do uso de


modelos computacionais”. [BARRETO].

Rich e Knight: “IA é o estudo de como fazer os computadores realizarem coisas


que por enquanto os seres humanos fazem melhor” [RICH].

Turing: “uma máquina, para desenvolver algumas formas de inteligência,


necessita de um corpo, e construí-las através da experiência via percepção, e não
apenas apoiada num modelo de mundo que possui dentro de si” [TURING].

A partir de tudo o que vimos até aqui, podemos chegar a alguns resultados.
Primeiramente, a postura que faz o limiar da Inteligência Artificial é a crença de que:

 É possível construir máquinas inteligentes.

A partir daí podemos listar uma série de “discursos atômicos”, que se articulam
para formar as posições no campo da IA:

 Sobre os propósitos:

“Estudar a Mente” x “Fazer Programas”. Este divisão (não necessariamente


excludente) versa sobre o objetivo da IA como disciplina. A IA deve dedicar-se
a “estudar a mente e os processos cognitivos usando a computação como
ferramenta” ou seu papel é “inspirar-se nas formas de inteligência para
desenvolver técnicas de programação a fim de auxiliar a produção de
programas de computador mais eficientes”? O pesquisador, assim, filia-se à IA
através da Ciência da Computação ou através das Ciências Cognitivas.

 Sobre a observação:

“Comportamento” x “Estrutura”. Esta questão envolve as formas aceitas como


validação da inteligência. “Para verificar a presença de inteligência num
sistema é preciso analisar suas estruturas internas ou basta observar seu
comportamento externo”? Confrontam-se posturas estruturalistas com posturas
comportamentalistas.

 Sobre a natureza:

“Simular a inteligência” x “Reproduzir a inteligência”. Essa é a postura que se


dá pela interpretação sobre os resultados da IA, e é a discussão que envolve IA
Forte e IA Fraca. Quando se consegue colocar inteligência num sistema, alguns
cientistas interpretam o feito como a própria inteligência acontecendo, outros
dirão que se está apenas sendo simulando. Talvez o recurso à idéia de simulação
seja um argumento humanista, uma forma de proteger a “genuína inteligência”,
mas não vamos entrar agora no mérito da questão. Os que dizer que simular e
reproduzir, nesse caso, são fundamentalmente a mesma coisa, adotam, na
verdade, a idéia de que se está reproduzindo a inteligência, uma vez que não
diferenciam tais coisas.
70

 Sobre a referência:

“Inteligência Humana” x “Inteligência Geral”. Esta cisão (também não


excludente) separa os que acreditam que a IA deve modelar a inteligência
humana, ou se busca modelos para um tipo geral de inteligência, da qual a
inteligência humana é apenas uma instância. “Qual é a referência para se definir
a inteligência”?

 Sobre a materialidade:

“Inteligência abstrata” x “inteligência materializada”. Os pesquisadores do


campo posicionam-se sobre qual é a relação entre a inteligência e a matéria. “A
inteligência é algo abstrato ou exige materialização”? “A inteligência depende
da matéria, sendo um fenômeno resultante dela ou ela surge da organização
apropriada de qualquer tipo de elemento capaz de comportá-la”?.

 Sobre o modelo:

“Modelo Conexionista” x “Modelo Simbólico”. Se a maneira mais adequada de


produzir a inteligência é através da implementação de redes neuronais,
inspiradas no cérebro, ou se pode partir de níveis mais abstratos, modelados em
termos das funções que se supõe necessárias para a inteligência.

 Sobre o ambiente:

A questão diz respeito a se é preciso considerar o ambiente para decidir sobre a


inteligência de um sistema, ou se a inteligência é um conjunto fixo de
qualidades. Além disso, pergunta-se se os artefatos construídos pela IA são
inteligentes em relação ao ambiente (ou problema) para o qual foram projetados,
sejam virtuais ou reais, ou se a inteligência deve ser atribuída apenas aos
sistemas projetados para o mundo real. Em outros termos, se um sistema que
mostra-se plenamente inteligente para a realidade em que se encontra é
realmente inteligente, uma vez que sua “realidade” não tem a mesma
complexidade do mundo real. (“Ambiente Virtual” x “Ambiente Real”).

 Sobre corporalidade:

“É necessário a inteligência esteja associada a um corpo”? Se a experiência


sensível é um elemento necessário para compor a inteligência, necessitando que,
portanto, um sistema de IA tenha esse tipo de experiência através de um corpo.
Talvez essa postura seja uma conseqüência das questões do ambiente e da
materialidade.

 Sobre a racionalidade:

Trata-se de saber o quanto a noção de inteligência está vinculada ao de


racionalidade objetiva. “IA implementada nos sistemas deve seguir apenas o
princípio da racionalidade (análise dos meios para decidir pelo mais adequado
para se atingir os fins) ou se deve utilizar outros princípios para orientar o
comportamento dos seus agentes”?
71

 Sobre intencionalidade:

“Um programa de IA deve “querer” atingir certos estados”? Significa


perguntar se é necessário haver uma intencionalidade diferenciada dos
mecanismos de raciocínio propriamente. O comportamento da máquina
inteligente se orientaria de acordo com essa intencionalidade própria, o que
significa poder tomar iniciativas e não estar completamente subordinado.
Haveria uma discussão para fazer aí sobre até que ponto o simples fato de estar
programado para encontrar uma solução num espaço de busca já não significa
ter a “intenção de encontrar a resposta”.

 Sobre adaptação:

Esse é uma posição importante no campo, e difere os pesquisadores que


focalizam seu trabalho na implementação de métodos de inteligência, ou se
buscam definir métodos de aprendizado. Esse aprendizado vai desde o simples
refinamento dos limiares do programa a partir dos casos que vão sendo tratados,
ou aumento das bases de dados, até os complexos modelos de autoorganização,
e possível modificação de todas as formas do seu comportamento, inclusive as
próprias formas de aprendizado, de acordo com a interação que fazem com o
ambiente.

 Sobre a consciência:

Refere-se à relevância dada à questão da consciência. “Ter consciência, ou seja,


estar ciente da própria existência individual, diferenciar a representação de si
mesmo em relação ao mundo, significa ter um tipo distinto de inteligência”?
Fato é que, até então pouco falamos a respeito de consciência, e para tratá-la
seria preciso ter estudado bastante a respeito, desse modo, talvez essa postura
pode ser o resultado da composição de outras. Em todo o caso, como é dos
assuntos mais tratados pelas ciências cognitivas contemporaneamente, fica como
postura a ser tomada no campo.

 Sobre complexidade:

Aqui estou referindo-me a crença dos cientistas quanto aos mecanismos


necessários para promover inteligência. Alguns pesquisadores supõem que o
aumento de complexidade nos sistemas (geralmente associado ao aumento de
elementos interatuantes) por si só faz emergir o que chamamos de inteligência,
outros vão afirmar que a inteligência só é possível através da combinação certa
dos elementos certos, ou seja, certos sistemas com características especiais
produzem comportamentos inteligentes, independente da sua complexidade.

 Sobre representação:

“Os estados mentais internos representam situações exteriores?” Trata-se de


posicionar-se quanto à idéia de que o ser inteligente possui um modelo interno como
uma metáfora do mundo externo ou se as estruturas internas tem uma natureza diferente
desta. Envolve distinguir os modelos de IA que atribuem significado às estruturas
internas dos que não trabalham nessa perspectiva.
72

 Sobre emoções:

“A inteligência é algo que engloba as emoções, sentimentos, desejos, crenças e


todas as formas de processos inconscientes?” Essa última postura ao mesmo tempo que
abrange muitos fenômenos, ao mesmo tempo mistura-se com sua pergunta inversa: “IA
é apenas racionalidade”? Alguns cientistas encaram a dependência dos
comportamentos em relação a todos esses aspectos do organismo diferencia formas de
inteligência.
73

8. Conclusão
Em todo o trabalho que realizamos até aqui, procuramos fazer uma revisão
histórica e conceitual da Inteligência Artificial enquanto campo científico. Dessa
maneira, nos foi permitido conceber a IA não como uma criação recente, mas como o
ápice de uma longa tradição cultural, que indagava-se quanto aos mistérios da
inteligência, e a possibilidade de compreendê-la e recriá-la. Também pudemos perceber
seu estado de revolução permanente, uma vez que desde seu nascimento na década de
50, não conseguiu constituir um paradigma consensual. Além disso, a IA constitui-se
como uma ciência interdisciplinar, estando atenta aos movimentos da Psicologia, da
Biologia, da Neurofisiologia, da Matemática, da Computação, da Física, da Engenharia,
da Filosofia, da Administração, da Sociologia e da Antropologia.

Depois da identificação dos paradigmas que estão em conflito pela busca de


legitimidade dentro da IA, conseguimos construir um mapa preliminar das posições no
campo, demarcadas pelas possíveis maneiras de articular os discursos. Os paradigmas
identificados foram a IA Simbólica (subdividida entre os que dão ênfase para o
conhecimento e os que dão ênfase para a lógica), a IA Conexionista (sendo estas duas as
escolas clássicas), e novas escolas como a IA Organizacional, IA Distribuída, IA
Evolutiva, Vida Artificial, Anti-Representacionismo e a IA Construtivista. As posições
no campo definem-se através da característica que cada pesquisador atribui à IA,
relativamente às questões sobre seus propósitos, seus métodos de validação, suas
referências, sua materialidade, sua relação com ambiente, sua corporalidade, sua
racionalidade, sua intencionalidade, sua adaptabilidade, sua consciência, sua relação
com a complexidade, suas formas de representação e seu tratamento de emoções.

O trabalho desenvolvido aqui não foi fácil, uma vez que os limites do campo, o
espaço existente entre todas as áreas que interessam à IA, são muito grandes. Os
resultados não foram muito expressivos porém condizentes com a expectativa que
tínhamos, ainda que possam ter suscitado mais inquietações do que oferecido conforto.
No início dessa empreitada nos colocamos uma pergunta: “Como é compreendida a
expressão ‘Inteligência Artificial’ neste início de século XXI?”, e creio que
conseguimos alcançar “traços preliminares para uma nova resposta”.

Essa nova resposta fundamenta-se justamente em desistir de buscar uma


definição “certa” para Inteligência Artificial. A Inteligência Artificial é o campo de
articulação de uma série de discursos, e é esse jogo dinâmico que lhe dá significado.

Creio que Pierre Bourdieu apreciaria o nosso esforço. Em suas palavras: “É


preciso construir o objeto [da pesquisa científica]; é preciso pôr em causa os objetos
pré-construídos. [...] A construção do objeto é um trabalho de grande fôlego, que se
realiza pouco a pouco, por retoques sucessivos, por toda uma série de correções, de
emendas. [...] Se é verdade que o real é relacional, pode acontecer que eu nada saiba
sobre uma instituição acerca da qual eu julgo saber tudo. [...] será que vale mais
estudar extensivamente o conjunto dos elementos pertinentes do objeto construído, ou
antes, estudar intensivamente um fragmento limitado deste conjunto teórico que está
desprovido de justificação científica? A opção socialmente mais aprovada, em nome de
uma idéia ingenuamente positivista da precisão e da seriedade é a segunda [...] É por
isso que o conceito pré-construído caminha tão bem. Se vocês o aceitarem para
74

construir o vosso objeto, encontrarão listas já feitas [...] Comecem a trabalhar num
verdadeiro objeto construído e tudo se tornará mais difícil.” [BOURDIEU c].

Por fim, acredito que este trabalho tenha sido um iniciador, esboçando os limites
do campo, relocalizando a Inteligência Artificial enquanto ciência, permitindo que
novos trabalhos consigam esclarecer mais essa delimitação e partir para investigações
mais profundas dos quadros que a compõem.
75

9. Bibliografia

BARRETO, Jorge Muniz. “Inteligência Artificial no Limiar do Século XXI”. São


Paulo: UniCamp, 1999.

BENVENISTE, Émile. Problemas de Lingüística Geral II. Campinas, SP: Pontes,


1989.

BITTENCOURT, Guilherme. Inteligência Artificial – Ferramentas e Teorias. São


Paulo: Editora da UniCamp, 1996.

BOURDIEU a, Pierre. “Fieldwork in Philosophy”. In Coisas Ditas. São Paulo:


Brasiliense, 1990.

BOURDIEU b, Pierre. A Profissão do Sociólogo: Preliminares Epistemológicas.


Petrópolis-RJ: Vozes, 1999.

BOURDIEU c, Pierre. O Poder Simbólico. Lisboa: Diefel, 1989.

CHAUÍ, Marilena. Convite à Filosofia. São Paulo: Editora Ática, 1995.

CHURCHLAND, Paul & Patricia. Could a Machine Think?. Scientific American, vol.
262, n. 1. 1990.

COELHO, Helder. Sonho e Razão. 2.ªed. Lisboa: Editora Relógio d’Água, 1999.

DAMASIO, António. O Erro de Descartes – Emoção, Razão e o Cérebro Humano.


São Paulo: Companhia das Letras, 1996.

DESCARTES, Réne. Discurso do Método; Meditações; Objeções e respostas; As


Paixões da Alma; Cartas; Vida e Obra. (Os Pensadores). 2ed. São Paulo: Abril
Cultural, 1979.

ESPINOSA, Benedictus de. Pensamentos Metafísicos; Tratado da Correção do


Intelecto; Ética; Tratado Político; Correspondência; Vida e Obra. (Os Pensadores).
2ed. São Paulo: Abril Cultural, 1979.

FOUCAULT a, Michel. “Ciência e Saber”. In A Arqueologia do Saber. Rio de


Janeiro: Forense Universitária, 1995.

FOUCAULT b, Michel. “A vida: a experiência e a ciência”. In MOTTA, M. B. (org)


Arqueologia e História dos Sistemas de Pensamento. Rio de Janeiro: Forense
Universitária, 2000.

FRANKLIN, S. Artificial Minds. MIT Press, 1995.

FREUD, Sigmund. Seleção de Textos. (Os Pensadores). São Paulo: Abril Cultural,
1978.
76

GANASCIA, Jean-Gabriel. A Inteligência Artificial. Lisboa: Instituto Piaget, 1993.

HOBBES, Thomas. Seleção de Textos. (Os Pensadores). 2ed. São Paulo: Abril
Cultural, 1979.

JULIA, Didier. Dicionário da Filosofia. Rio de Janeiro: Editora Larousse do Brasil,


1969.

KHUN, Thomas. “As Revoluções como mudanças nas concepções de mundo”. In A


Estrutura das Revoluções Científicas. São Paulo: Editora Perspectivas, 1998.

KURZWEIL, Ray. The Age of Spiritual Machines. 1999.

LOCKE, John. Seleção de Textos. (Os Pensadores). 2ed. São Paulo: Abril Cultural,
1979.

McCARTHY, John & HAYES P. J. Some Philosofical Problems from the Standpoint
of Artificial Intelligence. In MELTZER, B. e MICHIE D. (eds.) Machine
Intelligence, 4. Edinburgo: University Press, 1969.

McCORDUCK, Pamela. Máquinas que piensan. Madrid: Editora Tecnos, 1991.

MINSKY, Marvin. A Sociedade da Mente. Rio de Janeiro: Livraria Francisco Alves


Editora, 1989.

MUÑOZ, Mauro Enrique de Souza. Estudos de Inteligência Artificial Construtivista.


T.I. 704, Porto Alegre: CPGCC-UFRGS, 1997.

NEWELL, Allen. The Knowledge Level. In Artificial Intelligence,18. 1982.

PIAGET, Jean. A Epistemologia Genética; Sabedoria e Ilusões da filosofia;


Problemas de Psicologia Genética; Vida e Obra. (Os Pensadores). São Paulo:
Abril Cultural, 1978.

POPPER, Karl. “Ciência, Conjecturas e Refutações”. In Conjecturas e Refutações


2ed. Brasília: Editora da UnB, 1982.

RABUSQUE, Renato. Inteligência Artificial. 1995.

RICH, Elaine. Inteligência Artificial. Editora McGraw-Hill Ltda.: São Paulo, 1988.

RIOS, Émerson. Processamento de Dados e Informática – Conceitos Básicos. São


Paulo: Editora Ática, 1993.

ROCHA COSTA a, Antônio Carlos. Para uma Revisão Epistemológica da


Inteligência Artificial. RP 54. Porto Alegre: CPGCC-UFRGS, 1986.

ROCHA COSTA b, Antônio Carlos. Sobre os Fundamentos da Inteligência


Artificial. RP 61. Porto Alegre: CPGCC-UFRGS, 1986.
77

ROCHA COSTA c, A. C. (org). Seminário de Epistemologia da Inteligência


Artificial. RP 122. Porto Alegre: CPGCC-UFRGS, 1990.

RUSSELL, Bertrand. Seleção de Textos. (Os Pensadores). 2ed. São Paulo: Abril
Cultural, 1979.
SAPARINA, Yelena. A Cibernética está em Nós. Rio de Janeiro: Editora Fon-Fon e
Seleta, 1967.

SARTRE, Jean Paul. Seleção de Textos. (Os Pensadores). 2ed. São Paulo: Abril
Cultural, 1979.

SEARLE, John. Is the Brain’s Mind a Computer Program?. Scientific American,


vol. 262, n. 1. 1990.

SILVA, Gastão Pereira da. Compêndio de Psicologia. Belo Horizonte: Livraria Cultura
Brasileira Limitada, 1974.

SIMONS, G. L. Introdução à Inteligência Artificial. Lisboa: Clássica Editora, 1986.

TURING, Alan. “Computação e Inteligência”. In TEIXEIRA, João de Fernandes (org).


Cérebros Máquinas e Consciência – Uma introdução à filosofia da mente. São
Carlos: Editora da UFSCar, 1996.

VICCARI, Rosa Maria (org). Fundamentos da Inteligência Artificial. Relatório de


Pesquisa 215. Porto Alegre: UFRGS, 1993.

WILLIAM JAMES. Seleção de Textos. (Os Pensadores). 2ed. São Paulo: Abril
Cultural, 1979.
78

Comentários

- Sobre IA Comportamental (Luís Otávio)

E o que isso tudo tem a ver com o que falávamos antes? São exatamente esses dois
tipos de abordagens que competem hoje em dia, por exemplo, para serem os dominantes
na maneira que se desenvolvem os agentes de interface em Inteligência Artificial, onde
pode-se dotar um robô com um esquema hierárquico de controle de dados básicos (I.A.
Simbólica) ou pode-se apenas dá-lo instruções bastante genéricas, a partir das quais, por
método de tentativa e erro, o robô aprende a andar evitando esbarrar em objetos,
fugindo de cantos, etc. (I.A. Comportamental). O primeiro é um caso típico de
hierarquia, organização; enquanto o segundo, meshwork, aleatória. Esses tipos de
estruturas aparecem aos montes na natureza, e é praticamente impossível encontrar
qualquer uma dessas estruturas em estado puro; tudo tem miscelânea e hierarquia. A
divisão em espécies e os ecossistemas são exemplo, respectivamente, de hierarquia e
miscelâneas que emergiram da natureza.
Nesse momento, a pergunta que deve estar coçando as idéias de vocês é: qual dos 2
é melhor? E aqui entra o pulo do gato: não se pode estabelecer a superioridade de uma
dessas estruturas sobre a outra, porque elas são aplicáveis a situações distintas.
Suponham dois robôs que tenham sido programados para servir salgadinhos em uma
festa, um com I.A. Comportamental, outro com I.A. Simbólica. No primeiro caso -
meshworks - o robô é mais flexível e capaz de reagir melhor a situações novas; já o
segundo - strata - aprende a se mover pela sala mais rapidamente porque já tem
informação prévia.

- Falar sobre o futuro da IA (Luís Otávio)

- Ler obras do Brooks (Luís Otávio)

- Arrumar os Pensadores na Bibliografia, Rocha Costa c ... acertar isso

View publication stats

You might also like