Professional Documents
Culture Documents
net/publication/281862947
CITATIONS READS
0 295
1 author:
SEE PROFILE
Some of the authors of this publication are also working on these related projects:
All content following this page was uploaded by Filipo Studzinski Perotto on 18 September 2015.
Trabalho de Diplomação
Palavras Chave:
1 – Epistemologia da Inteligência Artificial. 2 – Inteligência Artificial.
3
Agradecimentos
A Nova Máquina
Sumário
Resumo ................................................................................................................. 6
1. Introdução ......................................................................................................... 7
2. Uma Justificativa Epistemológica ..................................................................... 9
3. A História que Envolve a Inteligência Artificial ............................................... 12
3.1. Ilusão e Engenharia ............................................................................. 13
3.2. Filosofia ............................................................................................... 16
3.3. Matemática .......................................................................................... 19
3.4. Teoria Computacional ......................................................................... 20
3.5. Cibernética ........................................................................................... 22
3.6. Tecnologia Computacional .................................................................. 24
3.7. Psicologia ............................................................................................ 26
4. A História da Inteligência Artificial ................................................................... 33
5. Os Paradigmas da Inteligência Artificial ............................................................ 45
5.1. IA Simbólica ........................................................................................ 45
5.2. IA Conexionista ................................................................................... 48
5.3. Novos Paradigmas ............................................................................... 49
5.4. IA Construtivista .................................................................................. 52
6. As Críticas à IA .................................................................................................. 57
7. IA: Discursos e Conceitos .................................................................................. 62
8. Conclusão ........................................................................................................... 73
9. Bibliografia ......................................................................................................... 75
6
Resumo
1. Introdução
Neste início de século XXI, as expectativas com relação aos resultados futuros
que os estudos sobre Inteligência Artificial poderão trazer para a humanidade estão
sendo mais uma vez levantadas. Mesmo assim, tanto para a sociedade, quanto para a
própria comunidade científica, nem o significado dessa expressão (‘inteligência
artificial’), nem o paradigma que a envolve como ciência estão claramente definidos.
Torna-se necessário, assim, tratar das questões epistemológicas (filosóficas) da
Inteligência Artificial (IA).
Nossa intenção será, assim, esboçar uma resposta para a seguinte pergunta:
“Como é compreendida a expressão ‘inteligência artificial’?”. O primeiro empecilho
para isso é a história. Os conceitos, bem como as ciências, possuem significados apenas
dentro de seus contextos históricos, por isso é preciso fazer uma delimitação temporal:
vamos buscar a compreensão contemporânea da expressão, os discursos aceitos nesse
início de século XXI. Ainda assim, essa restrição não nos libera da necessidade de fazer
uma análise histórica dos processos de transformação da IA, uma vez que sua forma
atual é, em algum grau, resultado de suas formas anteriores.
“As imagens públicas da Inteligência Artificial têm sido criadas ao longo dos
anos através da incapacidade de gerar uma definição clara e precisa da disciplina, das
controvérsias sobre seus propósitos e objetivos, e ainda da produção de sistemas que
aliam o fantástico ao maravilhoso. Por detrás escondeu-se um trabalho persistente na
busca de teorias científicas, de princípios orientadores e unificadores, de hipóteses
sobre a verdadeira natureza da mente.” [COELHO].
Enfrentemos o desafio.
9
Kuhn vai mostrar ainda que a ciência não está numa evolução constante, ela
sofre rupturas paradigmáticas. Velhas formas de conceber a realidade são substituídas
por novas, invalidando velhos resultados. Afirma a ciência como um empreendimento
1
Conjunto de concepções que envolve uma determinada ciência e dá sentido à pesquisa.
10
“Nessas disciplinas chamadas história das idéias [...] a atenção se deslocou das
vastas unidades descritas como épocas (continuidades) para fenômenos de ruptura. [...]
Redistribuições recorrentes fazem aparecer vários passados, várias formas de
encadeamento, várias hierarquias de importância, várias redes de determinações,
várias teleologias, para uma única e mesma ciência, à medida que seu presente se
modifica [...] Analisar positividades é mostrar segundo que regras uma prática
discursiva pode formar grupos de objetos, conjuntos de enunciações, jogos de
conceitos, séries de escolhas teóricas. [...] São a base para produzir o conhecimento”.
[FOUCAULT b].
Mas Foucault não limita-se à crítica da “história das idéias”, propondo métodos
para manter a objetividade na reconstituição histórica dos discursos. O “arqueólogo do
saber” (como chama) deve identificar as regularidades discursivas de um dado contexto
histórico, e compreender como o contexto foi sendo transformado a partir do embate
entre esses discursos. É assim que buscaremos dar sentido ao processo de formação da
Inteligência Artificial enquanto ciência, em um primeiro momento reconstituindo essa
história de práticas discursivas, para depois identificarmos seus paradigmas
contemporâneos com suas diferenças e suas equivalências.
12
“Este livro é uma história da inteligência artificial. [...] os seres humanos que
estavam presentes quando esta arte se transformou em ciência – na realidade, os
causadores dessa transformação – falam por si mesmos nessa páginas, contando-nos
não só como ocorreu, mas também seus sonhos e esperanças pessoais. [...] A ciência é,
acima de tudo, um empreendimento humano. Está povoada por seres humanos, e não
por uma solitária verdade (ainda que haja verdades dentro dela)”.
A história será contada em duas partes. Inicialmente, uma visão geral de linhas
da história que não são propriamente a história da Inteligência Artificial, mas que se
conectam com ela por antecedê-la ou acompanhá-la. Fazem parte dessa história
“marginal” a Ilusão, a Engenharia, a Filosofia, a Matemática, a Computação, a
Tecnologia e a Psicologia. Depois sim, mergulharemos na história própria deste ramo de
pesquisa científica, a Inteligência Artificial, razoavelmente demarcado por certas datas,
certas idéias e certas pessoas.
13
2 Silvestre II conheceu o ábaco através dos árabes, porém ele é um instrumento de cálculo
chinês do século XIII a.C. [RIOS].
14
viviam naquele início de Idade Moderna não poderia perceber a enorme diferença que
há entre uma estátua que move a cabeça, faz reverências, caminha e golpeia um gongo
na hora certa, e uma estátua que responde a perguntas e prediz o futuro. Ilustrado numa
frase de Arthur C. Clarke: "Qualquer tecnologia suficientemente avançada é
indistinguível da mágica”.
3 Lord George Gordon Byron é o poeta do romantismo intimista. Ada Lovelace, personagem
importante da nossa história, é sua filha. [McCORDUCK].
15
3.2. Filosofia
4 Babbage conta, em sua biografia, que desde pequeno se interessava por matemática, e que
sua mãe o levava em exposições de máquinas, onde fascinou-se pelos autômatos. Tendo
estudado matemática em Cambridge, foi um importante personagem para o desenvolvimento
da ciência na Inglaterra. [McCORDUCK].
5 os cartões perfurados são dispositivos criados por Joseph-Marie Jacquard (1752-1832) para
automatizar a fabricação de tecidos estampados nas modernas indústrias têxteis da época. O
desenho formado pelos furos faz o padrão da estampa. Lady Lovelace escreve, sobre a
Máquina Analítica, que “teria padrões algébricos da mesma forma que o Tear de Jacquard tem
padrões de telas”. [BITTENCOURT]
16
Até agora havíamos negligenciado o caminho da filosofia, mas ele também tem
papel fundamental em nossa história. A oposição entre Materialismo e Espiritualismo
surgiu com os filósofos da Grécia Antiga, e é uma questão que toca a inteligência
artificial por questionar se a mente é algo material ou abstrato, se depende do corpo ou
não. A consciência da morte e os rituais de sepultamento são tão antigos quanto os
Homens de Neanderthal (50.000 a.C.). E na idéia de sobrevivência após a morte está
implícito um certo dualismo, entre corpo que morre e alma que sobrevive.
[BITTENCOURT]
Depois da Grécia Antiga, outro período marcante para a filosofia ocidental foi o
Século XVI. Ele deu início a profundas transformações na visão de mundo ocidental.
No tempo e no espaço, abrem-se novos horizontes: eruditos redescobrem as antigas
doutrinas filosóficas e científicas forjadas pelos gregos e em nome das quais torna-se
possível constituir uma sabedoria nova, oposta às concepções que prevalecem na Idade
Média. Eclodem o Renascimento Cultural, as Reformas Religiosas, a colonização de
outros continentes descobertos pelos navegadores europeus, e a constituição de novas
concepções políticas. [DESCARTES]
“[...] Mas o que me contentava mais nesse método era o fato de que por ele,
estava seguro de usar em tudo minha razão [...] além disso, sentia, ao praticá-lo, que
meu espírito se acostumava, pouco a pouco, a conceber mais nítida e distintamente seus
objetos. [...] Seus princípios deviam ser todos tomados à Filosofia” [DESCARTES]
6 A harmonia musical tem uma relação matemática, de acordo com a freqüência das notas
musicais. Por exemplo, a cada intervalo de oitavas, a freqüência da nota dobra.
17
Ainda no mesmo livro, Descartes expõe uma idéia que ficou conhecida como
teoria dos animais-máquinas. Segundo escreve, os animais seriam como autômatos.
Não têm psiquismo, e seus movimentos se reduzem a um conjunto de processos
puramente materiais (mecânicos e químicos). [JULIA]. Em outra obra, o “Tratado do
Homem”, parece estar a ponto de declarar que os seres humanos são máquinas também,
máquinas extraordinárias, possuidoras de mente e alma, mas máquinas. Talvez a
condenação de Galileu em 1633 pela Inquisição tenha-o feito recuar. [McCORDUCK]
Thomas Hobbes (1588 – 1679), também dedicou-se a fazer uma teoria sobre a
mente. Sua filosofia abre espaço para o racionalismo e o empirismo. Ele debateu com o
próprio Descartes sobre o dualismo, sustentando uma posição materialista (“o espírito
não é outra coisa senão o movimento de certas partes do corpo orgânico”7). Para ele,
cada aspecto do comportamento humano é simplesmente uma evidência de um
movimento interno, causado por medos ou interesses. Hobbes também observou
aspectos associativos da mente, o fato de que os nossos pensamentos estão associados
entre si e não necessariamente de forma lógica, mas sim contingente. [HOBBES]. Uma
frase dita por ele caberia perfeitamente a um pesquisador de IA: “a lógica é o mesmo
que computação simbólica e manipulação de fórmulas [e] o raciocínio reduz-se e
compreende-se como um tipo de cálculo”. [COELHO]
John Locke (1632 – 1704) dava mais ênfase para a racionalidade humana. Tendo
sido um firme combatente do Inatismo8, no seu “Ensaio sobre o entendimento
humano”, Locke afirma que as fontes de todo o conhecimento são a experiência
sensível e a reflexão. Concebeu a mente humana, no momento do nascimento, como
uma “tábula rasa”, uma espécie de papel em branco, onde o ser humano vai escrevendo
o conhecimento que aprende durante a vida. A partir da composição de idéias simples,
obtém-se idéias mais complexas. [LOCKE]
Por fim, a física elaborada por Isaac Newton (1642 – 1727) foi decisiva para
selar a crença moderna no poder da razão. Usando adequadamente a matematização e o
empirismo, Newton elaborou uma teoria consistente para sistematizar, num todo único,
a astronomia de Kepler (1571 – 1670) com a mecânica de Galileu Galilei (1564 – 1642).
O Universo podia ser explicado pela racionalidade humana. Estava plantada a semente
do Iluminismo, que floresceria plenamente no século XVIII.
Dos escritos do século XVIII, um que nos interessará será o livro do médico
francês Julien Offray de La Mettrie, publicado em 1747 e intitulado “O Homem
Máquina”. La Mettrie queria lembrar aos filósofos que os processos mentais de uma
pessoa estavam profundamente conectados a seu estado físico. As substâncias físicas
afetam o pensamento: dieta, drogas, cansaço. Acabou por construir um modelo para
explicar o ser humano através da metáfora da máquina (que usou com a intenção
deliberada de escandalizar). “Chamarmo-nos de máquina ajuda-nos na nossa
autocompreensão, não nos define, tampouco limita a essência humana”. Denis Diderot
(1713 – 1784) incluirá algumas dessas idéias na famosa “Enciclopédia”. Mas o fato
importante entre tudo isso é que, ao final do século XVIII, o “homem como máquina” já
8 O Inatismo remonta à Platão, afirmando que o espírito já nasce possuindo todas as idéias, e
que a experiência sensível apenas faz com que elas se revelem. Descartes também era
defensor de que algumas das idéias do ser humano tinham de ser inatas.
19
A proposta de Kant não é uma unanimidade, e vale muito mais como a primeira
crítica à objetividade do conhecimento. Uma das críticas partirá do filósofo alemão
Georg Friedrich Hegel (1770 – 1831), que, já no século XIX, irá propor “a razão como
a unidade necessária entre o objetivo e o subjetivo”, resgatando a importância da
dialética9 como método de construção do conhecimento. [CHAUÍ]
3.3. Matemática
Kurt Gödel (1906 – 1978), numa publicação de 1931, daria resposta negativa
para as duas primeiras questões, demonstrando a incompletude de todo o sistema
axiomático expressivo o suficiente para conter a teoria dos números. A argumentação de
Gödel mostra que em sistemas complexos (como a matemática) existem enunciados
verdadeiros que não podem ser demonstrados. A matemática não é completa e não pode
ser provada consistente. [BITTENCOURT].
Em 1947, Turing recebe a visita de Norbert Wiener, onde tratam das idéias
fundamentais da cibernética. No mesmo ano escreve um artigo chamado “Intelligent
Machinery”. O resumo do artigo evidencia sua ousadia: [McCORDUCK]
Ainda nesse artigo Turing faz a comparação do ser humano com a máquina,
propondo a semelhança funcional entre uma câmera filmadora e um olho, entre um
microfone e um ouvido, entre um robô com servomecanismos e os membros dos
movimentos, e completa: [McCORDUCK]
3.5. Cibernética
10 Wiener e seus colegas utilizaram o termo cibernética em referência ao físico do Século XIX,
Clerck Maxwell, que já escrevia sobre mecanismos de realimentação. A palavra se deriva de
uma deformação latina do grego “kybernetes”, que significa “piloto”.
23
Norbert Wiener (1894 – 1964) foi um garoto prodígio. Aos dezoito anos
receberia a titulação de doutor pela Universidade de Harvard, e dali foi estudar lógica
com Russell e depois com Hilbert, até estabelecer-se no departamento de matemática do
MIT. Junto com seu amigo, o psicólogo mexicano Arturo Rosenblueth, idealizava um
instituto científico interdisciplinar. Ambos fascinaram-se pelas analogias que se podia
fazer entre os mecanismos eletrônicos e os biológicos. Seu encontro aconteceu durante a
Segunda Guerra Mundial. Wiener e seu colega Julien Bigelow estavam estudando
servomecanismos (dispositivos que usam realimentação para impulsionar um
mecanismo, tal como um termostato em uma geladeira), e os três juntos idealizaram um
modelo do sistema nervoso que explicava algumas de suas atividades mais
características como processos circulares, saindo do cérebro para os músculos e
voltando ao cérebro pelos órgãos sensoriais. Se hoje essa idéia não desperta muita
emoção, em 1943, quando foi publicada, deixou os leitores atônitos. [McCORDUCK].
A Segunda Guerra Mundial, com todo a barbárie que encerrou, tirou muitos dos
intelectuais e cientistas de seus trabalhos para participarem de pesquisas para a guerra.
Quase todos os personagens da nossa história, que viveram nesse período foram nela
envolvidos de alguma forma. Nesse período nasceu o computador na sua concepção
moderna. Em 1940, Turing construiu, para o serviço de inteligência britânica, um
computador operacional usando a tecnologia de relés chamado Heath Robinson. Em
1943, essa máquina seria substituída pelo Colossus, que utilizava válvulas. Ambas
foram construídas especificamente para decifrar mensagens alemãs cifradas com a
máquina Enigma. [McCORDUCK].
“As atividades e funções do sistema nervoso humano são tão complicadas que
possivelmente nenhum mecanismo simples será capaz de reproduzi-las. [...] o trabalho
de McCulloch e Pitts [...] prova que qualquer coisa que pode ser descrita
exaustivamente e sem ambigüidade, qualquer coisa que possa expressar-se com
palavras por completo é, ipso facto realizável por meio de uma rede neuronal finita
apropriada”.
Von Neumann seguiu pistas nas distintas influências da IA. Estudou matemática
em Zurique com George Polya (que mais tarde daria aulas a Allen Newell), interessava-
se por lógica formal e arquitetura de computadores, e em 1944 havia se reunido com
Howard Aiken, de Harvard, coinventor do MARK 1, com o cibernético Norbert Wiener,
com o lógico Walter Pitts e com o neurofisiologista Warren McCulloch para formarem
a “Sociedade Teleológica” e discutirem suas idéias. Infelizmente, já em 1956, enquanto
preparava seu pronunciamento para uma convenção em Yale, von Neumann teve
descoberto um câncer, que se desenvolveu rapidamente e causou sua morte. Essas
últimas notas foram publicadas postumamente sob o título de “The Computer and the
Brain” (1958), onde pretendia descrever o funcionamento do cérebro a partir de um
ponto de vista matemático. [McCORDUCK].
continuam a aprimorar, sendo a tecnologia vigente ainda hoje, nesse início de século
XXI. Essa nomenclatura (por gerações) já não é tão usada hoje em dia, até por que
novas gerações (depois da quarta) não se tornaram muito claras, mas fato é que em 1985
os japoneses lançaram o projeto “Quinta Geração” e recentemente lançaram o projeto
“Sexta Geração”. No livro de Helder Coelho, “Sonho e Razão”, essas classes já estão
colocadas, sendo a quinta geração caracterizada por forte paralelismo e processamento
do conhecimento, a sexta geração por processamento neuronal, e a sétima geração por
processamento molecular. Essas novas tecnologias estão na iminência de romper as
barreiras da tradicional eletrônica do silício, mas (apesar de alguns experimentos
promissores) ainda não são uma realidade. [COELHO].
Por fim, a evolução dos computadores chega aos nossos dias marcada pela
produção de microcomputadores (o primeiro lançado pela Digital Equipment
Corporation em 1973), e pela popularização dos computadores a partir do advento do
computador pessoal (PC) na década de 80. [BITTENCOURT]. A informática na
sociedade contemporânea (duas coisas que se desenvolvem em ritmo muitíssimo
dinâmico) causou um impacto que pode ser vista como uma revolução. Alguns
sociólogos mesmo especulam sobre a “era da informação”, a contemporaneidade
ocidental, comparável à Revolução Industrial do século XVII. As máquinas
modificando os hábitos, a cultura, as relações pessoais, as relações de trabalho, e modo
de compreender o mundo.
3.7. Psicologia
Esta é outra ciência que, assim como as Ciências Sociais e, como a própria
Inteligência Artificial (tema deste trabalho), vive uma grande luta para afirmar-se como
uma ciência legítima (uma vez que essa idéia ainda guarda resquícios do materialismo
científico). Talvez esse seja um fardo para todas as ciências humanas, que em algum
momento precisam lidar com a subjetividade, com o significado, e não apenas com os
fenômenos explícitos. Algumas obras do século XVI já usavam o termo “Psicologia”,
que da origem grega significa “o estudo da alma”, porém o vocabulário só foi ser
definitivamente adotado por Kant, e hoje a melhor definição (ainda que vaga) seria
“ciência do comportamento” [SILVA].
Das escolas ainda vivas, uma das mais antigas foi fundada por John B. Watson.
Para essa escola só é válida a conduta objetivamente verificável como objeto de estudo
da Psicologia. Sua teoria ficou conhecida por Behaviorismo ou Comportamentalismo, e
reduz toda a psique11 ao princípio do estímulo-resposta. Watson desconsidera, assim,
toda a discussão sobre se o ser humano é dotado de consciência ou não. [SILVA]
A hipótese dos arcos não tem muita credibilidade entre os cientistas, mas o fato
é que os reflexos condicionados existem através do córtex cerebral. Dessa forma, a
Escola de Pavlov vai justificar a interpretação da psique através desses fenômenos.
Alguns dos sinais que desencadeiam esses reflexos são provenientes do mundo externo,
comuns a nós e aos animais. Porém, destacam-se nos seres humanos um segundo
sistema de sinais, que se processa por meios inteligentes. Uma palavra passa a ser um
sinal, a partir de seu valor semântico, e a “compreensão” é um reflexo condicionado.
Ainda assim, Pavlov não subestimava a complexidade e a diversidade dos
comportamentos humanos, respondendo com muita reserva sobre a extensão de sua
teoria aos seres humanos. Seu estudo desencadearia também uma pesquisa sobre
hipnose (indução de estados mentais através das palavras). [SILVA].
11 ”Psique” é um termo geral para incluir todos fenômenos psíquicos. Uma nova palavra para o
que se chamava “alma” na filosofia.
28
No início do século XX, Alfred Binet e seus colegas propuseram uma série de
testes para “medir a inteligência”. Sua motivação foi um pedido do governo francês que
desejava saber por que algumas crianças não atingiam bom desempenho escolar. Binet
contemplava a inteligência como uma combinação de faculdades diversas, medidas em
uma escala gradual. Apesar de ter falecido em 1911 sem terminar seu projeto, as bases
lançadas por ele foram aprimoradas e são válidas ainda hoje, usadas nos testes de Q.I.14
Wolfgang Kohler, colega de Wertheimer, escreveu, com relação a Gestalt que “de
acordo com a definição funcional mais geral do termo, é possível que se deva incluir os
processos de aprendizagem, de memória, de luta, de atitude emocional, de pensamento,
de atuação, etc.”. [McCORDUCK], [SILVA].
William James fala dos vários “eus” que existem numa pessoa. São, na verdade,
as imagens de possíveis “eus”. Ele escreve: “Assim, podemos observar o paradoxo de
12 teoria que explica as coisas pela sua função. Considera os sistemas como organismos, que
tem partes que se relacionam entre si. Essas relações tem uma função, para suprir uma
necessidade do organismo.....
13 “Gestalt” tratuz-se por “forma”. Termo usado pelo estruturalista Kurt Goldstine, para
descrever uma teoria global do organismo, para entendê-lo como um todo, sem isolar suas
partes. [JULIA].
um homem que se sente envergonhado por ser o segundo melhor remador do mundo. O
fato de que ele seja capaz de derrotar toda a população do globo menos um nada
significa. Comprometeu-se a derrotar aquele único homem, e enquanto não o fizer,
nada mais importa. Aos seus próprios olhos, ele é incapaz de derrotar quem quer que
seja, e se ele assim pensa, ele assim é”. [SILVA]
15 Consciência é uma idéia relacionada ao sentimento que cada um tem de sua existência e
de seus atos. Na definição do Dicionário de Filosofia organizado por Didier Julia: “A consciência
desenvolve-se com a memória e o retorno sobre si mesmo”. [JULIA].
30
porém, se lembrava na hipnose. Freud concluiu, dessa experiência, que existem na vida
psíquica idéias latentes, ou capazes de consciência, sem que nenhuma resistência se
oponha a isso. Tais idéias podem, de um momento a outro, deixar de reaparecer na
consciência, tolhidas por algum embaraço, ou ainda por atração do inconsciente. Há
idéias que, por motivo de outra ordem, são recalcadas, tornando-se incapazes de
consciência. Assim, Freud propõem os conceitos de consciente (o que se acha presente
na consciência em um dado momento), subconsciente (representações latentes, capazes
de consciência) e inconsciente (o que não volta a ser consciente), não associando-os a
nenhuma parte do cérebro específica. [SILVA].
Freud distingue três sistemas na psique humana: o id, o ego e o superego. O id,
entendido como parte mais antiga da mente, é um depósito de forças instintivas e fica
inteiramente inconsciente. O ego fica entre o subconsciente e o consciente, resultante
dos processos de percepção. É o ego que organiza a defesa, assegura a adaptação à
realidade, regula os conflitos, opera a censura (filtro que estabelece bloqueios,
impedindo que as idéias do inconsciente passem para o subconsciente), e representa a
razão, a sabedoria, a motilidade, a percepção e a memória. Exercendo essas funções, ele
não só pode entrar em conflito com os outros sistemas, como suas próprias funções
podem entrar em conflito entre si. O superego relaciona-se com os sentimentos de culpa
e com as aspirações do ego. O movimento dado à esses sistemas ocorre pela natureza
humana que divide-se entre a busca do prazer e a autopreservação. [FREUD].
processos mentais e os processos físicos do sistema nervoso, não é por essa via que se
compreenderá a psique humana. [SILVA], [JULIA].
Não poderíamos encerrar nossa incursão pela psicologia sem falar de Jean
Piaget. Piaget iniciou sua vida acadêmica estudando biologia na sua cidade natal na
Suíça, porém, após doutorar-se, começou a estudar filosofia e psicologia. Os estudos
como biólogo fizeram-no suspeitar de que os processos de conhecimento poderiam
depender dos mecanismos de equilíbrio orgânico. Por outro lado, Piaget convenceu-se
de que tantos as ações externas quanto os processos de pensamento admitem uma
organização lógica. Assim, no decorrer de sua vida, Piaget tratou de estudar a criança,
tentando entender os processos de formação das estruturas cognitivas e do
conhecimento. Assim, legou-nos tanto uma teoria sobre a inteligência humana, quanto
uma epistemologia, sobre a gênese dos conceitos das ciências. [PIAGET].
é a inteligência interiorizada e se apoiando não mais sobre a ação direta, mas sobre
um simbolismo, sobre a evocação simbólica pela linguagem, pelas imagens mentais,
que permitem representar o que a inteligência sensório-motora, pelo contrário, vai
aprender diretamente [...]. A Linguagem é solidária do pensamento e supõe, pois, um
sistema de ações interiorizadas. Chamaremos de ‘operações’ ações interiorizadas, quer
dizer, executadas não mais material, mas interior e simbolicamente, e que podem ser
combinadas de todas as maneiras [...] É durante o primeiro ano que a criança constrói
precisamente todas as subestruturas [que alguns pensavam inatas]: a noção de objeto,
de espaço, de tempo, sob a forma das seqüências temporais, a noção de causalidade,
em suma, as grandes noções das quais o pensamento se servirá ulteriormente”.
[PIAGET].
(se razoavelmente persistentes) fariam a rede se modificar, ainda que já não fosse mais
aleatória. Essa modificação como resposta a um estímulo é aprendizagem, afirmava
McCulloch, e uma rede circular poderia incorporar não só aprendizagem como
memória, capacidade de predição, intencionalidade e capacidade de escolha. A idéia era
tão atraente que durante os anos seguintes muitos pesquisadores se dedicaram a ela,
incluindo a tese de doutorado de Marvin Minsky, em Princeton. [McCORDUCK].
Embora desde a década de 70 MacKay tenha voltado seu enfoque para o estudo
e a modelagem do cérebro humano, naqueles finais da década de 40 perguntava-se a
respeito da natureza da informação. MacKay pensava que, para um artefato ser
autenticamente autônomo, tinha que ser capaz de responder e de se ajustar a novos tipos
de informação (aprendizado). Ele seria então capaz de levar uma disciplinada existência
independente da intervenção humana, uma existência com pelo menos um sentido
abstrato de intencionalidade: a busca da adaptação, do equilíbrio. O comportamento
dessa máquina não precisaria estar predeterminado por seu programador, uma vez que
poderia estabelecer metas a si mesma, em torno da meta maior, que é a própria busca de
equilíbrio. MacKay também percebeu a necessidade de se adotar sistemas
probabilísticos, pois não acreditava na redução do pensamento humano a proposições
verdadeiras ou falsas. Em 1955, voltou a considerar estes problemas, desta vez por
convite de Claude Shannon e John McCarthy, que estavam compilando seu conhecido
volume “Automata Studies”. Seu artigo, de caráter mais filosófico, intitulado
“Problemas Epistemológicos dos Autômatos”, propõe um modelo capaz de aprender e
16 Grey Walter, neurofisiologista em cujos laboratórios nasceu o Ratio Club, e que fez
importantes descobertas sobre a atividade elétrica do cérebro, construiu um autômato
interessante que ficou conhecido por “Tartaruga de Walter”. Tratava-se de um aparato
eletromecânico que contornava obstáculos e voltava para sua “toca” quando sua bateria
necessitava ser recarregada. [McCORDUCK].
35
Em 1952, o psiquiatra W. Ross Ashby publicou seu livro “Design for a Brain”,
propondo um método para imitar a capacidade do cérebro de gerar comportamento
adaptativo. Ashby escreve: “Eu tenho tentado deduzir o que é necessário, que
propriedades deve possuir o sistema nervoso, se comporta-se ao mesmo tempo de forma
mecânica e adaptativa [...]. o organismo vivo livre e seu entorno, tomados juntos,
formam um sistema absoluto [...] a máquina atua para manter determinadas variáveis
dentro de certos limites [...] é um sistema que se autoorganiza, que responde a
estímulos, modificando seu comportamento, e em certo sentido sua forma, para atingir
a estabilidade” (Ashby construiu uma máquina nesses moldes que denominou
Homeostato). Em seu livro, suscita também uma outra discussão pertinente: se a IA esta
buscando criar uma inteligência, ou se está tentando simular especificamente a
inteligência humana. “[...] Se o cérebro vivo falha em certos aspectos característicos,
então eu quero que meu cérebro falhe também, porque tal falha seria uma evidência de
que tenho um bom modelo”. [McCORDUCK].
A idéia da autoorganização pareceu dar uma nova luz ao modo com que se
entendia o funcionamento do cérebro. Um dos sistemas autoorganizativos mais
conhecido foi criação do grupo de pesquisas liderado por Frank Rosenblatt, ex-colega
de Marvin Minsky, chamado Perceptron17, em 1959. Originalmente tinha três níveis: o
primeiro era uma rede de fotocélulas que representavam a retina do olho, reagindo à
estímulos luminosos; o segundo eram unidades de associação que recolhiam os
impulsos provenientes das fotocélulas; e o terceiro nível dava os sinais de resposta. Os
elementos em cada nível eram conectados com cabos de forma aleatória. O Perceptron
aprendia a reconhecia satisfatoriamente muitos padrões (formas, letras, etc.).
[McCORDUCK].
Uma das pessoas que se desentendia facilmente com Rosenblatt era Marvin
Minsky, talvez por que o perceptron não era distinto das redes neuronais, modelo que
lhe induzia ao mesmo tempo fascínio e frustração. Muitas discussões acaloradas
ocorreram entre Rosenblatt e Minsky no final dos anos 50 e início dos 60. Apesar disso,
Minsky ainda dedicaria bastante do seu tempo a estudos teóricos sobre os perceptrons e
outras máquinas baseadas no conexionismo. Em 1961, numa conferência sobre o tema,
conheceu o jovem investigador Seymour Papert, a quem mais tarde McCulloch levaria
ao MIT, e que iria tornar-se companheiro de Minsky em diversos projetos. Um
McCarthy era o principal organizador desse evento (que ficou conhecido entre
os cientistas da IA como a Conferência de Dartmouth). Ele conhecia Minsky e Shannon
porque trabalharam juntos nos laboratórios Bell em 1952, e sabia de seu interesse pelo
tema. Conheceu Rochester por causa de um computador que a IBM deu de presente ao
MIT, e nas poucas conversas descobriu que também se interessava pelas máquinas
inteligentes. A fundação Rockfeller forneceu algum subsídio, e os quatro organizadores
convidaram outras pessoas que compartilhavam sua crença na IA. Entre essas pessoas
estavam Trenchard More e Arthur Samuel da IBM, Oliver Selfridge e Ray Solomonoff,
do MIT, e quase na última hora, duas pessoas que não eram muito conhecidas da RAND
Corporation de Santa Mónica e do Instituto Carnagie de Pittsburgh, Allen Newell e
Herbert Simon. Esta idéia de última hora acabaria sendo muito proveitosa.
[McCORDUCK]. Ainda outros fariam algumas visitas ao grupo, para mostrar trabalhos
relacionados, como por exemplo Alex Bernstein, da IBM, que iria falar do programa de
xadrez que estava fazendo. [McCORDUCK].
18 Se fizéssemos uma genealogia lógica, Turing deveria ser a referência central dessa
conferência. Em seus artigos já estava clara a necessidade de construir inteligência em
máquina por meios simbólicos, mas a história tem sua própria forma de se constituir, e
aconteceu que as pessoas que estavam na Conferência de Dartmouth tinham sido pouco
influenciados pelo trabalho de Turing. [McCorduck]
37
Durante a conferência discutiu-se muito sobre o nome que deveria ser dado ao
novo campo. A expressão “Inteligência Artificial” foi cunhada pelo próprio McCarthy,
termo que defendeu com energia. Era necessário distinguir de uma vez por todas esse
campo de estudo das máquinas inteligentes, dos autômatos em geral. A nomenclatura
acabou vingando, apesar de que não era unânime entre os pesquisadores que lá estavam.
[McCORDUCK].
Cada um deles fez planos para os futuros trabalhos. Minsky tentaria encontrar
maneiras de permitir à máquina elaborar dentro de si mesma um modelo abstrato do
ambiente em que se encontra, para, a partir dele fazer experimentos externos. Devido a
este estudo preliminar interno os experimentos externos pareceriam ser inteligentes e
imaginativos. Rochester pretendia descobrir como dotar a máquina de originalidade na
solução dos problemas. McCarthy pretendia criar uma linguagem de alto nível, que
pareceria com o linguagem natural e permitiria programar o computador para o
aprendizado. Shannon planejou aplicar os conceitos da teoria da informação aos
modelos de cérebro para poder sintetizar alguns de seus aspectos. Nenhum era ingênuo
38
o suficiente para esperar concluir a tarefa em 1956, mas também não imaginaram que
estariam projetando sua vida profissional para as próximas décadas, como foi o caso de
Minsky, McCarthy, Newell e Simon. Rochester e Shannon acabaram interessando-se
por outras áreas e permaneceram como espectadores benévolos da IA nos anos
seguintes. [McCORDUCK].
Claude Shannon havia estado pensando sobre IA já fazia muito tempo. Sua tese
de mestrado, apresentada no MIT em 1937, falava da aplicação de álgebra booleana em
sistemas de engenharia. Shannon foi uma das pessoas que mais trabalhou, naquela
época, para tentar mostrar que o computador era uma ferramenta muito mais geral e
poderosa do que uma “calculadora gigante”. Em 1950 publicou um artigo intitulado “A
Chess-Playing Machine”, onde assinala que as novas máquinas podiam “trabalhar
simbolicamente com elementos que representavam palavras, proposições ou outras
entidades conceituais”. Descreve também um modelo de máquina jogadora de xadrez.
Seu modelo usava métodos inteligentes para calcular as jogadas, porém não aprendia.
Mais tarde, em 1953, ele voltaria ao assunto, e proporia para a comunidade científica os
seguintes problemas: como fazer uma máquina organizar-se em uma hierarquia de
níveis, como parece que a inteligência humana está organizada, e fazer com que a
máquina vá progredindo gradualmente nesta hierarquia? Como podemos programar o
computador de tal forma que ele próprio possa escrever seus programas?
[McCORDUCK].
19 O Teórico Lógico descobriu uma prova para o teorema 2.85 mais simples e satisfatória do
que a proposta por Whitehead e Russell. Simon escreveu a Lord Russell comunicando-lhe a
nptícia, que o deixou encantado. [McCORDUCK].
39
maneira muito mais fortuita e muito mais genérica em um curto período de tempo, e
queríamos compartilhar o cenário com igual autoridade, o que não estava muito bem.
Estávamos falando especulativamente sobre o que pensávamos que queríamos fazer,
enquanto eles falavam como cientistas”. [McCORDUCK].
Herbert A. Simon tem uma destacada reputação nos campos das ciências
políticas, administração de empresas, psicologia e informática. Tendo feito importantes
contribuições à filosofia e à economia, recebeu o Prêmio Nobel de Economia em 1978.
Ao contrario de Newell, Simon gosta muito de ler ficção científica. Entrou na RAND
em 1952 e seu trabalho envolvia o estudo do comportamento humano em organizações.
Achava extremada tanto a posição dos que defendiam que o comportamento humano é
completamente moldado pelo meio, como também a dos que lhe atribuíam muita
racionalidade. Em um bem sucedido livro publicado em 1947, “Administrative
Behavior”, Simon mostra como as pessoas, mesmo sendo muito racionais, podem
defender idéias diferentes, dependendo da posição em que se encontram. Sobre a
RAND, conta-nos: “processamento da informação já era uma expressão usada por
40
Newell quando eu ali cheguei, em 52, e comecei a transferir isso para as minhas idéias
sobre tomada de decisão e decisões relacionadas com suas premissas”.
Simon pensou a mente como uma máquina lógica: “Quando comecei a pensar
que se podia ver o computador como um aparato para processar informação, não só
números, então a metáfora que eu estava utilizando, a da mente como algo que tomava
algumas premissas, as fundamentava e processava para extrair conclusões começou a
transformar-se na idéia de que a mente era algo que tomava algumas entradas
(programas e dados), processava sobre os dados e produzia uma saída”. E em 1954, ao
conhecer o experimento de Oliver Selfridge estabeleceu novas metas.
Arthur Sammuel foi um homem dedicado aos jogos de IA. Foi ele que, em 1953
aprimorou o algoritmo MiniMax proposto por Claude Shannon em 1950. [COELHO].
Samuel dedicou-se muito a seu programa jogador de damas, o que deixava a IBM um
pouco insatisfeita, uma vez que o havia contratado para projetar computadores. O jogo
de damas não é trivial, e Sammuel descobriria isso nos 20 anos que dedicou ao projeto,
tanto desenvolvendo técnicas de comportamento e aprendizado para a máquina, quanto
buscando compreender todas as nuances do jogo de damas (do qual não gostava muito).
[McCORDUCK].
20 Tendo sido chamado de drosófila da IA pelo matemático russo Alexander Kronrod em 1965,
(em homenagem à espécie de insetos usados por Thomas Morgan no estudo da genética) por
ser para ela um tipo de laboratório. Desde o século XVI sonhava-se com a possibilidade de um
autômato poder jogar xadrez. [COELHO]. Exemplo disso o Barão Wolfgang Von Kempelen, que
dizia ter construido um autômato que jogava xadrez. Foi apresentado à imperatriz Maria Tereza
da Áustria em 1769, e consistia em uma grande caixa sobre a qual encontrava-se o busto de
um turco, em escala natural, que movia as peças de um tabuleiro. Depois descobriu-se que não
era mecânico, havia um jogador humano dentro da caixa que manipulava as peças. Dizem as
fontes do mundo dos espetáculos que o turco ganhou até de Napoleão Bonaparte.
[McCorduck]
41
Durante os anos seguintes muitas técnicas novas surgiram. Quase todas surgiram
com o objetivo de resolver dificuldades práticas que a IA enfrentava. Paralelamente,
contribuíram para a evolução do Paradigma Simbólico e do Paradigma Conexionista, e,
em alguns casos, permitiriam vislumbrar rupturas, ainda que parciais, com relação a
eles. Em 1965, a já citada Lógica Difusa, proposta por Zadeh, foi o primeiro método
para escapar da inflexibilidade do verdadeiro ou falso. Em 1975 Holland propôs os
algoritmos genéticos e Barto (retomando uma idéia de von Neumann) os autômatos
celulares, dando início ao que alguns chamam de IA Evolutiva. Em 1976 Shortliffe
divulga o MYCIN, um dos mais famosos sistemas especialistas baseado em regras. Em
1982 Hopfield propõe o algoritmo de Backpropagation, recuperando a credibilidade do
modelo conexionista. Na década de 80, surge o projeto quinta geração, difunde-se o uso
de métodos de raciocínio probabilísticos, raciocínio indutivo e raciocínio por analogia.
Em 1987 Chapman propôs modelos para o planejamento e para o improviso. Por fim, a
década de 90 foi marcada pelo surgimento de uma série de modelos híbridos, utilizando
elementos dos diversos discursos da IA. [COELHO], [BITTENCOURT], [BARRETO].
5. Paradigmas da IA
5.1. IA Simbólica
Edward Feigenbaum (que foi aluno de Simon) é dos que dão ênfase ao
conhecimento. A idéia pode ser expressa em dois princípios complementares: “a
procura compensa a falta de conhecimento”, e “o conhecimento elimina a necessidade
da procura”. Feigenbaum foi um entusiasta dos Sistemas Especialistas23, defendendo o
estudo dos modelos de engenharia do conhecimento em detrimento dos sistemas
formais e das lógicas. Para ele, é o conhecimento que ajuda a restringir o crescimento
exponencial na procura de uma solução. Em conjunto com Douglas Lenat, fundou o
projeto CYC, em 1983, com o objetivo de montar uma base do conhecimento
semelhante ao senso comum. É um conhecimento enciclopédico que está sendo possível
pelo estudo de processos de aquisição do conhecimento e modelos de representação
mais flexíveis. [COELHO].
Nas palavras de Newell e Simon, num outro artigo publicado em 1976, podemos
entender o que querem dizer por sistema físico de símbolos: “O sistema físico de
símbolos consiste em um conjunto de entidades, denominadas símbolos, que são
padrões físicos e que podem ocorrer como componentes de outro tipo de entidade
denominada expressão (ou estrutura de símbolos). Dessa forma, a estrutura de
símbolos é composta de diversos casos (ou fichas) de símbolos relacionados de alguma
forma física (como por exemplo, uma ficha estar junto a outra). A qualquer instante, o
sistema conterá uma coleção dessas estruturas de símbolos, Além dessas estruturas, o
sistema também contém uma coleção de processos que operam sobre as expressões
para produzir outras expressões: processos de criação, modificação, reprodução e
destruição. O sistema simbólico físico é uma máquina que produz através do tempo
uma coleção evolutiva de estruturas de símbolos, tal sistema existe em um mundo de
objetos mais amplos do que as próprias expressões simbólicas”. Daí surgirá a hipótese
de que “um sistema físico de símbolos possui os meios necessários e suficientes para a
ação inteligente geral”. [RICH].
nível lógico (dos bits) e o nível simbólico (das expressões). A proposta de Newell é que
se perceba mais um nível acima desses todos, o nível do conhecimento.
5.2. IA Conexionista
Ainda que não muito intensamente, Minsky, desde aí, mostra-se preocupado
com a viabilidade da inteligência artificial comparada com as propostas da filosofia
(fenomenologia) e da psicologia (epistemologia psicogenética), tendo inspirado-se
também em outros modelos mais simples que já surgiam no próprio campo da IA. A
teoria dos frames inclui metas, expectativas e pressuposições, generalizações e
analogias. Os terminais dos frames estão normalmente preenchidos com valores padrão,
que tratam as informações incompletas, servindo como técnica para superar a lógica, e
as interconexões entre frames ajudam a encontrar o frame mais adequado para uma dada
situação. Diversos frames podem encaixar-se a uma mesma situação, o que significa que
o sistema possui pontos de vista diferenciados que pode adotar. Em 1977, Roger Shank
irá propor o uso de “scripts”, estruturas semelhantes aos frames, para fazer sistemas de
compreensão de linguagem natural. [ROCHA COSTA c].
tenham rabo. [...] As exceções são um fato da vida porque poucos ‘fatos’ são sempre
verdadeiros”. [MINSKY].
Mas nesse livro, Marvin Minsky propõe toda uma nova teoria da mente. Para
ele, o cérebro pode ser visto como um conjunto de agentes (cerca de 300 microteorias)
sendo que metade do sistema nervoso central é composto à custa de agentes gestores. É
justamente uma sociedade de agentes cognitivos na mente, sendo que essas se
relacionariam através de transações, de acordo com disponibilidades e necessidades,
reorganizando prioridades. Nas primeiras frases do prólogo, explica: “Chamarei de
Sociedade da Mente este esquema, no qual cada mente é feita de vários processos
menores. Estes denominaremos ‘agentes’. Cada agente mental sozinho só pode fazer
alguma coisa simples que não necessite, de modo algum, de nenhuma mente ou
pensamento. Contudo ao agruparmos esses agentes em sociedades – de determinadas
maneiras muito especiais – acabamos nos deparando com a verdadeira inteligência”. E
segue: “As mentes são simplesmente aquilo que os cérebros fazem. [...] As mentes
parecem estar separadas da existência física de modo muito natural. Não importa o que
os agentes são; só importa o que fazem e a que estão ligados. [...] As mentes não são
coisas, estando fora do alcance dos sentidos, no entanto estão ligadas a coisas
chamadas cérebros. [...] Será que todos os outros tipos de processos possuem um tipo
correspondente de mente? Isso poderia conduzir a um debate. Um lado poderia insistir
que é só uma questão de grau, porque as pessoas possuem mentes bem desenvolvidas
enquanto os tijolos e as pedras não possuem quase nenhuma. Um outro lado poderia
tentar delinear um limite mais acentuado, argumentando que apenas as pessoas podem
ter mentes, e talvez certos animais. Que lado está certo? Não se trata de uma questão
de certo e errado, pois o debate não é sobre um fato, mas tão-somente quando é sensato
usar uma certa palavra. [Seja como for], a diferença reside no fato de que os cérebros
usam processo que modificam a si próprios”.
Uma vez estabelecida a teoria, Minsky passa a responder uma série de questões
que darão sustentação a seu modelo: Como trabalham os agentes? De que são feitos, De
que modo se comunicam? De onde vieram os primeiros agentes? Nascemos todos nós
com os mesmos agentes? Como criamos novos agentes e modificamos os antigos?
Quais são os mais importantes tipos de agentes? O que acontecem quando os agentes
discordam? Como é possível essas redes necessitarem ou desejarem? Como grupos de
agentes podem fazer aquilo que os agentes sozinhos não conseguem? O que lhes dá
unidade ou personalidade? Como eles podem compreender? Como podem ter
sentimentos ou emoções? Como podem ser conscientes ou conhecedores de si mesmos?
[MINSKY].
Jorge Muniz Barreto ainda destaca uma outra corrente de pensamento mais
recente, chamada IA Evolutiva, inspirada na Biologia, mais especificamente na teoria da
diferenciação pelos mecanismos de seleção natural. Apesar de já ter sido referida em
1960 por Lawrence Fogel, como Programação Evolucionária, a IA Evolutiva tem como
sua principal ferramenta os Algoritmos Genéticos, propostos inicialmente por J. H.
Holland em 1975. Tais algoritmos mostraram-se muito interessantes para resolver certos
problemas de otimização. Eles modelam uma população de objetos abstratos. Esses
objetos são manipulados a partir de operadores inspirados na evolução biológica
(operadores genéticos), como recombinação e mutação, e as soluções vão
“sobrevivendo” de acordo com a seleção. [BARRETO].
5.4. IA Construtivista
Rocha Costa estava preparando o terreno para dar um passo decisivo: a busca
por uma inteligência artificial fundamentada na Epistemologia Psicogenética de Jean
Piaget. Ele foi co-autor de um pequeno artigo publicado pela pesquisadora Rosa Maria
Vicari, também da UFRGS, minha orientadora nesse trabalho. Intitulado “Inteligência
em Máquina, Inteligência de Máquina e Inteligência Artificial”, o artigo tenta
compreender a diferença entre tais conceitos e encontrar suas ligações. Os autores
começam o artigo dizendo que, em vista do rumo das pesquisas em IA, em plena década
de 90, suas considerações deveriam recair sobre a aprendizagem, adaptação ao meio e
raciocínio. Na IA, estas atividade se refletem na aquisição de conhecimento e na
mudança de comportamento dos sistemas, definindo assim a “inteligência em máquina”.
Através do termo “inteligência de máquina”, os autores querem propor uma
desantropomorfização da inteligência artificial, ou seja, desvinculá-la da inteligência
humana. Esta é a interpretação que Rocha Costa faz das idéias de Piaget, que resultaram
na sua tese de doutoramento. Significa dizer que o ser humano é dotado de um certo
tipo de inteligência porque tem certos tipos de objetivos, de estruturas e um certo tipo de
56
Quando o agente exclui esquemas, novos são gerados. Essa geração pode
acontecer por diferenciação ou por geração criativa. A diferenciação funciona como
especialização de esquemas, utilizada quando um determinado esquema tem uma boa
avaliação, mas não funciona bem para algum caso específico de seu domínio. Essa
geração se dá através de uma reprodução com cruzamento entre o esquema em questão
e outros esquemas similares, gerando novos esquemas. A reprodução criativa se dá
quando a população está baixa, então novos esquemas são gerados por cruzamento e
mutação. Esse modelo é uma boa implementação das teorias de assimilação e
acomodação piagetianas. O agente, durante sua vida, fica constantemente buscando o
equilíbrio de seus esquemas cognitivos com o meio ambiente. [MUÑOZ].
57
6. As críticas à IA
A discussão filosófica sobre a IA nunca deixou de existir. Mesmo nos momentos
em que o pragmatismo dominou o campo, as questões sobre o significado da IA
estiveram sempre de fundo. No decorrer dos anos, os otimistas e os descrentes da IA
fizeram um grande debate, sobre sua viabilidade e seus limites. Os argumentos que se
iam colocando nunca deixaram de estar um pouco misturados com as paixões pessoais
de cada personagem dessa história. Franklin, em seu livro “Artificial Minds”, publicado
em 1995, dedica um capítulo todo para contá-la, e nele me baseio. [FRANKLIN].
Muitas críticas à IA foram feitas, desde antes do seu nascimento, a maioria delas
no entanto tem caráter dogmático ou moral. São argumentos interessantes, no entanto
não podem ser tecnicamente solucionados, e dependem do julgamento e crença de cada
um. Entre eles figuram as idéias de que “as máquinas não podem pensar porque são
máquinas, e máquinas não pensam”. Se, por definição, as máquinas não pensam, nada
pode ser dito em contrário. Isso faz parte do conjunto de suposições metafísicas da
pessoa, e está incorporado ao modo como o mundo faz sentido para ela. Também
relaciona-se com o ideal humanista, de que aceitar a possibilidade da máquina pensar é
ceder um pouco da nossa identidade humana, e ter nossa dignidade tocada. Não
condeno nem aprovo tais posturas, e vamos deixá-las de lado agora. Vamos trabalhar
com as opiniões fundamentadas no próprio escopo da ciência, entre as quais a primeira
crítica importante partiu do filósofo Dreyfus. [McCORDUCK], [FRANKLIN],
[TURING].
avançar durante dois mil anos, mas que só agora têm ferramentas para expressar e
colocar em prática. A encarnação dessa intuição mudará drasticamente nossa
concepção de nós mesmos. Se, por outro lado, a inteligência artificial resultar
impossível, então teremos que distinguir a razão humana da artificial, e isso também
mudará drasticamente nossa concepção de nós mesmos.” [McCORDUCK].
Mas o ponto mais importante tem a ver com a suposição de Dreyfus sobre a
incapacidade do computador para igualar certas funções humanas essenciais. No seu
modelo alternativo, uma concepção fenomenológica, acentua o papel do corpo humano
ao organizar e unificar nossa experiência, no papel que desempenha a situação ao
proporcionar um fundamento para que o comportamento possa ser ordenado sem ser
ferreamente sujeito a regras. O computador, da forma como vinha sendo pensado pela
IA naquela época, não contextualizava-se, não baseava-se em intenções e em
necessidades, não distinguia, em uma situação, quais os aspectos relevantes, tendo que
considerar todas as coisas indistintamente. A vida é, de certa forma, o que os homens
fazem dela. A análise de fatos e regras só tem sentido dentro de um contexto e para um
certo propósito. Assim Dreyfus conclui que nem todos os domínios são descritíveis
através de regras, e que existem outros tipos de mecanismos como reconhecimento de
similaridades, uso de experiência, visão holística, etc. Questionando assim a
necessidade de um “Sistema de Símbolos”. Ele usa o exemplo de um motorista
iniciante: esse sim, tem consciência de certas regras do trânsito e fica constantemente
fazendo uso delas. Já um motorista experiente não age dessa forma. [McCORDUCK],
[FRANKLIN].
Idéias semelhantes podem ser lidas nos textos do grande sociólogo Pierre
Bourdieu, considerando que o indivíduo incorpora uma série de valores constituídos
durante sua trajetória, sua vivência social, além de um senso prático para atuar no seu
cotidiano. Ele resume sua teoria em uma entrevista dada em 1985: “Uma análise nem
intelectualista nem mecanicista da relação entre o agente e o mundo [...] minha
representação da ação – o ajustamento das disposições do agente [vontades] à sua
posição [no mundo], das esperanças às chances [...] Sendo produto da incorporação
da necessidade objetiva, o habitus, necessidade tornada virtude, produz estratégias
que, embora não sejam produto de uma aspiração consciente de fins explicitamente
colocados a partir de um conhecimento adequado das condições objetivas, nem de uma
determinação mecânica de causas [externas], mostram-se objetivamente ajustadas à
situação. A ação comandada pelo ‘sentido do jogo’ tem toda a aparência da ação
59
Apenas para terminar o caso Dreyfus, saiba-se que em seu livro, havia
referências do xadrez como um exemplo emblemático das abusadas pretensões da IA.
Dreyfus insinua que o xadrez seja uma das tarefas que exigem certas capacidades
tipicamente humanas (ou talvez exclusivamente humanas). Fato é que Seymour Papert
convidou Dreyfus, então, para que jogasse uma partida de xadrez com o programa
MacHack, desenvolvido por Grenblatt. Parece que a partida foi bastante dramática, e a
máquina desbancou o filósofo. Simon escreve a respeito dessa histórica partida:
“Dreyfus disse algumas coisas realmente feias sobre o xadrez porque estava pensando
no nosso velho programa de xadrez NSS da RAND, e sabia que uma criança de dez
anos o havia derrotado. Então apareceu o MacHack, que era muito mais potente, e de
alguma forma Dreyfus se sentiu induzido a jogar contra ele, e a máquina lhe deu uma
boa lição”. [McCORDUCK].
25 Apenas para constar, talvez Dreyfus realmente tenha sido movido por ideais humanistas,
mas Bourdieu com certeza não, uma vez que é descendente de uma tradição estruturalista e
anti-humanista. Bourdieu, estaria envolvido em outro tipo de discussão, no âmbito das ciências
sociais, e não posso afirmar se alguma vez estave pensando em IA.
60
que cada script descrevia seqüências comuns de eventos (por exemplo o script de jantar
no restaurante diz que primeiro entra-se no restaurante, depois escolhe-se a mesa, depois
consulta-se o cardápio...); quando indagado sobre a história, o programa, através das
palavras da história, identificava um script adequado e, também por associações de
certas palavras, tentava dar uma resposta de acordo com a previsão do script. Pensando
nesse assunto, Searle iria propor o seu problema do “Quarto Chinês”. [FRANKLIN].
Uma resposta muito interessante dada ao desafio do Quarto Chinês foi proposta
por Franklin ao dizer que existem diferentes “níveis de compreensão”. Se o computador
consegue dar respostas certas, ele tem algum nível de compreensão, ainda que menor do
que o de um chinês nativo, mas já maior do que o de um tijolo, que não consegue sequer
responder. Podemos estender essa explicação a um outro domínio: quando dizemos que
alguém compreendeu algo, imaginamos que tenha feito uma série de associações
mentais de conceitos, memórias, idéias e sensações, contextualizando-as na situação em
que se encontra, e de acordo com suas intenções, ainda que a única coisa que tenhamos
observado é que a pessoa deu uma resposta aceitável. Por exemplo, se eu falo para você
a palavra “cavalo”, você imagina um cavalo, pensa na experiência de já ter cavalgado,
desenvolve sentimentos em relação a uma futura cavalgada, recorda algum
acontecimento, associa a idéia de cavalo à idéia de fazenda, etc. Assim como aconteceu
com Dreyfus, Searle foi por muitos ignorado, por outros difamado, sendo que as
respostas ao quarto chinês muitas vezes pareciam dogmáticas por parte dos
pesquisadores da IA, como por exemplo “é claro que você entendeu chinês!”.
[FRANKLIN], [SEARLE].
61
Seja como for, o artigo dos Churchlands traz a idéia (refutada por Searle) de que
a inteligência emana dos sistemas complexos, como as redes neuronais, e que se
houvesse milhões de Searles trabalhando juntos num “Ginásio Chinês”, então eles
teriam compreendido chinês. Até aí a análise é simplista, mas os Churchlands enfocam
uma outra idéia interessante: eles mostram que a IA Simbólica e a IA Conexionista
sugerem dois tipos de processos inteligentes diferentes. A arquitetura de regras pode ser
mais eficiente para certos tipos de problemas, porém o forte paralelismo das redes
neuronais pode ser vantajosos para outros tipos. O cérebro estaria mais aproximado da
arquitetura neuronal, por isso a impossibilidade de se replicar a inteligência humana
através de regras. [CHURCHLAND].
O debate sobre a Inteligência Artificial tem avançado através dessas idéias, ainda
que poucos resultados conclusivos tenham surgido. Importa-nos saber que todas essas
posturas intelectuais vão, de alguma maneira, refletir-se na IA sob a forma de posições
no campo.
62
máquina. Logo, nenhum animal ou máquina pode pensar”. Turing, apesar de não se
impressionar muito com esse tipo de argumento, resolve tratá-lo buscando sua negação
do argumento dentro da própria teologia: “Parece-me que o argumento [na tentativa de
preservar o poder de Deus] implica uma séria restrição à sua onipotência. [...] Não
devíamos acreditar que Ele tem a liberdade de conceber uma alma a um elefante, se
quisesse? Poderíamos esperar que ele só usasse tal poder por via de uma mutação que
dotasse o elefante de um cérebro devidamente aperfeiçoado para atender às
necessidades de sua alma. Um argumento semelhante pode ser invocado no caso das
máquinas. [Construindo máquinas inteligentes estaríamos] providenciando moradas
para as almas que Ele cria”. Em todo o caso, não há nenhuma implicação evidente
entre alma e inteligência, ou alma e livre-arbítrio. Essas associações são metafísicas e
dependem de se acreditar nelas ou não. Os cientistas da IA Forte certamente não
acreditam, e isso não implica na necessária negação de sua religiosidade, e de sua
crença na existência de almas. [TURING].
Algumas outras objeções citadas por Turing, estão bem sintetizadas em duas
categorias propostas por Pamela: O “Argumento das Diferenças Insuperáveis”. Existem
inúmeras versões desse mesmo argumento, que tem o seguinte formato, proposto por
Turing: “Concordo que você seja capaz construir máquinas que façam todas essas
coisas mencionadas, mas você nunca conseguirá construir uma máquina que faça X”,
onde no lugar de X podemos colocar “que seja bela”, “amigável”, “tenha iniciativa”,
“tenha senso de humor”, “distinga o certo do errado”, “cometa erros”, “apaixone-se”,
“delicie-se com morangos com creme”, “faça alguém se apaixonar”, “aprenda com a
experiência”, “use corretamente as palavras”, “seja tema de seus próprios
pensamentos”, “possa criar e ser original”, “tenha autonomia”, “tenha consciência”,
“tenha inconsciente”, “tenha tudo isso ao mesmo tempo”. Turing responde: “Nenhuma
justificativa é, no geral, dada para esses enunciados. Creio que eles estão, na maior
parte, fundamentados no princípio da indução científica. Um homem vê milhares de
máquinas durante a sua vida. Do que observou tira certo número de conclusões gerais.
As máquinas são feias; cada uma delas foi construída para um objetivo muito limitado;
quando se lhes pede algo um pouco diferente, elas se tornam inúteis; a variedade de
comportamento de qualquer uma delas é muito pequena,; etc. Naturalmente, a
conclusão é de que essas serão, necessariamente, propriedades das máquinas em geral.
Evidentemente a aplicação desse princípio pode resultar inconsistente”. Uma outra
forma de expor as mesmas idéias, porém de outro modo está classificado no que Pamela
chamou de “Argumento da Não Existência de Exemplos”, sintetizado no seguinte
discurso: “Se os computadores são, em princípio, capazes de apresentar tais
comportamentos inteligentes, todavia ninguém conseguiu fazê-los até agora”.
[TURING], [McCORDUCK].
65
Minsky, numa conversa com Pamela McCorduck fala sobre isso: “O fato é que
ao longo da história, as pessoas que se consideraram a si mesmas ‘mecanicistas’,
tenderam a ser algo mais que isso. Não sei se há uma palavra para os denominarmos.
Devia ser, digamos, ‘simplistas’. Exemplos notáveis são gente como Pavlov e Watson, e
toda a família de pessoas que acreditavam no condicionamento como base para a
aprendizagem, os associacionistas mecânicos. Ainda que superficialmente poderiam ser
considerados mecanicistas porque parecem falar da mente como uma máquina mais
abertamente, seu problema era que a imagem que faziam da máquina era
precomputacional”. E a idéia é complementada pela própria Pamela: “O problema,
creio, tem a ver com as associações que fazemos com a noção de mecanismo, ou de
máquina; ‘máquina’ faz pensar em motores a vapor, britadeiras, coisas que fazem um
ruído metálico infernal, os cérebros ressoam baixinho [...]” [McCORDUCK].
Helder Coelho faz uma distinção entre Cognição e Inteligência: “Tal como a
inteligência, a cognição também é um conceito multifacetado que temos dificuldade em
entender com rigor. E por isso não é de admirar que alguns misturem amiúde
inteligência e cognição, o que torna ainda mais confusa a abordagem da IA, muitas
vezes considerada como um dos pilares das ciências cognitivas [...] A inteligência tem
a ver com o poder analítico, isto é, com a capacidade para apanhar o cerne de um
problema ou as características principais de um problema, em outras palavras, a
capacidade para resolver problemas, e otimizar os métodos para alcançar objetivos.
[...] A cognição abarca mais os elementos mentais da identidade, personalidade e auto-
imagem, sob um certo conjunto de valores e atitudes, e da percepção à ação. Ora, essas
qualidades mentais, como o orgulho, a coragem, a lealdade e o amor (e os seus
complementos) nada têm a ver com a inteligência, embora, uma vez colocados os
grandes objetivos, seja através da inteligência que descobrimos os caminhos para os
atingirmos”. Embora a nomenclatura adota por Helder Coelho não seja a que temos
adotado aqui, interessa-nos justamente essa preocupação com todos os aspectos da
inteligência humana, que ele chama “cognição”. [COELHO].
67
Mas voltemos a Turing. Havíamos deixado as últimas objeções citadas por ele
para tratar agora. Todas elas podem ser enquadradas numa grande categoria que vou
chamar de “Argumentos de Natureza do Processo”. Entre eles estão o da não
equivalência entre o neurônio da IA Conexionista e o neurônio biológico, e o de que a
cognição humana não tem a mesma natureza das regras da IA Simbólica. Ambos
constituem posições no campo. [TURING]. Um dos destaques da IA Contemporânea,
Raymond Kurzweil supera esse tipo de argumento em seu livro “The Age of Spirtual
Machines”. Um dos exemplos que dá é a de uma pessoa que, em algum lugar no futuro,
começa a fazer uso de implantes biônicos e neuroimplantes (cuja tecnologia, segundo
afirma, ainda que muito primitiva, já se mostrou possível). Se essa pessoa substituísse
todos os seus sistemas sensores e intelectuais (cada sistema biológico substituído por
um similar biônico), seria ainda a mesma pessoa? Se por um lado não, uma vez que
ocorreram mudanças no seu corpo, por outro lado continua tendo a mesma
personalidade e a mesma forma de inteligência. [KURZWEIL].
através de uma análise decisiva, possamos mapear o espaço de articulação dos discursos
no campo da IA:
A partir de tudo o que vimos até aqui, podemos chegar a alguns resultados.
Primeiramente, a postura que faz o limiar da Inteligência Artificial é a crença de que:
A partir daí podemos listar uma série de “discursos atômicos”, que se articulam
para formar as posições no campo da IA:
Sobre os propósitos:
Sobre a observação:
Sobre a natureza:
Sobre a referência:
Sobre a materialidade:
Sobre o modelo:
Sobre o ambiente:
Sobre corporalidade:
Sobre a racionalidade:
Sobre intencionalidade:
Sobre adaptação:
Sobre a consciência:
Sobre complexidade:
Sobre representação:
Sobre emoções:
8. Conclusão
Em todo o trabalho que realizamos até aqui, procuramos fazer uma revisão
histórica e conceitual da Inteligência Artificial enquanto campo científico. Dessa
maneira, nos foi permitido conceber a IA não como uma criação recente, mas como o
ápice de uma longa tradição cultural, que indagava-se quanto aos mistérios da
inteligência, e a possibilidade de compreendê-la e recriá-la. Também pudemos perceber
seu estado de revolução permanente, uma vez que desde seu nascimento na década de
50, não conseguiu constituir um paradigma consensual. Além disso, a IA constitui-se
como uma ciência interdisciplinar, estando atenta aos movimentos da Psicologia, da
Biologia, da Neurofisiologia, da Matemática, da Computação, da Física, da Engenharia,
da Filosofia, da Administração, da Sociologia e da Antropologia.
O trabalho desenvolvido aqui não foi fácil, uma vez que os limites do campo, o
espaço existente entre todas as áreas que interessam à IA, são muito grandes. Os
resultados não foram muito expressivos porém condizentes com a expectativa que
tínhamos, ainda que possam ter suscitado mais inquietações do que oferecido conforto.
No início dessa empreitada nos colocamos uma pergunta: “Como é compreendida a
expressão ‘Inteligência Artificial’ neste início de século XXI?”, e creio que
conseguimos alcançar “traços preliminares para uma nova resposta”.
construir o vosso objeto, encontrarão listas já feitas [...] Comecem a trabalhar num
verdadeiro objeto construído e tudo se tornará mais difícil.” [BOURDIEU c].
Por fim, acredito que este trabalho tenha sido um iniciador, esboçando os limites
do campo, relocalizando a Inteligência Artificial enquanto ciência, permitindo que
novos trabalhos consigam esclarecer mais essa delimitação e partir para investigações
mais profundas dos quadros que a compõem.
75
9. Bibliografia
CHURCHLAND, Paul & Patricia. Could a Machine Think?. Scientific American, vol.
262, n. 1. 1990.
COELHO, Helder. Sonho e Razão. 2.ªed. Lisboa: Editora Relógio d’Água, 1999.
FREUD, Sigmund. Seleção de Textos. (Os Pensadores). São Paulo: Abril Cultural,
1978.
76
HOBBES, Thomas. Seleção de Textos. (Os Pensadores). 2ed. São Paulo: Abril
Cultural, 1979.
LOCKE, John. Seleção de Textos. (Os Pensadores). 2ed. São Paulo: Abril Cultural,
1979.
McCARTHY, John & HAYES P. J. Some Philosofical Problems from the Standpoint
of Artificial Intelligence. In MELTZER, B. e MICHIE D. (eds.) Machine
Intelligence, 4. Edinburgo: University Press, 1969.
RICH, Elaine. Inteligência Artificial. Editora McGraw-Hill Ltda.: São Paulo, 1988.
RUSSELL, Bertrand. Seleção de Textos. (Os Pensadores). 2ed. São Paulo: Abril
Cultural, 1979.
SAPARINA, Yelena. A Cibernética está em Nós. Rio de Janeiro: Editora Fon-Fon e
Seleta, 1967.
SARTRE, Jean Paul. Seleção de Textos. (Os Pensadores). 2ed. São Paulo: Abril
Cultural, 1979.
SILVA, Gastão Pereira da. Compêndio de Psicologia. Belo Horizonte: Livraria Cultura
Brasileira Limitada, 1974.
WILLIAM JAMES. Seleção de Textos. (Os Pensadores). 2ed. São Paulo: Abril
Cultural, 1979.
78
Comentários
E o que isso tudo tem a ver com o que falávamos antes? São exatamente esses dois
tipos de abordagens que competem hoje em dia, por exemplo, para serem os dominantes
na maneira que se desenvolvem os agentes de interface em Inteligência Artificial, onde
pode-se dotar um robô com um esquema hierárquico de controle de dados básicos (I.A.
Simbólica) ou pode-se apenas dá-lo instruções bastante genéricas, a partir das quais, por
método de tentativa e erro, o robô aprende a andar evitando esbarrar em objetos,
fugindo de cantos, etc. (I.A. Comportamental). O primeiro é um caso típico de
hierarquia, organização; enquanto o segundo, meshwork, aleatória. Esses tipos de
estruturas aparecem aos montes na natureza, e é praticamente impossível encontrar
qualquer uma dessas estruturas em estado puro; tudo tem miscelânea e hierarquia. A
divisão em espécies e os ecossistemas são exemplo, respectivamente, de hierarquia e
miscelâneas que emergiram da natureza.
Nesse momento, a pergunta que deve estar coçando as idéias de vocês é: qual dos 2
é melhor? E aqui entra o pulo do gato: não se pode estabelecer a superioridade de uma
dessas estruturas sobre a outra, porque elas são aplicáveis a situações distintas.
Suponham dois robôs que tenham sido programados para servir salgadinhos em uma
festa, um com I.A. Comportamental, outro com I.A. Simbólica. No primeiro caso -
meshworks - o robô é mais flexível e capaz de reagir melhor a situações novas; já o
segundo - strata - aprende a se mover pela sala mais rapidamente porque já tem
informação prévia.