pontifÍcia universidade catÓlica de sÃo paulo onofre... · andrade, milena pardini, roberta...
TRANSCRIPT
PONTIFÍCIA UNIVERSIDADE CATÓLICA DE SÃO PAULO
PUC-SP
TÉRCIO ONOFRE DE LIRA
A INTELIGÊNCIA ARTIFICIAL NO CONTEXTO
DAS CIÊNCIAS COGNITIVAS
MESTRADO EM TECNOLOGIAS DA
INTELIGÊNCIA E DESIGN DIGITAL
SÃO PAULO
2011
PONTIFÍCIA UNIVERSIDADE CATÓLICA DE SÃO PAULO
PUC-SP
TÉRCIO ONOFRE DE LIRA
A INTELIGÊNCIA ARTIFICIAL NO CONTEXTO
DAS CIÊNCIAS COGNITIVAS
MESTRADO EM TECNOLOGIAS DA
INTELIGÊNCIA E DESIGN DIGITAL
Dissertação apresentada à Banca
Examinadora como exigência parcial para a
obtenção do título de Mestre em
Tecnologias da Inteligência e Design
Digital pela Pontifícia Universidade
Católica de São Paulo, sob a orientação do
professor Doutor Nelson Brissac Peixoto.
SÃO PAULO
2011
iii
BANCA EXAMINADORA
_____________________________________
_____________________________________
_____________________________________
iv
DEDICATÓRIA
Dedico esta dissertação a minha mãe,
minha filha, minhas irmãs, meus
familiares e meus amigos, devido a todo
o apoio incondicional, e aos professores
(as) envolvidos (as) os (as) quais me
possibilitaram realizar mais este
objetivo.
v
AGRADECIMENTOS
Agradeço a minha mãe Sueli, pelo amor e por sempre me apoiar em todos os
desafios que enfrento. A minha filha Manoela (Bigurinha) que com sua graça me
cativa e estimula cada dia mais a perseguir meus objetivos. Minhas irmãs Tatiana e
Jandira, por me fazerem entender e sentir o contexto família. Agradeço (em memória)
com muito carinho a minha avó Rosa, que forjou parte substancial do meu caráter.
Agradeço aos professores doutores: Nelson Brissac, Lucia Santaella, Winfred
Nöth e Sergio Basbaum pelo empenho, dedicação, críticas e pelo voto de confiança no
desafio. Agradeço muito a Edna Conti e aos professores do TIDD: Alexandre Campos,
Jorge Vieira e Demi Getsko, por iluminarem meu caminho.
Agradeço a meus familiares, por me fornecerem alegria e paz de saber que
existem: Laura, Zezinho, Manoel, Celma, Danilo (PD), Amanda, Zezo, Mônica, Gilda,
Paulinho, Felipe, Marcelo, Glauciana, Lucas, Nádia (madrinha), Odette, Salete, Israel,
Rodrigo, Ronaldo, Silvio, Alex, Junior, Nádia, Jihad, assim como os familiares mais
distantes e familiares de meus familiares.
Agradeço ao companheirismo e amizade das pessoas especiais: Luis Roberto e
família Moratti, Marcos e família Bravo, Ligia e família Zotini, Daniel e família
Gabrilli, Stephanie e família Slepicka Lattanzi, Raphael e família Cordon, Diego e
família Rodrigues Perin, Marcio e família Godoy, Luciana e família Medeiros, Thiago
e família Rocha Dias, Henrique e família Melo Cunha, Cesar e família Fornacialli,
Fabio e família Fujita, Gustavo e família Benetti, Ana Paula e família Pereira Gomes,
Tatiana e família Albuquerque, Ursula e família Sandor, Mariana Kakuichi, Renato
Carvalho, Alex de Sousa, Murilo Morales, Rafael Yamashiro, Renata Sesaki, Fabio
Cabral, Priscila Luque, Alessandra Greiner, Mariana Pollini, Ragner Vianna, Carina
Andrade, Milena Pardini, Roberta Tosin, entre outros queridos (as).
Não poderia deixar de agradecer, aos meus amigos e colegas de trabalho na
TAM Linhas Aéreas, assim como aos demais que participaram mesmo que minimante
da minha história neste projeto.
vi
“Somos no mundo, estamos no mundo, mas nosso acesso sensível ao mundo é sempre como que vedado por uma crosta sígnica que, embora nos forneça os meios de compreender, transformar, programar o mundo, ao mesmo tempo usurpa de nós uma existência direta, imediata, palpável, corpo a corpo e sensual com o sensível.”
Maria Lúcia Santaella Braga
vii
RESUMO
Atualmente existe uma vasta gama de aplicações na área da Inteligência
Artificial, porém os progressos caminham a passos curtos no que diz respeito ao
desenvolvimento de uma inteligência artificial forte. Esta dissertação busca elucidar
a multidisciplinaridade das ciências cognitivas, à qual os estudos da inteligência
artificial estão atrelados, por meio da apresentação sucinta, porém panorâmica, do
histórico de cada especialidade ou área: neurociência cognitiva, filosofia da mente,
psicologia cognitiva, a própria inteligência artificial, entre outras. Visa também
levantar os principais questionamentos e entraves existentes nas pesquisas atuais.
Focado nos objetivos das ciências cognitivas, o esforço maior deste projeto é deixar
explícito o estado da arte da inteligência artificial e seu propósito de
desenvolvimento de uma inteligência artificial forte. Portanto esta dissertação
contempla a bibliografia evolutiva dos conceitos implicados, assim como o papel das
diversas disciplinas envolvidas nos desenvolvimentos atuais da inteligência artificial
forte. Será também destacada a grande contribuição que está sendo dada às ciências
cognitivas com o estudo da semiótica cognitiva. Por mais que a área esteja
evoluindo, nota-se a necessidade de uma nova doutrina para a questão de se
desenvolver um “ser artificial”, de modo que questões algorítmicas, novos arranjos
arquitetônicos de máquina e interpretações dos signos / símbolos poderiam ser úteis
para atingir esse objetivo.
Palavras-chave: ciências cognitivas, cognição, inteligência artificial, inteligência
artificial forte.
viii
ABSTRACT
Currently there is a wide range of applications in Artificial Intelligence, but
progress goes in short steps regarding the development of a strong artificial
intelligence. This thesis aims to elucidate the multidisciplinary character of cognitive
science to which the studies of artificial intelligence are linked. The objective is to
describe succinctly, but panoramically, the history of each area such as cognitive
neuroscience, philosophy of mind, cognitive psychology, artificial intelligence,
among others) as well as to describe the main questions and barriers of actual
researches. The major effort of this project is to make explicit the state of the art of
artificial intelligence focusing on the goals of cognitive science towards strong
artificial intelligence. Therefore, this dissertation includes a bibliography of
evolutionary concepts, and the role of the various disciplines involved in current
developments of strong artificial intelligence. It will also highlight the great
contribution that is being given in cognitive sciences to the study of cognitive
semiotics. As much as the area is evolving, it is noted the need for a new doctrine to
develop an "artificial being". Algorithmic issues, new architectural arrangements of
machine and interpretations of signs / symbols could be useful to achieve this goal.
Keywords: cognitive sciences, cognition, artificial intelligence, strong artificial intelligence.
ix
SUMÁRIO
INTRODUÇÃO .......................................................................................................... 1�1. Questões da pesquisa............................................................................................ 2�
2. Objetivos .............................................................................................................. 5�
3. Estrutura da dissertação........................................................................................ 6�
CAPÍTULO I: DEFININDO CIÊNCIAS COGNITIVAS ..................................... 8�1. Áreas de Estudos nas Ciências Cognitivas ......................................................... 15�
1.1 Filosofia da Mente ...................................................................................... 16�
1.2 Psicologia Cognitiva ................................................................................... 32�
1.3 Neurociência Cognitiva .............................................................................. 47�
2 Alguns conceitos das Ciências Cognitivas ......................................................... 57�
CAPÍTULO II: Inteligência Artificial .................................................................... 63�1. Histórico e Evoluções ........................................................................................ 66�
1.1 Teste de Turing ........................................................................................... 68�
1.2 Projeto de Dartmouth ................................................................................ 71�
1.3 Inteligência Artificial e “Golden Years” ................................................... 72�
1.4 Primeira decepção “First AI Winter” ....................................................... 76�
1.5 O Quarto Chinês ........................................................................................ 79�
1.6 A retomada dos investimentos nos estudos .............................................. 84�
1.7 A Segunda parada “Second AI Winter” ................................................... 88�
1.8 Atualidades na Inteligência Artificial ...................................................... 91�
2 Desafios na Artificialização ................................................................................ 96�
CONSIDERAÇÕES FINAIS ................................................................................ 101�1.Hipóteses para Futuras Pesquisas ..................................................................... 104�
x
LISTA DE FIGURAS
Figura 1 Modelo interdisciplinar ciências cognitivas de George Miller ...................... 9�
Figura 2 Modelo em percepção de De-La-Torre e Hayward ..................................... 60�
Figura 3 Modelo conceitual do Teste de Turing ........................................................ 68�
Figura 4 Representação de uma Rede Neural ............................................................ 75�
Figura 5 Representação da Teoria do Quarto Chinês................................................. 80�
Figura 6 Representação da Lei de Moore em Desempenho de Processador.............. 92�
1
INTRODUÇÃO
Desde muito tempo existe a ambição em artificializar a mente humana por
completo, tendo hoje inclusive uma área de estudo dedicada para tal. A área da
inteligência artificial tem como objetivo e ambição desenvolver cada vez mais
máquinas inteligentes, porém para o desenvolvimento deste objeto de pesquisa serão
necessárias conceituações de alguns termos fundamentais, seus históricos e suas
evoluções.
Nos dias atuais, o mundo encontra-se repleto de dispositivos chamados
inteligentes. Os estudos na área de inteligência artificial já passam de meio século e
podem ser observados nessa absorção tecnológica global atual. Contudo, apesar de
tal progresso, sempre persistem alguns questionamentos essenciais com relação à
área. A área de estudos em inteligência artificial pertence às ciências cognitivas.
As ciências cognitivas são os estudos interdisciplinares da mente e da
inteligência, englobando a filosofia, a psicologia, a neurologia, a inteligência
artificial, assim como outras áreas. Seria um tanto utópico conseguir resultados
expressivos em inteligência artificial ignorando esta nova ciência da cognição.
Atualmente, analisando a história das áreas envolvidas, tem-se uma noção da
evolução dos conceitos e paradigmas da área.
2
1. QUESTÕES DA PESQUISA
Uma pesquisa no campo das ciências cognitivas pode ser muito esclarecedora,
porém ao mesmo tempo muito complexa e por vezes conflitante. Apesar das ciências
cognitivas terem uma fundação recente, seus questionamentos são de datas e épocas
muitas vezes remotas.
O conceito de cognição vem da antiga Grécia, com origem nos manuscritos
Platônicos e Aristotélicos. Cognição significa ato ou processo de conhecer, que
envolve atenção, percepção, memória, raciocínio, juízo, imaginação, pensamento e
linguagem. Mas a cognição é mais do que simplesmente a aquisição de
conhecimento e, conseqüentemente, a nossa melhor adaptação ao meio, mas é
também um mecanismo de conversão do que é captado para o nosso modo de ser
interno. Ela é um processo pelo qual o ser humano interage com os seus semelhantes
e com o meio em que vive, sem perder a sua identidade existencial. Ela começa com
a captação dos sentidos e, logo em seguida, ocorre a percepção. Portanto, é um
processo de conhecimento que tem como material a informação do meio em que
vivemos e o que já está registrado na nossa memória (Nöth, 2011).
Para se ter a profundidade das questões das ciências cognitivas, um dos primeiros
questionamentos da área, antes mesmo de ser fundada, foram os embates entre
dualismo e monismo que fomentavam as teorias e suposições dos filósofos da mente
e que até os dias atuais são merecedores de discussões. No dualismo, mente é
contrastada com o corpo, mas em tempos distintos, os aspectos diferentes da mente
foram o centro das atenções (Howard, 2009).
3
O dualismo foi se derivando com o tempo de uma porção de suposições e teorias,
assim também ocorreu com o monismo. As fundamentações basicamente criaram
toda uma seqüência nas idéias filosóficas, até surgirem questões particulares da
mente que seriam tratadas e desenvolvidas por outras especialidades científicas,
como a psicologia cognitiva, a neurociência cognitiva e a inteligência artificial.
A psicologia cognitiva tem o desafio de explorar os processos mentais, os quais
são processadores ativos das informações. Partindo do behaviorismo, a psicologia
cognitiva evoluiu e se ramificou em várias teorias com base em outras especialidades
relacionadas. Foi o caso da Teoria da Informação (Shannon, 1948), que criou em
outra área de atuação uma possibilidade de estudo na psicologia cognitiva.
Desde então, teve início um emaranhado de campos de estudo relacionados para
o desenvolvimento e tentativa de compreensão de como funciona a mente. Dentre os
principais estudos na psicologia cognitiva está o processamento da informação, que
utilizava modelos computacionais para simulações. A evolução deste levou à teoria
do conexionismo na qual definitivamente a área se aliava com a inteligência
artificial.
Apesar de todos os esforços, a psicologia cognitiva precisava de mais detalhes de
funcionamento das conexões cerebrais, buscando então essas respostas nas
neurociências cognitivas.
A Neurociência cognitiva cuida de pesquisar sobre os mecanismos biológicos
ligados à cognição. Com fundação recente e teorias também de épocas remotas, as
4
primeiras observações e experiências foram infinitamente simples se comparadas às
pesquisas atuais da área.
No principio de sua história suspeitava-se do formato da cabeça como diferencial
para o comportamento humano. Realizaram-se também alguns experimentos de
estimulações elétricas, até que se conseguiu dividir o cérebro humano. Na sequência
os esforços foram direcionados para a estrutura do neurônio, estimulando assim o
desenvolvimento de ferramentas que substanciassem as pesquisas. Foram criados
então os aparelhos de imagens cerebrais: fMRI, EEG, MEG, PET e SPECT.
A questão da multidisciplinaridade nas ciências cognitivas faz com que os
assuntos sejam tratados de maneiras diferentes por cada especialidade, o que provoca
pontos de vista distintos. O ideal nesse tipo de desafio seria ter o conhecimento sobre
o tratamento dado por cada área.
As questões relacionadas à inteligência artificial também ficam dependentes dos
assuntos tratados nas especialidades diversas da ciência cognitiva, o que torna a
complexidade do campo cada vez maior devido às especialidade se desenvolverem
em paralelo e sem sincronismo entre as mesmas. Soma-se a isso o fato de que o
desenvolvimento da própria área como fomentador em vários projetos e análises
acadêmicas e de mercado.
5
2. OBJETIVOS
A Inteligência Artificial Forte possui diversos tipos de abordagens, porém sempre
associada à inteligência humana ou superior a tal. A problemática atual em
inteligência artificial gira em torno justamente do desafio de se desenvolver essa
inteligência artificial forte, ou seja, desenvolver artificialmente fatores relacionados à
criação de uma mente artificial. Para apresentar o estado da arte de tal problemática,
serão desenvolvidos capítulos explanatórios sobre as disciplinas fundamentalmente
ligadas a esse campo.
As ciências cognitivas mesclam muitas disciplinas para estudos e supostas
integrações, assim a inteligência artificial faz parte de seus desenvolvimentos, tendo
como foco a simulação de processos buscando provas de validações das suposições e
teorias dos pesquisadores em ciências cognitivas.
Esta dissertação tem como objetivo fundamental, portanto, a pesquisa do estado
da arte e dos conceitos relevantes, envolvidos nos estudo das ciências cognitivas e
inteligência artificial, buscando assim montar uma base preparatória para qualquer
estudo ou desenvolvimento posterior focado na inteligência artificial forte e/ou
similares. Os temas explorados possuem ligações diretas filosóficas a serem
apresentadas por meio de hipóteses ou interpretações sugestivas, estimulando a
análise, as considerações e conclusões acerca desse objeto de estudo.
6
3. ESTRUTURA DA DISSERTAÇÃO
Para cumprir com a proposta deste projeto, a dissertação se inicia traçando, na
introdução, um olhar geral sobre o tema e descrevendo o cenário do desafio em que
as ciências cognitivas e inteligência artificial estão inseridas. A divisão dos capítulos
foi definida da seguinte forma:
Capítulo I: apresenta a definição e os conceitos das ciências cognitivas, com
ênfase na sua multidisciplinaridade. Continua com um breve histórico sobre a área de
pesquisa e seus principais pesquisadores. O capítulo será desenvolvido por meio da
definição de três áreas de especialização das ciências cognitivas, são elas: a filosofia
da mente, a psicologia cognitiva e a neurociência cognitiva. Essas especialidades
serão igualmente exploradas neste capítulo, com relação a seus conceitos gerais,
histórias e evoluções. Também serão abordadas de modo breve as tendências dos
desenvolvimentos das ciências cognitivas, nas quais aparecem as análises simbólicas
e de linguagem da mente, sempre em conexão com a filosofia, psicologia, neurologia
e inteligência artificial.
Capítulo II: apresenta a definição de inteligência artificial, conceituando sua
fundação, história e evoluções. O capítulo será dividido de acordo com a cronologia
dos principais eventos que ocorreram nas respectivas épocas, como: teste de Turing,
o projeto de Dartmouth, inteligência artificial e “Golden Years”, a primeira decepção
“First AI winter”, o quarto chinês, a retomada dos investimentos nos estudos, a
segunda parada “Second AI winter” e atualidades na inteligência artificial. Todas as
divisões do capítulo terão uma visão distinta da área e retratarão as principais
7
tecnologias descobertas e as teorias solidificadas. Nesse capítulo ainda serão
apresentados os desafios atuais para artificializar a mente.
Com isso concluído, serão então apresentadas as considerações finais da
dissertação como um todo.
8
CAPÍTULO I: DEFININDO CIÊNCIAS COGNITIVAS
Este capítulo apresentará a definição e o histórico amplamente aceitos no
campo das ciências cognitivas, de forma a situar o tema Inteligência Artificial que
será discutido no próximo capítulo desta pesquisa. Assim serão retratados os temas
mais relevantes das ciências cognitivas. Estas demonstram ser extremamente vastas e
extensas na sua multidisciplinaridade.
... realizar uma descrição completa do desenvolvimento das ciências
cognitivas constituiria hoje uma tarefa monumental, pois é estarrecedora
a quantidade de literatura sobre o assunto de que dispõe.
(SANTAELLA, 2004, p. 73)
A ciência cognitiva é o estudo científico interdisciplinar que tem como foco
pesquisar como a informação sobre tais faculdades como percepção, linguagem /
símbolos, raciocínio, pensamento, cognição e emoção, está representada e traduzida
para um sistema natural animal, humano ou mesmo visando artificializar a mesma
(computadores ou máquinas). Ela consiste no estudo de múltiplas disciplinas,
abrangendo: a psicologia, inteligência artificial, filosofia, neurociência, a
aprendizagem das ciências, a lingüística / semiótica, antropologia, sociologia e
educação. Um dos eixos centrais da ciência cognitiva é buscar uma compreensão
completa da mente / cérebro e seus processos cognitivos, pois se acredita que estes
não podem ser alcançados através do estudo apenas em um único nível ou disciplina.
Tanto a inteligência natural nos seres humanos e inteligência artificial em
computadores são temas centrais exploradas por estudiosos na área.
9
FIGURA 1
MODELO INTERDISCIPLINAR CIÊNCIAS COGNITIVAS DE GEORGE MILLER
FONTE: TRENDS in Cognitive Sciences Vol.7 No.3 March, 2003a, p.143
A ciência cognitiva envolve aspectos complexos da cognição, modelos
computacionais de processos de pensamento, representação do conhecimento e do
comportamento emergente de interação entre sistemas de grande escala. No nível
mais básico, a ciência cognitiva busca uma melhor compreensão da mente, os
processos e ferramentas de ensino e aprendizagem, das habilidades mentais e do
desenvolvimento de dispositivos inteligentes que possam ampliar as capacidades
humanas de maneira construtiva.
Uma vez que a palavra cognição se refere a perceber e conhecer,
basicamente, os cognitivistas vêem a mente como um sistema que recebe,
arquiva, recupera, transforma, transmite e comunica informação. Eles
estão interessados nos aspectos universais dos processos de informação,
buscando descobrir princípios fundamentais altamente gerais e
explanatórios do processo de informação. (SANTAELLA, 2001, p. 62)
10
Estipula-se que as tentativas de entender a mente e o seu funcionamento
tiveram inicio na Grécia antiga, quando filósofos como Platão e Aristóteles tentaram
explicar a natureza do conhecimento humano. Certamente devem ser considerados
importantes autores no decorrer dos anos, os quais se aventuraram e deram grande
contribuição para o estudo da natureza do conhecimento, como: René Descartes,
Immanuel Kant, Nicolas Malebranche, Leibniz e John Locke. Embora esses
primeiros escritores muito tenham contribuído para a descoberta filosófica da mente,
isso acabaria por levar evolutivamente ao desenvolvimento da psicologia, área que
trabalha com um conjunto completamente diferente de ferramentas e conceitos
fundamentais.
Assim, o estudo da mente permaneceu na província de filosofia até o século
XIX, quando encontrou sua expansão na psicologia experimental. Iniciaram-se então
métodos laboratoriais para o estudo de operações mentais de forma mais sistemática.
Foi criado assim por Wilhelm Maximilian Wundt o primeiro laboratório
experimental de psicologia na Universidade de Leipzig.
Dentro de algumas décadas, no entanto, a psicologia experimental foi
dominada pelo behaviorismo, que designa o comportamento como objeto mais
adequado de estudo da psicologia, usualmente definido por unidades analíticas a
respostas de estímulos. Segundo os behavioristas, a psicologia deveria se restringir a
examinar a relação entre estímulos observáveis e respostas comportamentais
observáveis. Falar de consciência e de representações mentais no contexto
behaviorista foi banido das discussões científicas respeitáveis da época.
11
Especialmente na América do Norte, o behaviorismo dominava o cenário psicológico
especialmente na década de 1950.
The history of psychology is informative. It began, 100 years ago, with an
introspective search for mind. Watson attacked introspection in his
behaviorist manifesto of 1913, and for that or other reasons introspection
was essentially abandoned. Behaviorists turned to the study of behavior
for its own sake, and nonbehavioristic psychologists turned to the
behavior of teachers, students, therapists, clients, children growing older
year by year, people in groups, and so on. (SKINNER, 1990, p.1209)
Por volta de 1956, o cenário intelectual começou a mudar dramaticamente.
George Armitage Miller constatou em sua obra The Magical Number Seven, Plus or
Minus Two (1956) que a capacidade do pensamento humano tem limites, com
memória de curto prazo, por exemplo, limitada a cerca de sete itens com tolerância
de dois para mais ou para menos. Foi proposto que as limitações de memória
poderiam ser superadas por recodificar a informação em blocos, as representações
mentais que necessitam de procedimentos mentais para codificação e decodificação
das informações.
First, the span of absolute judgment and the span of immediate memory
impose severe limitations on the amount of information that we are able
to receive, process, and remember. By organizing the stimulus input
simultaneously into several dimensions and successively into a sequence
or chunks, we manage to break (or at least stretch) this informational
bottleneck. (MILLER, 1955, p. 351)
A ciência cognitiva tenta unificar idéias teóricas, porém observa-se uma
diversidade de perspectivas e métodos que os pesquisadores em diferentes áreas
12
trazem para o estudo da mente e da inteligência. Embora os psicólogos cognitivos
hoje freqüentemente se engajem na teorização e modelagem computacional, o seu
método principal é a experimentação com seres humanos. Para que as pessoas,
geralmente estudantes, satisfaçam os requisitos desses estudos, são trazidos para o
laboratório, para o estudo de diferentes tipos de pensamento sob condições
controladas. Por exemplo, os psicólogos têm experimentalmente examinado os tipos
de erros que as pessoas fazem no raciocínio dedutivo, as maneiras como as pessoas
fazem e aplicam conceitos, a velocidade das pessoas que pensam com imagens
mentais, e o desempenho das pessoas resolverem problemas usando analogias. As
conclusões sobre como funciona a mente deve ser baseada em mais do que apenas o
"senso comum" e a introspecção, uma vez que estes podem dar uma imagem
enganosa de operações mentais, muitas das quais não estão acessíveis
conscientemente. Experimentos psicológicos que cuidadosamente abordam
operações mentais a partir de diversas direções são cruciais para que a ciência
cognitiva seja científica.
Embora a teoria sem experiência seja vazia, experiência sem teoria é cega.
Para abordar questões cruciais sobre a natureza da mente, os experimentos
psicológicos precisam ser interpretáveis dentro de um referencial teórico que postula
representações mentais e procedimentos. Como já mencionado, uma das melhores
formas de desenvolver quadros teóricos é formar e testar modelos computacionais
destinados a serem análogos às operações mentais. Para complementar as
experiências psicológicas sobre o raciocínio dedutivo, formação de conceitos,
imagens mentais e resolver problemas analógicos, os pesquisadores desenvolvem
modelos computacionais que simulam aspectos do desempenho humano.
13
Portanto, projetar, construir e experimentar modelos computacionais é o
método central de inteligência artificial (IA), o ramo da ciência da computação
preocupada com sistemas inteligentes. Idealmente, a ciência cognitiva, modelos
computacionais e de experimentação psicológica caminham lado a lado, mas
importantes trabalhos no campo da inteligência artificial (IA) analisaram o poder de
diferentes abordagens de representação do conhecimento em relativo isolamento da
psicologia experimental.
Nesse mesmo momento cronológico, os computadores primitivos começaram
a existir em torno de apenas alguns anos, mas pioneiros tais como John McCarthy,
Marvin Minsky, Newell de Allen, e Herbert Simon estavam fundando o campo da
inteligência artificial. Suas origens intelectuais estão em meados dos anos 1950,
quando os pesquisadores em vários campos começaram a desenvolver teorias de
mente baseados em representações complexas e procedimentos computacionais.
It seems to me that the ingredients of most theories both in Artificial
Intelligence and in Psychology have been on the whole too minute, local,
and unstructured to account–either practically or phenomenologically–
for the effectiveness of common-sense thought. The "chunks" of
reasoning, language, memory, and "perception" ought to be larger and
more structured; their factual and procedural contents must be more
intimately connected in order to explain the apparent power and speed of
mental activities. (MINSKY, 1974, p. 1)
A hipótese central da ciência cognitiva é que o pensamento pode ser mais
bem compreendido em termos de estruturas representacionais da mente e
procedimentos computacionais que operam estas estruturas. Embora haja muitas
14
divergências sobre a natureza das representações e computações que constituem o
pensamento, a hipótese central é suficientemente geral para englobar a gama de
correntes de pensamento na ciência cognitiva. A maioria dos trabalhos em ciência
cognitiva assume que a mente tem representações mentais similares às estruturas de
dados de computador e procedimentos computacionais semelhantes a algoritmos
computacionais. Os teóricos da cognição têm proposto que a mente contém como
representações mentais proposições lógicas, regras, conceitos, imagens e analogias, e
que usa processos mentais, tais como a dedução, pesquisa, seleção, rotação e
recuperação.
Após esta pequena introdução e definição de ciências cognitivas, serão
aprofundadas a seguir questões pontuais assim como os principais desenvolvimentos
e paradigmas no estudo da mente relevante no campo de inteligência artificial.
Dentro das áreas de atuação, existem especialidades de grande destaque que
aprofundam os desenvolvimentos das ciências cognitivas. Estas são: filosofia da
mente, psicologia cognitiva, neurociências cognitiva e será destacado um capítulo
apenas para a inteligência artificial.
15
1. ÁREAS DE ESTUDOS NAS CIÊNCIAS COGNITIVAS
Conforme destacado acima, serão apresentadas as especialidades nas quais as
ciências cognitivas se dividem. Não necessariamente essa divisão se dedica apenas à
área “mater” de atuação, ou seja, na maioria das vezes, as áreas misturam-se para
fundamentar o estudo de seu objeto. Serão destacados neste capítulo os aspectos
conceituais e históricos das especialidades fundamentais das ciências cognitivas em
suas próprias projeções.
16
1.1 Filosofia da Mente
Pode ser considerada como base da ciência cognitiva a filosofia. O campo da
filosofia é vasto, muito abrangente e bem antigo. Devido a desafios e estudos
filosóficos milenares sobre a mente humana, foi criada uma divisão da filosofia para
estudar e analisar tal objeto, a mente humana. Essa divisão foi batizada de filosofia da
mente. Esta, apesar de ser fundada por volta de 1949, envolve estudos metafísicos
sobre o modo de ser da mente, sobre a natureza dos estados mentais e sobre a
consciência. Envolve estudos epistemológicos sobre o modo como a mente conhece a
si mesma e sobre a relação entre os estados mentais e os estados de coisas que os
mesmos representam (intencionalidade), incluindo estudos sobre a percepção e outros
modos de aquisição de informação, como a memória, o testemunho e a introspecção.
Os filósofos da mente sempre tiveram por objetivo esclarecer questões
fundamentais, tais como: O que distingue a mente de outros objetos que
estão no universo? Qual a natureza do pensamento? Será o pensamento
algo imortal e eterno? Serão mente e cérebro uma só e mesma coisa?
Será distinção entre espírito e matéria apenas uma ilusão produzida pela
nossa linguagem ou pela nossa cultura? (TEIXEIRA, 1994, p.3)
Basicamente os questionamentos sobre a mente se iniciaram de uma forma
bem distinta, conceituando a questão mente-corpo. Com a obra de Platão chamada
Fédon, começou a ser caracterizado algo no ser além do corpo. Em Fédon, Platão
apresentou uma variedade de argumentos a favor da imortalidade da alma, mas o que
foi realmente relevante é que o intelecto era considerado irrelevante, porque as
formas seriam imateriais e a inteligência deveria ter uma afinidade com as formas
que apreende. Esta afinidade seria tão forte que a alma se esforçaria para deixar o
17
corpo em que estaria presa e habitaria o reino das formas. Poderia levar muitas
reencarnações antes que isso fosse alcançado, portanto o dualismo de Platão não é
simplesmente uma doutrina da filosofia da mente, mas sim, seria parte integrante de
toda a sua metafísica.
Um problema com o dualismo de Platão era que, embora ele falasse da alma
aprisionada no corpo, não há relato claro de como uma alma estaria ligada
especialmente em um determinado corpo. Aristóteles não acreditava nas formas
platônicas existindo independentemente de suas instâncias, as formas aristotélicas
seriam as naturezas e propriedades das coisas e existiriam encarnadas nas coisas.
Essa teoria permitiu que Aristóteles, para explicar a união de corpo e alma, dissesse
que a alma é a forma do corpo. Isto significaria que a alma de uma pessoa em
particular não seria mais do que sua natureza como um ser humano. Porque isso
pareceria fazer a alma ser uma propriedade do corpo, levou muito tempo para
interpretarem essa sua teoria como materialista. A interpretação da filosofia do
espírito de Aristóteles permanece em discussão até os dias atuais, tal como
acontecera imediatamente após a sua morte. No entanto, Aristóteles acreditava que o
intelecto, embora fosse parte da alma, seria diferente de outras faculdades por não ser
representada sua origem em um órgão do corpo humano.
Segundo Teixeira (1994), foi Descartes (1596-1960) que, pela primeira vez,
formulou explicitamente a necessidade de se distinguir entre mente e corpo. Claro
que outros filósofos, desde a antiguidade, já haviam refletido sobre a natureza da
alma (ou da mente) e apontando para aquilo que julgavam ser algumas de suas
características especiais, como, por exemplo, a imaterialidade e a imortalidade. Mas
18
a filosofia de Descartes (o cartesianismo) serviu para reacender um debate que
atravessa todo o pensamento moderno: a polêmica entre o monismo e o dualismo.
Para o dualismo (Teixeira, 1994) sugere que se sustente a existência de duas
substâncias do universo e uma diferença fundamental e irreconciliável entre elas.
Nunca poderíamos supor que a mente e cérebro fossem a mesma coisa. A versão
mais conhecida do dualismo é chamada de espiritualismo.
Let us pause briefly and take stock. Descartes holds that the world
consists of two kinds of substance: material substances and mental
substances. Material substances are extended and unthinking; mental
substances think, but are unextended. Each mental substance bears an
especially intimate relation to some particular material substance.
(HEIL, 1998, p. 21)
O dualismo de Descartes ficou conhecido como dualismo de substância ou
cartesiano, pois o mesmo afirma que existem dois tipos fundamentais de substancia:
a mental e a material, onde a mental não tem extensão no espaço, e a material não
pode pensar.
Existe também o chamado dualismo ontológico o qual assume compromissos
sobre a natureza dual da existência de como se relaciona a mente com o corpo /
matéria, e pode ser dividido em dois tipos além do dualismo de substância ou
cartesiano: (a) dualismo de propriedade que sugere que a distinção ontológica reside
nas diferenças entre as propriedades da mente e matéria. (b) Dualismo predicado que
afirma a irredutibilidade dos predicados mentais aos predicados físicos.
19
Além dos tipos de dualismo também foram criadas algumas variações com
relação ao tema, como o interacionismo, o epifenomenalismo e o paralelismo
(Howard, 2009).
O interacionismo seria a visão de que a mente e o corpo causalmente se
influenciam mutuamente. Isso é uma das nossas crenças de senso comum, por ser
uma característica similar à experiência cotidiana. O mundo físico influencia a minha
experiência através dos meus sentidos, e eu muitas vezes reajo comportamentalmente
a essas experiências. Meu pensamento, também, influencia o meu discurso e minhas
ações, portanto há um prejuízo enorme natural em favor da interação.
O princípio de epifenomenalismo retrata a realidade do dualismo de
propriedade que não pode ser negada, mas o problema de como o não material
afetaria o material deve ser evitado. Segundo esta teoria, os eventos mentais são
causados por eventos físicos, mas não têm influência causal sobre o físico. De fato, é,
na melhor das hipóteses, uma solução incompleta para o problema, pois é misteriosa,
como o não-físico pode influenciar o desenvolvimento físico? É igualmente
misterioso como o físico pode produzir algo não-físico. Mas como este último ocorre
é uma reivindicação essencial do epifenomenalismo. Na verdade, o
epifenomenalismo é mais eficaz como forma de salvar a autonomia da física (o
mundo "fechado sob a física") do que como uma contribuição para evitar a
necessidade da física.
20
O paralelismo preserva intactos o físico e o mental, mas nega toda a interação
causal entre eles, sugere que eles devam se comportar como se a interação parecesse
ser uma coincidência estranha. É por isso que o paralelismo tendeu a ser adotado
apenas por aqueles que acreditam em uma harmonia pré-estabelecida por um Deus.
A progressão do pensamento pode ser visto como se segue. Descartes acreditava em
uma forma mais ou menos natural de interação entre a mente imaterial e o corpo
material. Malebranche pensou que isso era impossível, naturalmente, e assim exigia
que Deus interviesse especificamente para cada ocasião em que a interação era
necessária. Leibniz entendeu que Deus pode muito bem definir as coisas para que
elas sempre se comportassem como se estivessem interagindo, sem a intervenção do
particular que está sendo exigido (Howard, 2009).
A proponent of parallelism accepts Descartes’s bifurcation of the world
into extended material substances and unextended mental substances.
Parallelists deny, however, that mental and material substances interact
causally. This appears to fly in the face of ordinary experience. It surely
seems that goings-on in your mind affect your body, and through it, affect
the material world beyond your body. It seems no less clear that events
and objects in the world have an impact on your mind by way of their
effects on your body. (HEIL, 1998, p. 27)
De certa forma existe uma enorme ramificação e evolução da questão sobre o
dualismo, da mesma forma que existe uma contínua evolução do conceito do
monismo. O monismo, por sua vez, é a tese que sustenta que só existe um tipo de
substância no universo, seja ela material ou espiritual. A versão mais freqüente do
monismo é o materialismo, ou seja, a teoria de que não existe nada além da matéria e
suas possíveis manifestações no universo. De acordo com essa visão, fenômenos
21
mentais são idênticos aos fenômenos físicos, pois mente e cérebro são a mesma
coisa.
For if we find dualism unsatisfactory, there is another way to answer the
question of psychophysical causation: we can say that mental states have
effects in the physical world precisely because they are, contrary to
appearances, physical states. This is a “monist” view, since it holds that
there is “one” kind of substance, physical or material substance.
Therefore it is known as ‘physicalism’ or ‘materialism’.
(CRANE, 1999)
O monismo tem como conceito que o corpo e a mente não são
ontologicamente distintos tipos de entidades. Os seguidores da física alegam que só
as entidades postuladas pelas teorias da física existem e que a mente irá
eventualmente ser explicada em termos dessas entidades, com a evolução contínua
da teoria física. Os idealistas sustentam que a mente é tudo que existe e que o mundo
externo também seria mental em si, ou uma ilusão criada pela mente. Os chamados
monistas neutros aderem à posição de que há alguma outra substância neutra, e que
tanto a matéria quanto a mente são propriedades dessa substância desconhecida. O
monismo tornou-se mais comum nos séculos 20 e 21 e foi a variação do fisicalismo,
tornando-se ponto de partida e evolutiva para algumas visões filosóficas posteriores
como: o behaviorismo, teoria da identidade de tipo, monismo anômalo e
funcionalismo.
Na filosofia indiana e chinesa, o monismo era parte integrante de como a
experiência é compreendida. Hoje, as formas mais comuns do monismo na filosofia
ocidental são fisicalistas. Outra possibilidade seria aceitar a existência de uma
22
substância básica que não é nem física nem mental, o físico e mental seriam então
propriedades dessa substância neutra. Tal posição foi popularizada por Ernst Mach
(1886).
This tendency must appear to us as not altogether appropriate, when we
reflect that physics, despite its considerable development, nevertheless
constitutes but a portion of a larger collective body of knowledge, and
that it is unable, with its limited intellectual implements, created for
limited and special purposes, to exhaust all the subject-matter in
question. (MACH, 1886, p. 1)
O Behaviorismo dominou a filosofia da mente de grande parte do século 20,
especialmente a primeira metade. Na psicologia, o behaviorismo foi desenvolvido
como uma reação às inadequações do introspeccionismo. Relatórios introspectivos
sobre a vida interior própria mental não estão sujeitos a cuidadoso exame de precisão
e não podem ser usados para formar generalizações preditivas. Sem generalização e
com a possibilidade do exame de terceira pessoa, os behavioristas argumentaram que
a psicologia não poderia ser científica. (Stoljar, 2009). A saída, portanto, era
eliminar a idéia de uma vida interior mental, portanto, em vez de uma mente
ontologicamente independente, o foco seria a descrição do comportamento
observável.
Paralelamente a estes desenvolvimentos em psicologia, o behaviorismo
filosófico, chamado behaviorismo lógico se desenvolvia. Para os behavioristas,
estados mentais não são estados interiores dos quais se podem fazer relatórios
introspectivos. Eles são apenas descrições de comportamentos ou disposições para se
23
comportar de certas maneiras, feitas por terceiros para explicar e prever o
comportamento dos outros.
O behaviorismo filosófico caiu em desuso desde a segunda metade do século
20, coincidindo com a ascensão das ciências cognitivas. Os cognitivistas rejeitavam o
behaviorismo devido a vários problemas percebidos, um exemplo seria o
behaviorismo ser considerado um contra-senso quando se alega que alguém pode
falar sobre o comportamento no caso de uma pessoa estar sentindo uma dor de
cabeça.
In the case of cognitive concepts like "knowing," "believing,"
"understanding," "remembering," and volitional concepts like "wanting"
and "intending," there can be little doubt, I think, that an analysis in
terms of dispositions to behave is fundamentally sound.
(PLACE, 1956, p. 44)
A teoria da identidade da mente --também conhecida como fisicalismo de
tipo, materialismo redutivo, teoria da identidade de tipo, teoria da identidade mente-
cerebro e teoria da identidade da mente -- sustenta que os estados e processos da
mente são idênticos aos estados e processos do cérebro. Estritamente falando, não é
necessário considerar que a mente é idêntica ao cérebro. Identificar mente e cérebro
como sendo uma questão de processos de identificação complementam o escopo da
teoria. Como exemplo, considere uma experiência de dor, ou de algo que se vê, ou de
se ter uma imagem mental. A teoria da identidade da mente diz que estas
experiências são apenas processos cerebrais e não apenas relacionadas com
processos cerebrais. Alguns filósofos afirmam que, embora as experiências sejam
24
processos cerebrais, no entanto, elas têm propriedades fundamentalmente não-físicas,
psíquicas e às vezes chamadas de "qualia". Alguns teóricos dão uma análise
behaviorista de estados mentais, como crenças e desejos, mas outros, às vezes
chamados de "materialistas de estado central", afirmam que os estados mentais são
estados do cérebro real (Smart, 2007).
De acordo com as teorias da identidade simbólica (Smart, 2007), o fato de um
determinado estado cerebral está associado com apenas um estado mental de uma
pessoa não tem de significar que existe uma correlação absoluta entre os tipos de
estados mentais e os tipos de estados cerebrais. A distinção do tipo token pode ser
ilustrada com um exemplo simples: a palavra "verde" contém quatro tipos de letras
(v, e, r, d), com duas ocorrências da sílaba “e” junto com cada uma das outras. A
idéia de identidade token é que apenas ocorrências particulares de eventos mentais
são idênticas à ocorrência particular ou tokenings de eventos físicos. O monismo
anômalo e a maioria dos outros fisicalismos não reducionistas são as teorias da
identidade de token.
O monismo anômalo é uma teoria da relação entre eventos mentais e
propriedades físicas. Ele sustenta que todos os eventos mentais que interagem
causalmente são idênticos a algum acontecimento físico (nomeando eventos mentais
como tokens) que são os mesmos acontecimentos como eventos físicos particulares.
Mas também se afirma que não pode haver leis rigorosas sobre a base de que
qualquer tipo de evento mental pode prever e/ou explicar, portanto as propriedades
mentais não podem ser reduzidas a propriedades físicas.
25
De acordo com o monismo anômalo, a causa do porque não poder haver tais
leis rígidas de que os eventos mentais interagem causalmente, deve ser idêntico a
algum acontecimento físico. A teoria da identidade da mente tinha considerado que
as reclamações relativas à identidade de determinados eventos mentais e físicos
dependia da descoberta de relações de caráter legal entre as propriedades físicas e
mentais. A evidência empírica de tais leis foi, assim, necessária para as
reivindicações de identidade particular. A posição desta teoria é bastante diferente,
ela não exige nenhuma evidência empírica e depende da existência de quaisquer
relações de caráter legal. (Yalowitz, 2008).
O funcionalismo foi formulado como uma reação às insuficiências da teoria
da identidade, baseando-se em estados mentais em termos de uma teoria empírica
computacional da mente. Sua doutrina diz que algo em um estado mental de um tipo
particular não dependente de sua constituição interna, mas sim da forma como ele
funciona, ou do papel que desempenha, no sistema do qual ele é uma peça. Esta
doutrina está enraizada na concepção de Aristóteles sobre a alma, e tem antecedentes
na concepção de Hobbes da mente como uma "máquina de calcular", mas tornou-se
completamente articulada apenas no último terço do século 20. O termo
funcionalismo é usado como uma tese filosófica sobre a natureza dos estados mentais
(Levin, 2010).
Some philosophers maintain that both ‘pain is a brain state’ and ‘pain
states are brain states’ are unintelligible. The answer is to explain to
these philosophers, as well as we can, given the vagueness of all
scientific methodology, what sorts of considerations lead one to make an
empirical reduction (i.e. to say such things as ‘water is H2O’, ‘light is
26
electro-magnetic radiation’, ‘temperature is mean molecular kinetic
energy’). If, without giving reasons, he still maintains in the face of such
examples that one cannot imagine parallel circumstances for the use of
‘pains are brain states’ (or, perhaps, ‘pain states are brain states’) one
has grounds to regard him as perverse. (PUTNAM, 1975, p. 431)
Ainda assim, embora o funcionalismo seja oficialmente neutro entre
materialismo e dualismo, tem sido particularmente atraente para os materialistas,
uma vez que muitos materialistas acreditam que é altamente provável que qualquer
estado capaz de reproduzir os papéis em questão será um estado físico. Se sim, então
o funcionalismo pode servir como uma alternativa à materialista psico-física da tese
da identidade. Esta diz que cada tipo de estado mental é idêntico a um tipo particular
de estado neural. Esta tese, uma vez que considerou a teoria dominante materialista
da mente, não implica que criaturas com cérebro diferente da nossa pode
compartilhar nossas sensações, crenças e desejos, não importa o quão semelhante o
seu comportamento e organização interna podem ser dos nossos próprios. Esta é uma
consequência que muitos consideram improvável. Assim, o funcionalismo, com a
alegação de que os estados mentais podem ser realizados, se multiplica. Uma
distinção importante do funcionalismo é a distinção entre as teorias em que as
caracterizações funcionais de estados mentais pretendem fornecer análises dos
significados de termos em estado mental (ou limitar-se à informação a priori), e
teorias que permitem a caracterização funcional de estados mentais com apelo a
informações provenientes da experimentação científica (ou especulação). Existem
outras diferenças importantes entre as teorias funcionalistas também. Essas
diferenças, e as motivações para elas, podem ser mais bem apreciadas através do
exame das origens do funcionalismo e traçando sua evolução tanto em resposta às
27
críticas explícitas da tese e mudar opiniões sobre a natureza da explicação
psicológica (Levin, 2010).
These two steps pave the way for the notion that it is conscious states that
bring intentionality into the world. Unconscious states derive their
intentionality from conscious states, and absent conscious states there
would be no intentionality for them to derive. This is a strong form of
dependence: the existence of the very phenomenon of intentionality
depends on the existence of consciousness. (KRIEGEL, 2003, p. 297)
Se um materialista acredita que todos os aspectos do bom senso psicologico
irão encontrar redução para uma neurociência cognitiva madura, e que o
materialismo não-redutivo é errado, então se pode adotar uma posição final, mais
radical: o materialismo eliminativo, ou também conhecido como o eliminativismo.
O eliminativismo é uma posição materialista na filosofia da mente. Sua
alegação principal é que o entendimento do senso comum da mente (ou psicologia
popular) é falso e que certos tipos de estados mentais em que a maioria das pessoas
acredita, não existem. Alguns eliminativistas argumentam que nenhuma base
coerente neural será encontrada para muitos conceitos cotidianos psicológicos, como
a crença ou desejo, uma vez que são mal definidos. Ao invés disso, eles argumentam
que os conceitos psicológicos de comportamento e experiência devem ser julgados
pela maneira como eles se reduzem bem ao nível biológico. Eliminativistas vão além
das afirmações de Descartes, uma vez que contestam a existência de diversos estados
mentais que Descartes descrevia como certos.
28
Eliminativistas como Patrícia Churchland (1986) argumentam que, embora a
psicologia popular trate cognição como fundamentalmente parecida com uma frase, o
vetor não lingüístico modelo / matriz da teoria das redes neurais ou o conexionismo
provará ser uma conta muito mais precisa de como o cérebro funciona.
Churchland invoca frequentemente o destino das outras, erradas teorias populares e
ontologias que tenham surgido no decurso da história. Por exemplo, a astronomia
ptolomaica serviu para explicar e predizer os movimentos dos planetas ao longo dos
séculos, mas acabou este modelo do sistema solar sendo eliminado em favor do
modelo de Copérnico. Churchland acredita que o mesmo destino aguarda o modelo
da mente, em que o pensamento e comportamento são o resultado da manipulação de
estados de período, chamados de atitudes proposicionais.
Not everyone expects mental states to reduce to brain states. On the
contrary, it has been my observation that many philosophers and
cognitive scientists, most of the artificial intelligentsia, not few
neuroscientists and biologists, and theologians generally, reject the
possibility as unlike – and not merely as unlike, but as flatly
preposterous. (CHURCHLAND, 1986, p. 277)
Materialismo eliminatório acarreta conseqüências inquietantes e não apenas
sobre a nossa concepção da mente, mas também sobre a natureza da moral, da ação,
convenções sociais e legais, e praticamente todos os outros aspectos da atividade
humana. Como Jerry Fodor (1987) diz, "se a psicologia do bom senso for para o
colapso, que seria além da comparaçãoa maior catástrofe na história intelectual da
nossa espécie...". Assim, o materialismo eliminatório tem estimulado vários projetos
destinados a justificar, em parte, estados mentais comuns e estabelecer sua
respeitabilidade em um relato sofisticado da mente. Por exemplo, vários projetos
29
perseguidos pelos filósofos nos últimos anos têm tentado fornecer uma conta
redutora do conteúdo semântico das atitudes proposicionais que é totalmente
naturalista (ou seja, uma conta que agrada apenas às simples relações de causalidade
física e propriedades). Grande parte do impulso para esses projetos vem em parte do
reconhecimento de que o materialismo eliminatório não pode ser tão facilmente
descartado, como os escritores anteriores tinham inicialmente previsto. Uma resposta
eliminativista, que poderia se oferecer aqui seria a de considerar o papel mais amplo
e teórico do materialismo eliminatório, que poderia na nossa busca projetar uma
teoria bem sucedida da mente.
Vários autores têm estabelecido as condições necessárias que qualquer teoria
da mente deve cumprir, e em algumas contas estas condições incluem a explicação
de diversos estados mentais, como entendidos pelo bom senso. Segundo essa visão,
se uma teoria não inclui estados que correspondem às crenças, ou fornecer algum
tipo de conta da natureza da consciência, então não precisa ser levada a sério, como
um relato completo de reais fenômenos mentais. Uma virtude do materialismo
eliminatório é que liberta o nosso teorizar a partir dessa perspectiva restritiva, assim,
a relação entre o materialismo eliminatório e ciência podem ser mais recíprocas do
que se supunha (Ramsey, 2011).
A tese do fisicalismo diz que a mente é parte do material (ou físico) do
mundo. Tal posição não enfrenta o problema de que a mente tem determinadas
propriedades, que nenhum outro material ou coisa parece possuir. O fisicalismo deve
explicar como é possível que essas propriedades podem, contudo, emergir de uma
coisa material. O projeto de fornecer essa explicação é muitas vezes referido como a
30
naturalização do mental. Alguns dos problemas cruciais que este projeto tenta
resolver inclui a existência do qualia e a natureza da intencionalidade (Stojlar, 2009).
Sentimentos e experiências variam muito, por exemplo, passar os dedos sobre
a lixa, um cheiro de gambá, sentir uma forte dor no meu dedo, parecer ver roxo
brilhante, tornar-se extremamente irritado. Em cada um desses casos, o sujeito de um
estado mental de natureza muito distinta subjetiva está em primeira pessoa. Há algo
que seria como se submeter a cada estado alguma fenomenologia que ele tem. Os
filósofos costumam usar o termo "qualia" (singular "quale") para se referir ao
introspectivamente acessível, aspectos fenomenais da nossa vida mental. Nesse
sentido, o padrão mais amplo do termo, é difícil negar que existem qualia.
Desacordos tipicamente centram-se em que os estados mentais têm qualia, que qualia
são qualidades intrínsecos de seus portadores, e como qualia se relaciona com o
mundo físico, tanto dentro como fora da cabeça. O estado de qualia é muito debatido
em filosofia, em grande parte porque é central para uma compreensão adequada da
natureza da consciência. Qualia seria o cerne do problema corpo-mente (Tye, 2009).
A importância dos qualia, na filosofia da mente, vem principalmente do fato
de que eles são muitas vezes vistos como constituindo um problema fundamental
para as explicações materialistas do problema corpo-mente. Muito do debate sobre a
sua existência depende da definição do termo que é usado, de como vários filósofos
enfatizam ou negam a existência de certas características de qualia.
Muitos estados mentais parecem ser experimentados subjetivamente de
formas diferentes por pessoas diferentes. É isso que caracteriza um estado mental de
31
qualidade experiencial, por exemplo, a dor. No entanto, as sensações de dor entre
dois indivíduos podem não ser idênticas, já que ninguém tem uma forma perfeita
para quantificar a dor ou descrever exatamente como se sente ferido.
Filósofos e cientistas perguntam de onde surgem estas experiências. A
existência de eventos cerebrais em si não explica por que eles são acompanhados por
essas experiências qualitativas correspondentes. O enigma do por que muitos
processos cerebrais ocorrem com um aspecto de acompanhamento da experiência na
consciência parece impossível de explicar.
Esse problema de explicar os aspectos introspectivos em primeira pessoa de
estados mentais e a consciência em geral, em termos de terceira pessoa na
neurociência quantitativa é chamado de lacuna explicativa (Levine, 1983). Há vários
pontos de vista diferentes sobre a natureza dessa diferença entre os filósofos
contemporâneos de espírito, como interpretar a diferença ontológica na natureza, isto
é, eles afirmam que os qualia não podem ser explicados pela ciência porque o
fisicalismo é falso. Uma visão alternativa é tomada pela diferença de natureza
epistemológica, afimando que a ciência ainda não é capaz de explicar a experiência
subjetiva, porque ainda não chegou ao nível ou tipo de conhecimento que é exigido.
Por outro lado, acredita-se também que o problema é uma das permanentes e
inerentes limitações biológicas. Outros filósofos ainda especulam a diferença de
como um problema seria meramente semântico.
32
1.2 Psicologia Cognitiva
A psicologia cognitiva é uma subdisciplina da psicologia cujo objetivo é explorar
processos mentais internos de conhecer, ou seja, de cognição. Portanto, define-se a
psicologia cognitiva como sendo o estudo de como as pessoas percebem, lembram-
se, pensam, falam e resolvem os problemas. As premissas gerais envolvidas nesta
especialidade são:
a) Processos mentais existem;
b) Podem ser estudados cientificamente (em contraste com o
introspeccionismo velho e muito subjetivo);
c) Os seres humanos são processadores ativos de informação (em contraste
com o behaviorismo passivo e individual, sentados todo um dia à espera de um
estímulo para reações);
Os psicólogos cognitivos podem ser classificados em três tipos principais: (a)
experimentalistas, que testam e refinam teorias, (b) modeladores que visam construir
modelos sofisticados de um determinado comportamento, e (c) os neurocientistas que
visam descobrir os substratos neurais dos comportamentos.
Desde o início da psicologia experimental, no século XIX, havia interesse no
estudo dos processos mentais superiores. Mas algo aconteceu e descontinuou no final
de 1950, algo tão dramático que agora é conhecido como a “revolução cognitiva”, e a
33
visão de processos mentais que se gerou foi chamada de psicologia cognitiva. O que
aconteceu foi que psicólogos norte-americanos rejeitaram o behaviorismo e adotaram
um modelo de mente com base no computador.
Segundo estudiosos e pesquisadores, como já mencionados acima, o
behaviorismo foi um movimento em psicologia e filosofia, que enfatizou os aspectos
exteriores do comportamento de pensamento e negou provimento ao experiencial
interior, e às vezes aos aspectos processuais internos, bem como, um movimento que
remonta a novas propostas metodológicas. Consequentemente, a "revolução
cognitiva" bem-sucedida dos anos sessenta denominou-se uma revolta contra o
behaviorismo.
Como já foi dito, de aproximadamente 1920 até os anos 1950, a psicologia
americana foi dominada pelo behaviorismo. Este estava preocupado principalmente
com a aprendizagem de associações, nomeadamente em espécies não-humanas, e
restritas a teorização das noções de estímulo-resposta. A derrubada do behaviorismo
não veio tanto de idéias dentro da psicologia, mas a partir de algumas abordagens de
investigação exteriores ao campo.
Durante a Segunda Guerra Mundial, novos conceitos e teorias foram
desenvolvidos sobre processamento de sinais e comunicação, e essas idéias tiveram
um impacto profundo sobre os psicólogos ativos durante os anos de guerra. Um
trabalho importante foi a publicação de Shannon (1948), sobre Teoria da Informação.
Propõe que a informação é comunicada através do envio de um sinal por uma
seqüência de fases ou transformações. Isto sugere que a percepção humana e a
34
memória podem ser conceituadas de forma semelhante: a informação sensorial entra
nos receptores, então, é alimentada em analisadores de percepção, cujas saídas são,
por sua vez, de entrada para os sistemas de memória. Este foi o início da abordagem
do "processamento da informação", a idéia de que a cognição pode ser entendida
como um fluxo de informações dentro do organismo, uma idéia que continua a
dominar a psicologia cognitiva.
The fundamental problem of communication is that of reproducing at one
point either exactly or approximately a message selected at another
point. Frequently the messages have meaning; that is they refer to or are
correlated according to some system with certain physical or conceptual
entities. These semantic aspects of communication are irrelevant to the
engineering problem. (SHANNON, 1948, p.379)
Talvez o primeiro grande esforço teórico em psicologia e processamento de
informações tenha sido realizado por Donald Broadbent (1958) em sua obra
Percepção e Comunicação. De acordo com o modelo de Broadbent, a saída de
informações do sistema perceptual encontra um filtro, que passa apenas as
informações de que pessoas estavam presentes. Embora esta noção de um filtro entre
tudo ou nada fosse demasiadamente forte, foi oferecido um relato mecanicista de
atenção seletiva, um conceito que tinha sido banido durante o behaviorismo. As
informações que passaram no filtro Broadbent, e em seguida mudou-se para um
canal de limitada capacidade de decisão, um sistema que possui algumas das
propriedades de memória de curto prazo, e de lá a memória de longo prazo. Esta
última parte do modelo de Broadbent, de transferência de informações de curto para
35
longo prazo de memória, tornou-se o ponto saliente dos modelos de memória
desenvolvidos na década de 1970.
Outro aspecto da teoria da informação que atraiu o interesse do psicólogo foi
uma medida quantitativa da informação em termos de "bits" (grosso modo, o
logaritmo na base 2 do número de alternativas possíveis). Em um texto ainda
amplamente citado, George Miller (1955) mostrou que os limites da memória de
curto prazo pouco tinham a ver com bits. Mas ao longo do caminho, Miller e o
interesse dos outros nos aspectos técnicos da teoria da informação e do trabalho
relacionado promoveram a psicologia matemática, um ramo que estava sendo
abastecido por outras fontes. Ao longo dos anos, a psicologia matemática
freqüentemente tem unido forças com a abordagem do processamento da informação
para fornecer reivindicações precisas sobre a memória, atenção e processos
relacionados.
Two bits of information enable us to decide among four equally likely
alternatives. Three bits of information enable us to decide among eight
equally likely alternatives. Four bits of information decide among 16
alternatives, five among 32, and so on. That is to say, if there are 32
equally likely alternatives, we must make five successive binary
decisions, worth one bit each, before we know which alternative is
correct. So the general rule is simple: every time the number of
alternatives is increased by a factor of two, one bit of information is
added. (MILLER, 1955, p. 345)
A evolução tecnológica durante a Segunda Guerra Mundial também levou ao
desenvolvimento dos computadores digitais. Os questionamentos começaram a surgir
36
sobre a comparabilidade do computador e a inteligência humana (Turing 1950). Em
1957, Alan Newell, JC Shaw, e Herb Simon, em Programming the Logical Theory
Machine (Newell et al, 1957) haviam desenhado um programa de computador que
poderia resolver problemas de lógica difícil, um domínio que se pensava ser a única
província de seres humanos. Newell e Simon logo em seguida, com os programas
que mostravam habilidades gerais de resolução de problemas muito semelhantes aos
dos seres humanos, defenderam que estes programas ofereciam modelos detalhados
para resolver problemas humanos (Newell et al, 1971). Este trabalho também ajudou
a estabelecer o campo da inteligência artificial que será citado posteriormente.
Logo no início, o cruzamento desenvolvido entre os modelos de computador
e abordagens de processamento de informação mostrou que a psicologia do
processamento de informação poderia usar a linguagem teórica da modelagem por
computador, mesmo que não conduzisse a programas de computador. A modelagem
por computador forneceu idéias poderosas sobre as representações (como estruturas
de dados), bem como em relação aos processos que operam sobre estas estruturas. A
idéia resultante do processamento da informação humana, como seqüências de
processos computacionais que operam em representações mentais, continua a ser a
pedra fundamental da psicologia cognitiva moderna, conforme Fodor (1975).
We mitigate the mystery [of sentence understanding] insofar as we
assume a shallow theory of messages, since the more structural similarity
there is between what gets uttered and its internal representation, the
less computing the sentence understander will have to do. The interest of
meaning postulates is that they provide a general procedure for
complicating the logic in ways that reduce the strain on sentence
37
comprehension. That is, they … simplify the representation of
computations that must be carried out on-line. (Fodor, 1975, p. 152)
Uma terceira influência externa que levou ao surgimento da psicologia
cognitiva moderna foi o desenvolvimento da gramática gerativa na lingüística de
Noam Chomsky. Duas das publicações de Chomsky na década de 1950 tiveram um
efeito profundo sobre a psicologia cognitiva nascente. O primeiro foi o seu livro
Estruturas Sintáticas (Chomsky 1957). Debruçou-se sobre as estruturas mentais
necessárias para representar o tipo de conhecimento lingüístico que qualquer falante
competente de uma língua deve ter. Chomsky argumentou que as associações, por si
sós, e mesmo gramáticas de estrutura da frase, não poderiam representar inteiramente
o nosso conhecimento da sintaxe, de como as palavras são organizadas em frases e
sentenças. O que tinha de ser adicionado era um componente capaz de transformar
uma estrutura sintática em outra. Estas propostas sobre a gramática transformacional
mudariam o cenário intelectual da lingüística, e inaugurariam uma nova
psicolingüística.
Chomsky evoluiu a ideia escrevendo sobre a aprendizagem de línguas do
behaviorista então mais respeitado vivo (MacCorquodale, 1970). A revisão de
Chomsky é indiscutivelmente um dos documentos mais significativos da história da
psicologia cognitiva. Embora não se destine apenas a devastar as propostas de
Skinner sobre a linguagem, mas para prejudicar o behaviorismo como uma
abordagem científica séria para a psicologia, em certa medida, ele conseguiu pontos
em ambas as contagens.
38
Até o início dos anos 1960, estava tudo no lugar. O behaviorismo estava em
declínio nos departamentos acadêmicos em toda a América (pois nunca teve raízes
fortes na Europa). Psicólogos interessados na abordagem de processamento de
informação estavam se movendo na academia, e a Universidade de Harvard
estabeleceu então um Centro de Estudos Cognitivos dirigido por Jerome Bruner e
George Miller. A nova visão da psicologia dirigiu-se para o processamento da
informação. A mente foi comparada a um computador e enfatizaram-se as
representações e processos necessários para dar lugar a atividades que vão desde o
reconhecimento de padrões, atenção, categorização, memória, raciocínio, tomada de
decisão, resolução de problemas e linguagem.
Uma das primeiras áreas a se beneficiar da revolução cognitiva foi a de
reconhecimento de padrões, o estudo de como as pessoas percebem e reconhecem
objetos. A abordagem cognitiva fornece uma visão geral de dois estágios de
reconhecimento de objeto: (a) que descreva o objeto de entrada em termos de
características relativamente primitivas (por exemplo, "tem duas linhas diagonais e
uma linha horizontal de conectá-los") e; (b) de correspondência à descrição do objeto
para armazenar a descrição dos objetos na memória visual, e selecionando a melhor
correspondência como a identidade do objeto de entrada ("essa descrição melhor
corresponde à letra A);
Esse ponto de vista de dois estágios não é totalmente novo para a psicologia,
mas expressá-la em termos de processamento de informação permitiu um contato
para estudos empíricos sobre a percepção do objeto para os modelos de computador
relativos a esse processo. O psicólogo Ulrich Neisser (1964) usou um modelo
39
computacional de reconhecimento de padrões para direcionar seus estudos empíricos,
o que levou à dramática evidência de que um objeto pode ser adaptado às múltiplas
memórias visuais em paralelo. Outras pesquisas indicaram que a percepção do objeto
de processamento subjacente pode persistir após o estímulo ser removido. Para isso
acontecer, tinha que haver uma memória visual do estímulo, evidência para tal
memória icônica foi fornecida por Sperling em experimentos clássicos em 1960
(Sperling, 1960).
The high accuracy of partial report observed in the experiments does not
depend on the order of report or on the position of letters on the stimulus,
but rather it is shown to depend on the ability of the observer to read a
visual image that persists for a fraction of second after the stimulus has
been turned off. (SPERLING, 1960, p.27)
A evidência correspondente de uma breve memória auditiva foi comparável
desde logo, bem como grande parte do trabalho sobre o reconhecimento de objetos e
memórias sensoriais foi integrado no influente livro de 1967, de Neisser, chamado
Psicologia Cognitiva. O livro serviu como a primeira declaração abrangente da
investigação existente em psicologia cognitiva, e deu ao novo campo o seu nome.
O modelo de Broadbent (1958) sobre atenção e memória estimulou a
formulação de modelos rivais na década de 1960. Estes modelos assumiram que a
memória de curto prazo (MCP) e a memória de longa duração (LTM) eram
qualitativamente de diferentes estruturas, com as primeiras informações STM
entrando e depois sendo transferidas para LTM como sugerido por Waugh e Norman
(1965). O modelo de Atkinson e Shiffrin (1968) revelou-se particularmente influente,
40
com sua ênfase no fluxo de informações entre os armazenamentos de memória,
controle de processos que regulam esse fluxo, e uma descrição matemática desses
processos. O modelo foi um exemplo por excelência da abordagem de
processamento da informação e foi relacionada a várias conclusões sobre a memória.
Por exemplo, quando as pessoas tentam lembrar uma longa lista de palavras algo que
elas fazem melhor sobre as primeiras palavras apresentadas, cria-se um efeito de
"primazia", e sobre as últimas palavras apresentadas, um efeito de recência. Vários
experimentos indicaram que o efeito de recência reflete a recuperação do STM,
enquanto que o efeito de primazia reflete melhor a recuperação da LTM, devido ao
maior ensaio para os itens apresentados pela primeira vez. Na época os resultados
deram muito apoio dos modelos de memória dual.
A model from a short-term memory is described and evaluated. A variety
of experimental data are shown to be consistent with the following
statements. (a) Unrehearsed verbal stimuli tend to be quickly forgotten
because their traces decay in time. (b) Rehearsal may transfer an item
from a very limited primary memory store to a large and more stable
secondary store. (c) A recently perceived item may be retained in both
stores at the same time. The properties of these 2 independent memory
systems can be separated by experimental and analytical methods.
(WAUGH e NORMAN, 1965, p.89)
O progresso durante este período envolveu também empiricamente
determinar as características de codificação, armazenamento e recuperação de
processos no STM e LTM. Os resultados indicaram que o material verbal seria
codificado e armazenado em um código fonológico para o STM, mas um código
mais baseada em significado, para LTM. Outros estudos clássicos demonstraram que
41
o esquecimento no STM refletia uma perda de informação do armazenamento devido
à decadência ou interferência, enquanto algumas perdas aparentes de informações em
LTM refletem frequentemente uma falha temporária na recuperação. Em grande
medida, estes resultados mantiveram-se durante mais de 30 anos de pesquisa, embora
muitas das descobertas passassem a ser vistas como um âmbito mais limitado, por
exemplo, as descobertas sobre o STM são agora vistas como refletindo apenas um
componente da memória de trabalho, e as conclusões sobre o LTM são vistas como
características de apenas um dos vários sistemas LTM.
Uma das inovações mais importantes da pesquisa dos 1960 foi a ênfase no
tempo de reação como uma medida dependente. Como o foco era sobre o fluxo de
informações, fazia sentido caracterizar vários processos por sua extensão temporal.
Em um artigo seminal, relatou Saul Sternberg (1966) que o tempo para recuperar um
item do STM aumentou linearmente com o número de itens no armazenamento,
sugerindo que a recuperação foi baseada em uma análise rápida do STM. Sternberg
deu um novo impulso a medidas de latência quando desenvolveu o método de
"fatores de aditivo”, significando que hipóteses dadas sobre o processamento de série
permitiam atribuir mudanças em tempos de reação aos estágios de processamento
específicos envolvidos na tarefa (por exemplo, uma diminuição na perceptibilidade
da informação. Isso afetou a codificação da informação em STM, mas não seu
armazenamento e recuperação. Esses avanços em “cronometria mental” rapidamente
se espalharam para outras áreas de estudo da memória.
When subjects judge whether a test symbol is contained in a short
memorized sequence of symbols, their mean reaction-time increases
42
linearly with the length of the sequence. The linearity and slope of the
function imply the existence of an internal serial-comparison process
whose average rate is between 25 and 30 symbols per second.
(STERNBERG, 1966, p. 652)
Começando no início dos anos 1960, houve um grande interesse na
determinação da realidade psicológica das teorias de Chomsky da linguagem.
Algumas dessas experiências linguisticamente inspiradas nos paradigmas
apresentados: frases, percepção e memória, mostraram que as sentenças consideradas
mais complexas sintaticamente pela gramática transformacional eram mais difíceis
de perceber ou de armazenagem. Experiências mais sutis mostraram que as unidades
sintáticas, como as frases, funcionam como unidade de percepção, STM e LTM.
Embora muitos desses resultados não sejam mais vistos como críticos, estes esforços
de pesquisa criaram um ramo novo da psicologia cognitiva, a psicolingüística que
exigia sofisticação na teoria lingüística moderna.
Nem todos os estudos psicolingüísticos são centrados na sintaxe, alguns
tratam com a semântica, especialmente a representação dos significados das palavras,
e alguns desses estudos fizeram uso da cronometria mental recém-desenvolvida.
Logo no início da década de 1970, os domínios da memória e da linguagem
começaram a se cruzar. Em 1973 (Anderson e Bower, 1974), foi apresentado um
modelo de memória para materiais lingüísticos. O modelo de processamento da
informação, conjugado com desenvolvimentos então recentes da lingüística e da
inteligência artificial (IA), ligando as três direções principais da pesquisa, levou à
revolução cognitiva. O modelo utilizando redes semelhantes à que se considerou para
representar o conhecimento semântico foi utilizado nos processos de busca da
43
memória para interrogar essas redes. Também foram centrados esforços na memória
para números ao invés de frases.
... the associative chaining through long-term memory during free recall,
examining idea after idea, searching for senses of words that occurred in
the list; (ANDERSON and BOWER, 1974, p.411)
Na década de 1970 e início de 1980, a ciência cognitiva estava muito
preocupada com as questões sobre as representações mentais, considerando que os
modelos de memória eram proposicionais. Outros pesquisadores argumentaram que
as representações poderiam também ser imaginárias, como uma imagem visual. De
acordo com os estudos interdisciplinares da ciência cognitiva, os pesquisadores de IA
e filósofos entraram no debate sobre as representações proposicionais versus
imaginais. Além de perguntas sobre a modalidade de representações, havia
preocupações sobre a estrutura das representações. Embora tivesse sido assumido
que as representações proposicionais dos objetos eram como as definições, a
proposta dos pesquisadores então era que as representações seriam os protótipos dos
objetos, encaixando-se nisso alguns exemplos melhores do que outros. Novamente as
questões despertaram o interesse de outras disciplinas de psicologia, por exemplo,
com a obra de Lakoff (1987).
Many readers, I suspect, will take the title of this book as suggesting that
women, fire, and dangerous things have something in common--say, that
women are fiery and dangerous. Most feminists I've mentioned it to have
loved the title for that reason, though some have hated it for the same
reason. But the chain of inference--from conjunction to categorization to
commonality--is the norm. The inference is based on the common idea of
44
what it means to be in the same category: things are categorized together
on the basis of what they have in common. The idea that categories are
defined by common properties is not only our everyday folk theory of
what a category is, it is also the principal technical theory--one that has
been with us for more than two thousand years. (LAKOFF, 1987, p.5)
O movimento da ciência cognitiva afetava a maioria das áreas da psicologia
cognitiva, que vão desde o reconhecimento de objetos para o raciocínio, até a
especialização em resolução de problemas. O movimento continua a ser influente e
cada vez mais centrado em modelos computacionais da cognição e as mudanças
desde a sua criação na década de 1970 foram relativas aos tipos de modelos
computacionais.
Os modelos de computador que dominaram a psicologia cognitiva, a partir de
sua criação utilizando símbolos complexos como representações, processam essas
representações simbólicas de uma forma baseada em regras, por exemplo, em um
modelo de reconhecimento de objeto. A representação de um sapo pode consistir de
um conjunto de propriedades complexas e a regra de reconhecimento pode ser algo
como "Se é verde, pequeno e coaxa, é um sapo".
Começando no início de 1980, uma modalidade alternativa de modelo
cognitivo começou a atrair o interesse. Este era o modelo conexionista ou de
processamento paralelo distribuído. Essas propostas têm a forma de redes neurais,
constituídas por nós ou representações que são densamente interconectadas, com as
ligações variando em pesos.
45
Em 1981 (McClelland et al, 1981), foi apresentado um modelo conexionista
de reconhecimento de palavras que explica uma grande variedade de resultados
experimentais. As comportas foram abertas e os modelos conexionistas da
percepção, memória e linguagem proliferaram, a ponto de passarem a dominar as
abordagens computacionais da cognição. Uma razão para essa atratividade é
freqüentemente citada pela plausibilidade neurológica: os modelos são claramente
mais próximos da função cerebral do que os tradicionais modelos baseados em
regras. Uma segunda razão é que os modelos conexionistas permitem a satisfação e
restrição paralela: diferentes fontes de ativação podem convergir simultaneamente na
mesma representação ou resposta. Uma terceira razão é que os modelos
conexionistas manifestam uma degradação lenta, quando o modelo estiver
danificado, tanto quanto é encontrada em desordens neurológicas humanas.
In our view, people are smarter than today’s computers because the
brain employs a basic computational architecture that is more suited to
deal with a central aspect of the natural information processing tasks
that people are so good at. In this chapter, we will show through
examples that these tasks generally require the simultaneous
consideration of many pieces of information or constraints. Each
constraint may be imperfectly specified and ambiguous, yet each can
play potentially decisive role in determining the outcome of processing.
(McCLELLAND et al, 1987, p. 4)
Do ponto de vista histórico, há um aspecto irônico sobre a ascendência
evolutiva dos modelos conexionistas, tais modelos retornam ao associativismo puro
que caracteriza o behaviorismo. Enquanto os modelos conexionistas dificilmente se
encaixam com todos os ditames behavioristas, suas representações não são restritas
46
aos estímulos e respostas. Eles rotineiramente assumem o processamento paralelo,
com sua confiança em associações e são contrários aos argumentos de Chomsky de
que associativismo puro não pode explicar a linguagem. Esta questão fez parte da
base das críticas aos modelos conexionistas, um dos fundadores dos tradicionais
modelos computacionais, sugeriu uma plausível resolução: o menor nível dos
processos cognitivos como reconhecimento de objetos pode ser bem modeladopelos
modelos conexionistas, mas o alto nível dos processos cognitivos, como o raciocínio
e a linguagem, pode exigir modelagem simbólica tradicional.
Outra grande e nova direção na psicologia cognitiva é o crescente interesse
nas bases neurais da cognição, um movimento conhecido como “neurociência
cognitiva”. Houve pouco interesse em trabalhar na investigação biológica que levou
à revolução cognitiva. Esse trabalho inicial esteve tão preocupado com a luta contra
o behaviorismo e com o avanço da psicologia cognitiva que, conseqüentemente,
grande parte da pesquisa focada nos processos de alto nível foi completamente
afastada de qualquer coisa que tenha acontecido na neurobiologia da época. As
gerações subseqüentes de psicólogos cognitivos solidificaram os seus compromissos
para um nível puramente cognitivo de análise, argumentando que a distinção entre os
níveis cognitivos e neurais de análises era análoga à que existe entre software e
hardware, e que a psicologia cognitiva (e as ciências cognitivas) estava preocupada
principalmente com o software.
Desde o início de 1990, as opiniões sobre a importância da análise neural
mudaram drasticamente. Existe um consenso crescente de que as análises da
47
informação normal de cognição podem ser substancialmente iluminadas por saber
como é implantada a cognição no cérebro.
1.3 Neurociência Cognitiva
Neurociência Cognitiva é o campo acadêmico que estuda cientificamente os
substratos biológicos adjacentes à cognição. Tem seu foco específico sobre o
substrato neural dos processos mentais. Aborda questões de como funções cognitivas
são produzidos pelo e no cérebro. A neurociência cognitiva baseia-se em teorias das
ciências cognitivas associadas com as evidências da neuropsicologia e modelagem
computacional. Os principais temas de estudo dentro das possibilidades de estudo da
neurociência são: atenção, consciência, tomada de decisões, aprendizagem e
memória.
The quick answer to the question in cognitive neuroscience is the field of
scientific endeavor that is trying to understand how the brain enables the
mind. Depending on how successful we are, information gained from
these studies would be of great importance to the legal system.
(GAZZINAGA, 2010, p. 2)
Como na psicologia cognitiva, os neurocientistas frequentemente realizam
experimentos controlados, porém ambas as observações são muito diferentes, uma
vez que os neurocientistas estão diretamente envolvidos com a natureza do cérebro.
Com sujeitos não humanos, os investigadores poderiam inserir eletrodos e registrar a
queima de neurônios individuais e utilizar de algumas outras técnicas que não
priorizariam a integridade deste sujeito, já com os seres humanos essa técnica seria
48
demasiadamente invasiva. Entretanto, nos últimos anos, apenas com o uso magnético
e de dispositivos de digitalização de pósitrons, tornou-se possível observar e analisar
o que está acontecendo em diferentes partes do cérebro enquanto as pessoas estão
realizando várias tarefas mentais. Assim como a psicologia cognitiva, a neurociência
é muitas vezes teórica, bem como experimental, e o desenvolvimento da teoria é
freqüentemente auxiliado no desenvolvimento de modelos computacionais do
comportamento de grupos de neurônios.
As primeiras raízes da neurociência cognitiva foram relacionadas aos estudos
em frenologia por volta de 1810, a qual realizou uma abordagem pseudocientífica
que alegava grosseiramente que o comportamento poderia ser determinado pelo
formato da cabeça. Foi a partir de então que se fomentou a grande possibilidade e
esforço em se mapear o cérebro e analisar o intelecto humano.
If, according to the ancient philosophers, the intellectual faculties be
placed in the brain, and the moral sentiments in the viscera of the
abdomen and thorax, that the understanding might not be disturbed by
the passions;—if it be said that the nervous plexuses or ganglia are the
seats of the affections;—if, according to Dumas, Eicherand, Sprengel,
and other physiologists, the difference of the feelings and intellectual
faculties results from the difference of the temperaments.
(SPURZHEIM, 1833, p. 59)
Em 1870, os médicos alemães publicaram suas descobertas sobre o
comportamento dos animais, realizaram o experimento no qual induziram uma
corrente elétrica através do córtex cerebral de um cachorro, fazendo com que o cão
produzisse movimentos característicos com base na localização em que a corrente foi
49
aplicada. Observaram que em diferentes áreas onde a corrente era aplicada, o cão
produzia movimentos diferentes. Com o estudo da neuroanatomia foi descoberto um
método de diferenciação dos tecidos utilizando técnicas de coloração para identificar
tipos de células no cérebro. Através deste estudo, Korbinian Brodmann (1909)
concluiu que o cérebro humano consista de cinqüenta e duas áreas distintas, então
chamadas de áreas de Brodmann. Além das distinções serem muito precisas, ainda
houve ajustes nessas áreas com o decorrer do tempo até a atualidade.
The basis for elemental localization is the, in itself valid, concept that
tissue elements of uniform specific structure, whether they are limited to
a large or small cortical field or diffusely distributed over the whole
cortex, must also have a uniform physiological function, and thus that
such elements are to be regarded as not only morphologically but also
functionally equivalent. This consideration enables one to establish, at
least in principle, the feasibility and practicability of subdividing the
cerebral cortical surface according to individual nervous elements, such
as cell types with particularly characteristic features - such as intrinsic
shape, size, internal structure, axonal connections, fibrillar organization
and so on. (GAREY et al, 1909, p. 5)
No início do século 20 e posterior aos estudos nas áreas de Broadmann,
iniciaram-se trabalhos no que diz respeito à estrutura do neurônio. Foi desenvolvido
um método de coloração com prata que poderia manchar inteiramente várias células
em uma determinada área, os neurônios, como foram chamados, eram diretamente
ligados uns aos outros em um citoplasma. Foi descoberto também que as células
transmitem sinais elétricos pelo neurônio em uma única direção. A doutrina do
neurônio como ficou conhecida desde então, apresentou uma teoria fundamental para
50
a compreensão da neurofisiologia e futuras áreas relacionadas, como foi o caso da
neurociência cognitiva.
Antes dos anos 1980, a interação entre a neurociência e a ciência cognitiva
era escassa. Neurociência cognitiva é um termo inventado por George Miller e
Michael Gazzaniga no final da década de 1970. A neurociência cognitiva passou a
integrar a terra recém-estabelecida e teórica nas ciências cognitivas. Estas, como
foram visto acima, surgiram entre os anos 1950 e 1960 com abordagens em
psicologia experimental, neuropsicologia e neurociências. No fim do século XX,
houve uma evolução e novas tecnologias, que hoje são o esteio da metodologia da
neurociência cognitiva, foram incorporadas, incluindo estimulação magnética
transcraniana (TMS) e imagem de ressonância magnética funcional (fMRI). Métodos
anteriores utilizados em neurociência cognitiva incluem eletroencefalograma (EEG)
e magneto-encefalograma (MEG). Ocasionalmente, os neurocientistas cognitivos
utilizam métodos de imagens do cérebro, tais como tomografia por emissão de
positrons (PET) e tomografia computadorizada por emissão de fóton único (SPECT).
Outros métodos incluem microneurografia, eletromiografias (EMG) faciais e
movimentos oculares, tentativas integrativas para a neurociência consolidar dados
em um banco de dados, e dessa forma unificar modelos descritivos de diversas áreas
e escalas: biologia, psicologia, anatomia, e práticas clínicas.
Indiferença Filosófica aos detalhes da neurociencias tornaram-se princípios
com a ascensão e proeminência do funcionalismo em 1970. O argumento
funcionalista favorito foi baseado em realizabilidade múltipla: um determinado
51
estado mental ou um evento que pode ser realizado em uma grande variedade de
tipos físicos.
Para melhor entendimento, o funcionalismo é a doutrina segundo a qual um
pensamento, desejo, dor, ou qualquer outro tipo de estado mental, não depende da
sua constituição interna, mas unicamente da sua função ou do papel que desempenha,
no sistema cognitivo do qual faz parte. Mais precisamente, as teorias funcionalistas
assumem a identidade de um estado mental a ser determinado por suas relações de
causas com estímulos sensoriais, ou outros estados mentais e comportamentos. Em
vez da neurociência, os filósofos com mentalidade científica influenciados por
evidências do funcionalismo procuraram inspiração na psicologia cognitiva e em
programas inteligência artificial.
Na filosofia se destaca em 1986, o desafio à separação funcionalista entre o
cérebro e a mente, seguindo três vertentes: (a) para desenvolver uma conta da
redução teórica da mente ao cérebro radicalmente diferente da lógica na filosofia
positivista da ciência; (b) para mostrar que as objeções de consciência baseadas na
redução psico-neural não funcionam; (c) para mostrar que funcionalista / objeções à
realizabilidade múltipla para a redução psico-neural não funcionam.
Houve uma oposição à realizabilidade múltipla por Bechtel e Mundale (1997)
cujo argumento foi baseado na maneira pela qual os neurocientistas utilizam critérios
psicológicos para determinar o que conta como uma área do cérebro.
52
The claim of multiple realizability is the claim that the same
psychological state can be realized by different brain states. Thus, it is
claimed that there is a many-to-one mapping from brain states to
psychological states. (BECHTEL et al, 1999, p. 176)
Em 1984, foi demonstrado como aspectos cognitivistas de aprendizagem
associativa poderiam ser explicados celular e biologicamente por seqüências e
combinações destas formas básicas aplicadas em maior anatomia neural. Os
neurocientistas começaram a desvendar, então, os mecanismos celulares do potencial
de longa duração (LTP). Os psicólogos fisiológicos rapidamente notaram o seu
potencial explicativo para diferentes formas de aprendizagem e memória, no entanto,
poucos filósofos prestaram atenção, por estarem convencidos pela doutrina
funcionalista. Eles acreditavam que a engenharia em nível mais detalhado poderia ser
importante para o médico, mas era irrelevante para os teóricos da mente.
These experiments arose from an observation made during a study of the
phenomenon of frequency potentiation in the dentate area of the
hippocampal formation. It was noticed that the response evoked in the
dentate area by single test shocks to the afferent perforant pathway often
remained potentiated for a considerable time after short periods of
stimulation at 10-20/sec. In this paper we describe the effect in the
anaesthetized rabbit. (BLISS et al, 1973, p. 332)
Existem três pontos de vista gerais sobre a relação entre os estados
psicológicos postulados pela ciência cognitiva e os processos neurofisiológicos
estudados nas neurociências (Brook et al, 2004):
(a) A tese da autonomia: enquanto cada estado psicológico pode ser
(implantado por ser superveniente a) o estado do cérebro, os tipos de estados
53
psicológicos nunca serão mapeados para tipos de estados cerebrais. Assim, cada
domínio precisa ser investigado por meios distintos da ciência cognitiva, para tipos
cognitivamente delimitados de atividade, a neurociência para as atividades descritas
em termos de processos e estruturas cerebrais.
(b) Reducionismo: Tipos de estados psicológicos acabarão por ser
considerados tipos de estados neurofisiológicos, cada tipo cognitivamente delimitado
pode ser mapeado em algum tipo de processo cerebral e / ou estrutura com nada de
sobra. A história da ciência tem sido em grande parte, uma história de tal redução:
Química tem se mostrado um ramo da física, grande parte da biologia foidirecionada
para ser um ramo da química, e assim por diante. Reducionistas sobre a cognição
acreditam que ela passará a ser um ramo da biologia.
(c) Eliminativismo (ou materialismo eliminatório): As teorias psicológicas
são tão cheia de erros e conceitos psicológicos são tão fracos quando se trata de
construir uma ciência que os estados psicológicos não falam de nada que realmente
existe.
Para melhor compreensão, pode ser conceituado o reducionismo (Brigandt et
al, 2005) como uma abordagem para a compreensão da natureza das coisas
complexas, reduzindo-as às interações de suas partes, ou a posição filosófica de que
um sistema complexo não é senão a soma de suas partes. Um exemplo é o caso que
cientistas concluíram que a luz visível, a postulação teórica da óptica, é a radiação
eletromagnética no comprimento de onda específica, postulando uma teoria do
eletromagnetismo: a identidade transteórica ontológica.
54
Em outro caso, os químicos concluíram que o flogisto não existia: a
eliminação de uma espécie de ontologia científica. Tem sido realizado um ataque
contra a argumentação de propriedade dualista para a irredutibilidade da experiência
consciente e qualia sensoriais. Argumenta-se que a aquisição de alguns
conhecimentos das capacidades existentes sensoriais na neurociência amplia a
capacidade de "imaginar" ou "conceber" uma explicação exaustiva da consciência na
neurobiologia. Finalmente, existe critica ao argumento da múltipla realizabilidade
que começara a florescer. Embora o argumento da múltipla realizabilidade
permaneça influente entre os fisicalistas não-redutivista, esta já não temaceitação
universal. Respostas para o argumento da múltipla realizabilidade com base em
detalhes neurociência têm aparecido.
O eliminativismo como uma posição materialista na filosofia da mente
apresenta como alegação principal que o entendimento do senso comum da mente
seria falso, e que certos tipos de estados mentais em que a maioria das pessoas
acredita, não existem. Alguns eliminativistas argumentam que não será encontrada
base coerente neural para muitos conceitos psicológicos cotidianos, como a crença
ou desejo, uma vez que são mal definidas. Em vez disso, eles argumentam que os
conceitos psicológicos de comportamento e experiência devem ser julgados pela
maneira como eles reduzem o nível biológico. Mas essas questões já foram tratadas
no tópico sobre filosofia da mente.
Um ponto importante no interesse dos filósofos em neurociência veio com
publicações sobre neurofilosofia, as quais ficaram notórias por defender o
eliminativismo. Os argumentos eliminativistas unificaram os pedaços de filosofia da
55
ciência que lhes estavam subjacentes, imprensados entre a filosofia, a neurociência e
as três teorias da função cerebral. Isto significou a introdução da filosofia da ciência
para os neurocientistas e da neurociência para os filósofos. Ligava-se a relevância
dos fatos empíricos sobre como o cérebro funciona às preocupações da filosofia da
mente.
É evidente que especificar algum ponto onde termina a neurociência e
filosofia da ciência começa é impossível, porque as fronteiras são muito mal
definidas. Neurofilósofos iriam escolher os recursos de ambas as disciplinas como
quisessem. Para dar apenas um exemplo do tipo de argumento montado em suporte
ao eliminativismo, fenômenos identificados usando conceitos psicológicos são
difíceis senão impossíveis de quantificar com precisão, mas todo sucesso científico
quantifica os tipos de coisas de interesse. Os argumentos eliminativista são anti-
reducionistas, pois eles argumentam que não há maneira de reduzir as teorias
psicológicas e teorias neurais, e mesmo que houvesse, não haveria motivo para fazer
isso.
Outras tendências recentes, agora na filosofia da neurociência, incluem um
interesse renovado na natureza das explicações mecanicistas, dado o amplo uso do
termo entre os neurocientistas. Sustenta-se que as explicações mecanicistas da
neurociência são causais e tipicamente multi-nível. Por exemplo, a explicação do
potencial de ação neuronal envolve o potencial de ação própria, a célula em que
ocorrem, gradientes eletro-químicos, e as proteínas através do qual o fluxo de íons
flui. Aqui temos uma entidade composta (uma célula) causalmente interagindo com
neurotransmissores nos seus receptores. Partes da célula se envolvem em diversas
56
atividades, abertura e fechamento de canais iônicos e dependentes da voltagem, para
produzir um padrão de mudança (a corrente despolarizante que constitui o potencial
de ação). A explicação mecanicista da ação potencial refere-se a entidades a nível
celular, molecular e atômica, cada um dos quais é causalmente relevante para
produzir o potencial de ação. Esta relevância causal pode ser confirmada por alterar
qualquer uma das variáveis para gerar alterações no potencial de ação e verificando a
consistência da suposta invariância entre as variáveis.
Although natural regularities contribute to the production of an effect,
regularity is one thing and causal productivity is another. It is to
Mechanism`s credit that it enables us to appreciate the difference, and to
adjust our ideas of the roles of laws and lesser generalizations
accordingly. (BOGEN, 2005, p.418)
Essas grandes questões da filosofia da neurociência têm sido apresentadas e
reapresentadas nos últimos 25 anos. Trabalhos em conjunto com filósofos ajudaram
neurocientistas a desenvolver um sentido mais preciso de exatamente como seu
trabalho se relaciona com outra área e outro trabalho científico, como a ciência
cognitiva em particular. É interessante observar que a maioria dos estudiosos na
filosofia e neurociência, aparentemente, chegaram à mesma posição sobre alguns
assuntos.
57
2 Alguns conceitos das Ciências Cognitivas
Existe uma tendência crescente no estudo da linguistica cognitiva, a de passar
as atenções para uma análise mais fundamental nos signos ou símbolos. Para esses
estudos existe a área chamada de semiótica cognitiva, a qual também pertence às
ciências cognitivas, porém não é tão conhecida como as demais, apesar de possuir
fundamental importância.
Segundo Nöth (2011) a semiótica cognitiva tem por definição ser a ciência de
estudo da representação do conhecimento, da atenção, da percepção, da memória, do
raciocínio, do juízo, da imaginação e do pensamento. Na filosofia e semiótica
alemãs, o conceito de representação geralmente corresponde a dois conceitos às
vezes distintos: Vorstellung (Kant) e Darstellung (Bühler). Os dois conceitos foram
traduzidos para outras línguas como representação.
Nöth (2011) ainda define a diferença das representações para os alemães:
Vorstellung literalmente significa colocar algo em frente de alguém, tem a conotação
de “fazer presente” e pode ser um sinônimo de “representação mental”
“imaginação”, “idéia”, mas o mesmo conceito também é usado no sentido de
representação teatral ou musical. Neste sentido, a palavra conota a ideia da “re-
presentação” no sentido etimológico de “presentificação”. Já Darstellung se refere a
formas de representação não tanto interiores (mentais) como exteriores (públicas).
Simbolizada como “representação gráfica” ou “matemática”, entre as conotações tem
o significado de “apresentação”. Roman Jakobson traduz o conceito de
58
Darstellungsfunktion, de Karl Bühler, como “referential function”, associando assim
este conceito ao conceito de referência.
O que nos distingue de outros animais menos inteligentes é nossa
capacidade de produzir e manipular símbolos. Este é o real caráter
distintivo da inteligência humana: a produção e manipulação de
símbolos que dão origens às atividades cognitivas superiores, como a
Matemática e a linguagem. (TEIXEIRA, 1998, p. 44)
Na Escolástica, o conceito da representação é definido, de forma muito geral,
como o processo de apresentação de algo através dos signos. Tomas de Aquino, por
exemplo, escreve que “toda representação ocorre através dos signos” (omnis
repraesentatio fit per aliqua signa (Op. omn. 18: 377). A amplitude dessa
conceituação se esclarece através de sua diferenciação medieval entre quatro tipos de
representação, a saber, representação: (a) enquanto imagem, (b) enquanto um
vestígio, (c) através de um espelho e (d) através de um livro. O conceito de
representação também foi adotado como sinônimo de signo / símbolo por John
Locke (1690) e por Charles Sanders Peirce (1865). A fim de diferenciar entre os
conceitos representação e signo, Peirce introduz o termo representamen (aquilo que é
representado). Dretske (1988: 51-77) define a representação de forma ainda mais
geral. Para ele, tanto os signos naturais quanto os convencionais podem representar,
desde que cumpram uma função de significado em um sistema representacional
(Nöth, 2011).
As ciências cognitivas tratam os dados de um sistema de processamento
de informação como símbolos e seus significados são tratados como
representações. (SANTAELLA, 2004, p. 59)
59
Através disso surge a questão de como essas informações são representadas
mentalmente, como sugere Fodor (1975) com a linguagem do pensamento, ainda que
pudessem existir vários tipos de representações mentais.
É um pressuposto fundamental da psicologia cognitiva que as
explicações sobre o comportamento se referem não apenas a entradas
(inputs) e saídas (outputs), mas também ao modo como a informação
está codificada na mente. (SANTAELLA, 2004, p. 65)
Existe forte tendência em acreditar na modularidade da mente, assim como
alguns autores já citados, Howard Gardner (1994) também defende essa teoria em
seu livro Estruturas da Mente: A teoria das Inteligências Multiplas. Nessa obra
Gardner (1994) chega à conclusão de que a mente se divide em sete inteligências:
lingüística, musical, lógico-matemática, espacial, corporal-cinestésica, interpessoal e
intrapessoal. Inteligência esta que pode ser definida como:
Individuals differ from one another in their ability to understand complex
ideas, to adapt effectively to the environment, to learn from experience,
to engage in various forms of reasoning, to overcome obstacles by taking
thought. Although these individual differences can be substantial, they
are never entirely consistent: A given person's intellectual performance
will vary on different occasions, in different domains, as judged by
different criteria. Concepts of "intelligence" are attempts to clarify and
organize this complex set of phenomena. (NEISSER et al, 1996, p. 77)
Intelligence is a very general mental capability that, among other things,
involves the ability to reason, plan, solve problems, think abstractly,
comprehend complex ideas, learn quickly and learn from experience. It is
60
not merely book learning, a narrow academic skill, or test-taking smarts.
Rather, it reflects a broader and deeper capability for comprehending
our surroundings "catching on," "making sense" of things, or "figuring
out" what to do. (GOTTFREDSON, 1997, p. 13)
Além da modularidade da mente, muitos estudiosos chegam à conclusão de
que a extremidade que traduz a linguagem da mente poderia nos dar mais
informações com relação à própria linguagem, ou seja, no momento em que se
sugerem representações mentais, ficam automaticamente implícitas as questões de
captações das mesmas, entrando então nos conceitos de sentidos e percepções muitos
dos quais analisados e desvendados pela neurociência e inteligência artificial.
Robles-De-La-Torre and Hayward describe an ingenious experiment in
which they used a robotic device to uncouple force from geometric
information. In a task involving the detection of bumps and holes, they
show that force cues — not geometric cues — determine perceived shape.
(FLANAGAN; LEDERMAN, 2001, p. 389)
FIGURA 2
MODELO EM PERCEPÇÃO DE DE-LA-TORRE E HAYWARD
FONTE: NATURE, Vol.412, July, 2001, p.446
61
O estudo da percepção apresenta alguns tipos principais para análise. Nos
seres humanos, as formas mais desenvolvidas são a percepção visual e auditiva, pois
elas foram fundamentais à sobrevivência da espécie. Também é por essa razão que as
artes plásticas e a música foram as primeiras formas de arte a serem desenvolvidas
por todas as civilizações, antes mesmo da invenção da escrita. As demais formas de
percepção, como a olfativa, gustativa e tátil, embora não associadas às necessidades
básicas, têm importante papel na afetividade e na reprodução. Além da percepção
ligada aos cinco sentidos, os humanos também possuem capacidade de percepção
temporal e espacial (Nöth, 2011).
Gestalt psychology attempts to understand psychological phenomena by
viewing them as organized and structured wholes rather than the sum of
their constituent parts. Thus, Gestalt psychology dissociates itself from
the more 'elementistic' / reductionistic / decompositional approaches to
psychology like structuralism (with its tendency to analyze mental
processes into elementary sensations) and it accentuates concepts like
emergent properties, holism, and context. (SOEGAARD, 2010, p. 1)
A percepção temporal não possue um orgão específico como agente de
captação. Ela é definida como a capacidade que as pessoas possuem de distinguir o
transcorrer do tempo. Existe uma divisão experimental de fenômenos que são
estudados atualmente: (a) a percepção das durações, (b) a percepção e a produção de
ritmos e (c) a percepção da ordem temporal e simultaneidade.
Assim como para a percepção temporal, não existe um órgão específico para
a percepção espacial, mas as distâncias entre os objetos podem ser efetivamente
62
estimadas pelos seres humanos. Isso envolve a percepção da distância e do tamanho
relativo dos objetos. Segundo a neurociência, o lobo parietal do cérebro representa
um papel importante neste tipo de percepção.
Outro tipo de percepção se chama Propriocepção ou cinestesia. É a
capacidade de reconhecer a localização espacial do corpo, sua posição e orientação, a
força exercida pelos músculos e a posição de cada parte do corpo em relação às
demais, sem utilizar a visão. Este tipo específico de percepção permite a manutenção
do equilíbrio e a realização de diversas atividades práticas. Resulta da interação das
fibras musculares que trabalham para manter o corpo na sua base de sustentação, de
informações táteis e do sistema vestibular, localizado no ouvido interno e
responsável pelo equilíbrio. O conjunto das informações dadas por esses receptores
permite, por exemplo, desviar a cabeça de um galho, mesmo que não se saiba
precisamente a distância segura para se passar, ou mesmo o simples fato de poder
tocar os dedos do pé e o calcanhar com os olhos vendados, além de permitir
atividades importantes como andar, coordenar os movimentos responsáveis pela fala,
segurar e manipular objetos, manter-se em pé ou posicionar-se para realizar alguma
atividade (Nöth, 2011).
63
CAPÍTULO II: INTELIGÊNCIA ARTIFICIAL
Sempre que se aborda um assunto é interessante primeiramente conhecer sua
definição, mesmo para questões que possuam divergências na sua aceitação. Este é o
caso de inteligência artificial, que pode ser definida como a área de estudo que busca
métodos e/ou dispositivos artificiais que possuam ou simulem a capacidade de ser
inteligente.
It is the science and engineering of making intelligent machines,
especially intelligent computer programs. It is related to the similar task
of using computers to understand human intelligence, but AI does not
have to confine itself to methods that are biologically observable.
(MCCARTHY, 1956)
Neste capítulo serão abordadas as evoluções históricas da inteligência
artificial, os principais eventos, experimentos e conceitos que causaram polêmica e
delimitam a evolução da área, algumas técnicas muito utilizadas e as expectativas
sobre o tema.
Observa-se nos tempos atuais uma grande demanda na utilização de
computadores para realização de trabalhos lógicos repetitivos e algumas vezes
distintos ao invés de mão de obra humana qualificada. Alguns desses trabalhos
executados por máquinas possuem inclusive uma confiabilidade maior que os
executados por seres humanos, viabilizando assim a implantação e comercialização
em larga escala destes dispositivos com graus limitados de inteligência.
64
Devido a este fato, existe uma crescente tendência massificadora em utilizar
aplicações e dispositivos automáticos que façam algumas tarefas pelas pessoas, tanto
na profissão quanto na vida cotidiana, ou seja, as máquinas dotadas de inteligência
artificial estão sendo completamente absorvidas pelo ser humano nos tempos atuais.
Dentro do campo de estudo da Inteligência artificial existe uma subdivisão e
conceituação em inteligência artificial fraca e inteligência artificial forte. É
considerado inteligência artificial fraca todo e qualquer sistema inteligente que
execute ou aplique um algoritmo predeterminado para resolução de problemas, ou
seja, argumenta-se para uma inteligência artificial fraca que a máquina apenas
aparentará que pensa, enquanto na verdade não será consciente da mesma forma que
a mente humana o é. A inteligência artificial fraca pode ser citada também como
inteligência artificial aplicada, ou ainda como inteligência artificial estreita
(SEARLE, 1980).
Já o conceito de inteligência artificial forte, de uma maneira geral,
corresponde à replicação da inteligência do ser humano ou uma inteligência superior
a tal, ou seja, argumenta-se que será possível que uma máquina seja inventada com
uma inteligência nos moldes da mente humana. Em outras palavras, esta máquina
poderia: pensar, imaginar, ter razão, etc., fazendo tudo o que nós associamos à mente
e que a mente humana faz nos moldes dos estudos nas ciências cognitivas (SEARLE,
1980).
O maior desafio na atualidade em inteligência artificial é a geração da
inteligência artificial forte, ou seja, a grande audácia nos dias de hoje para a
65
inteligência artificial é conseguir converter a obediência de uma máquina em desejo,
cognição e consciência, ou seja, a própria máquina ter uma visão de autoprojeção
mais adequada de acordo com o universo a sua volta.
…Let an ultraintelligent machine be defined as a machine that can far
surpass all the intellectual activities of any man however clever. Since
the design of machines is one of these intellectual activities, an
ultraintelligent machine could design even better machines; there would
then unquestionably be an 'intelligence explosion,' and the intelligence of
man would be left far behind. Thus the first ultraintelligent machine is
the last invention that man need ever make... (GOOD, 1965, p.33)
66
1. HISTÓRICO E EVOLUÇÕES
Não restam dúvidas de que há muito tempo o homem já conseguia idealizar
um invento artificial que representasse o próprio homem, sempre se baseando nas
tecnologias rudimentares da época, no que se diz respeito ao tamanho do desafio. De
fato, que com o passar do tempo o que seriam apenas idéias começaram a se tornar
obras fictícias, como a figura mitológica do Golem para o Judaísmo ou mesmo como
o famoso Monstro de Frankenstein escrito em 1818 por Mary Shelley entre outras
obras deste gênero.
O próximo passo dessa evolução foi a construção de máquinas que, com o
passar do tempo, cada vez mais auxiliavam o homem em diversas tarefas, desde as
mais rudimentares geralmente realizadas com ferramentas mecânicas portáteis
manuais, passando evolutivamente à implantação da doutrina industrial Fordista no
mundo e culminando nos inventos de dispositivos eletrônicos pré-computador, como
por exemplo a calculadora.
Porém especula-se que somente a partir das melhorias para o tear têxtil de
Joseph Marie Jacquard em 1801 é que se iniciou uma real evolução para o que
chamamos hoje de computador. A melhoria relevante no tear têxtil de Jacquard foi a
introdução de uma série de cartões de papel perfurados como um modelo que
permitia ao tear tecer enredados padrões automaticamente. O resultado de Jacquard
foi um passo importante no desenvolvimento dos computadores porque o uso de
cartões perfurados para definir padrões de tecido pode ser visto como uma forma
primitiva, embora limitada, de programação.
67
As maquinas computacionais ganharam uma nova filosofia nos primeiros
anos seqüentes de 1940. O primeiro computador eletro-mecânico inventado por
Konrad Zuze, constituído de relés, efetuava cálculos e exibia os resultados em fita
perfurada. Este computador e as ideias envolvidas inspiraram uma séria discussão
entre diversos cientistas, com relação à possibilidade de se criar um modelo de
cérebro eletrônico. Assim especulava-se sobre o conceito da inteligência artificial.
Considera-se como marco inicial cronológico e substancial para a Inteligência
Artificial, o ano de 1950 após a invenção do computador e com a publicação da obra
de Alan Turing (1950) em Computing Machinery and Intelligence, a qual apresenta
como destaque o método de mensurar se máquinas possuem consideráveis níveis de
inteligência humana, chamando este de Teste de Turing.
68
1.1 Teste de Turing
O Teste de Turing propriamente tentava solucionar na época o
questionamento sobre a possibilidade de identificar a criação de computadores
inteligentes, ou seja, o computador que passasse por este teste seria considerado
então como uma máquina inteligente.
O processo de avaliação do Teste de Turing consiste em três elementos: um
computador e duas pessoas, sendo que as pessoas e o computador ficam em salas
diferentes sem contato visual.
FIGURA 3
MODELO CONCEITUAL DO TESTE DE TURING
FONTE: http://devcentral.f5.com/weblogs/macvittie/archive/2008/07/18/3468.aspx
Neste caso, identifica-se o avaliador como pessoa C, o computador e a outra
pessoa seriam representados respectivamente como pessoa A e pessoa B, porém sem
o conhecimento do avaliador. O avaliador tem a função de trocar mensagens com as
69
pessoas A e B visando distinguir através das mensagens qual dos personagens seria o
computador. Caso o avaliador não distingua qual deles é o computador, significa que
a máquina passou no teste e poderia ser considerada inteligente segundo o Teste de
Alan Turing.
An important feature of a learning machine is that its teacher will often
be very largely ignorant of quite what is going on inside, although he
may still be able to some extent to predict his pupil's behavior.
(TURING, 1950, p.459)
Alan Turing (1950) teoriza com esta frase o conceito principal de Inteligência
Artificial Forte. Somente posteriormente este termo viria a ser destacado
definitivamente. No contexto a frase é baseada em comportamento e/ou conduta, os
quais caracterizam definitivamente o Teste de Turing.
A expressão "O Teste de Turing” é mais propriamente utilizada para se referir
a uma proposta feita por Turing (1950) como uma forma de lidar com a questão de
saber se as máquinas podem pensar. De acordo com Turing, a questão de saber se as
máquinas podem pensar é em si mesma algo que merece discussão. No entanto,
considerando as mais precisas perguntas se um computador digital pode fazer bem
determinado tipo de jogo que Turing descreve como "O jogo da imitação", então,
pelo menos aos olhos de Turing, nós temos uma questão que não admite discussão
precisa. Assim, a frase "O Teste de Turing” é geralmente usada para se referir a
alguns tipos de testes comportamentais para a presença de espírito, ou pensamento,
ou a inteligência em entidades supostamente ocupadas. Assim, por exemplo, às vezes
70
é sugerido que o teste de Turing seja prefigurado no Discurso de Descartes sobre o
método (OPPY et al, 2011).
71
1.2 Projeto de Dartmouth
No verão de 1955 na Universidade de Dartmouth, localizada na cidade de
Hannover, estado de New Hampshire nos Estados Unidos da América, ocorre o que
se considera o nascimento do campo de estudo da inteligência artificial. Este
encontro de dez dos maiores estudiosos no campo da inteligência artificial ocorreu
com o objetivo de serem trabalhadas questões polêmicas com relação ao tema, os
quais são citados como problemas no artigo “A Proposal For The Dartmouth
Summer Research Project On Artificial Intelligence”. Tendo como anfitrião o
professor John McCarthy (1955), este evento marcou o início da intensificação das
pesquisas em inteligência artificial.
We propose that a 2 month, 10 man study of artificial intelligence be carried
out during the summer of 1956 at Dartmouth College in Hanover, New
Hampshire. The study is to proceed on the basis of the conjecture that every
aspect of learning or any other feature of intelligence can in principle be so
precisely described that a machine can be made to simulate it. An attempt
will be made to find how to make machines use language, form abstractions
and concepts, solve kinds of problems now reserved for humans, and improve
themselves. We think that a significant advance can be made in one or more
of these problems if a carefully selected group of scientists work on it
together for a summer. (MCCARTHY, 1955, p. 1)
72
1.3 Inteligência Artificial e “Golden Years”
De 1956 até 1974 ocorre o que foi chamado de “Golden Years” no campo de
estudos da Inteligência Artificial, pois todas as descobertas propostas e programas
desenvolvidos eram muito valorizados e considerados grandes inovações da
tecnologia. Começou-se a se provar nos computadores teoremas geométricos,
soluções de álgebras em um tempo reduzido e questões de instruções simbólicas em
máquinas.
A programming system called LISP (for LISt Processor) has been
developed for the IBM 704 computer by the Artificial Intelligence
group at M.I.T. The system was designed to facilitate experiments with
a proposed system called the Advice Taker, whereby a machine could
be instructed to handle declarative as well as imperative sentences
and could exhibit \common sense" in carrying out its instructions.
(MCCARTHY, 1960, p. 1)
No período de 1956 até 1960 foram apresentadas muitas melhorias e
desenvolvimentos nos direcionamentos dos principais assuntos no campo de
Inteligência Artificial que foram: raciocínio para buscas, linguagem natural, e
projetos particionados chamados na época de micro-words. O otimismo das
descobertas era evidente além dos estudos estarem dando muitos resultados
positivos; Com toda essa euforia foram feitos alguns prognósticos futurísticos das
evoluções sobre onde chegariam os estudos desta nova ciência chamada de
inteligência artificial. Um dos estudiosos a sugerir prognósticos muito otimistas foi
Marvin Minsky, também participante do projeto de Dartmouth que, em sua obra de
1967 entitulada Computation: Finite and Infinite Machines, arrisca alguns palpites
73
evolucionários desta ciência, inclusive pode-se notar um alto grau de entusiasmo
nesse prognóstico.
In from three to eight years we will have a machine with the general
intelligence of an average human being.
(MINSKY, 1970, p. 59)
Foi então que, subsequente a este período, começaram a esboçar e sugir
alguns inventos relevantes ao estudo da inteligência artificial. Como exemplo os
chatterbots. Foi neste momento da história que Joseph Weizenbaum (1966)
desenvolveu o chatterbot chamado ELIZA. Este conseguia manter uma conversa por
chat simulando uma conversa real como se fosse de fato uma pessoa. De fato ELIZA
não pensava, somente respondia as perguntas baseadas em redes semânticas,
relacionando palavras e expressões umas com as outras.
Assim igualmente na época foi apresentado o projeto Dendral (LINDSAY et
al, 1980) com seu pioneiro e inovador software especialista. O objetivo do projeto
Dendral seria desenvolver soluções capazes de encontrar as estruturas moleculares
orgânicas a partir da espectrometria de massa das ligações químicas presentes em
uma molécula desconhecida. Como estas estruturas moleculares orgânicas são
normalmente muito grandes, o número de estruturas possíveis para as moléculas
tende a ser enorme. O Dendral trata o problema deste grande espaço de busca
aplicando o conhecimento heurístico de especialistas em química, para encontrar a
estrutura correta.
74
Outros diversos avanços ocorreram neste período como: redes semânticas,
linguagem de processamento natural, matemática simbólica, programas que jogam
xadrez, robôs com soluções para problemas pontuais e até mesmo o perceptron que
daria origem às redes neurais na computação, interligando definitivamente a
inteligência artificial com as ciências cognitivas através da idéia do conexionismo.
Como foi mencionado no capítulo anterior, o conexionismo é um movimento
das ciências cognitivas que pretende explicar a capacidade intelectual humana
utilizando redes neurais artificiais. As redes neurais são modelos simplificados do
cérebro composto por um grande número de unidades (os análogos de neurônios),
juntamente com os pesos que medem a força das conexões entre as unidades. Este
modelo de pesos para os efeitos das sinapses neuronais que ligam um ao outro tem
levado a experimentosque têm demonstrado uma capacidade de aprender habilidades
tais como reconhecimento facial, leitura e detecção de estrutura gramatical simples.
Os filósofos têm se interessado pelo conexionismo porque este promete oferecer uma
alternativa à teoria clássica da mente: a visão amplamente difundida de que a mente é
algo semelhante a um computador de processamento digital de uma linguagem
simbólica. Exatamente como e em que medida o paradigma conexionista constitui
um desafio ao classicismo tem sido um assunto de debate (GARSON, 2010).
Uma rede neural é constituída por um grande número de unidades que se
unem em um padrão de conexões. Unidades de participação em uma rede são
geralmente agrupadas em três classes: (a) unidades de entrada, que recebem as
informações que são processadas, (b) a produção onde os resultados do tratamento
são encontrados (c) e entre as unidades designadas por unidades ocultas. Se uma rede
75
neural fosse usada para modelar o sistema nervoso humano total, as unidades de
entrada seriam análogas aos neurônios sensoriais, as unidades de saída para os
neurônios motores, e as unidades escondidas para todos os outros neurônios.
FIGURA 4
REPRESENTAÇÃO DE UMA REDE NEURAL
FONTE: http://nnf.sourceforge.net/nnf1/doc/neuralnetworks.html
76
1.4 Primeira decepção “First AI Winter”
A evolução contínua da inteligência artificial durou até 1974, ocorrendo uma
grande parada nas evoluções e investimentos na área, chamada pelos estudiosos de
First AI Winter. De 1974 a 1980, este período foi marcado por insucessos e
decepções nas aplicações consideradas promissoras no campo da inteligência
artificial, como foi o caso do tradutor de idiomas pelo computador, o qual seria mais
caro, menos confiável e mais lento que a tradução humana. Também foi motivo de
desestimulo nos estudos em inteligência artificial o baixo poder computacional o
qual postergou o sucesso de alguns projetos da época. O resultado foi um período
sem incentivos financeiros substanciais nas pesquisas, portanto de muito pouco
progresso.
As agências que financiavam as pesquisas em inteligência artificial ficaram
frustradas com a falta de progresso e, eventualmente, cortaram quase todos os
investimentos para as pesquisas no campo de estudo. Existiam grandes expectativas
inclusive para avanços militares consideravelmente diferenciáveis para quem
obtivesse os resultados almejados.
Exemplificando o declínio da área que ocorreu em 1973, o professor James
Lighthill entregou o relatório sobre o estado da investigação na Inglaterra, criticando
o fracasso de toda a pesquisa em inteligência artificial, o qual visava alcançar
objetivos grandiosos e acarretou no desmantelamento de pesquisa daquele país. O
relatório mencionou especificamente o problema da explosão combinatória como
uma razão para falhas em inteligência artificial.
77
Systematic comment on the main section, entitled Past
Disappointments is difficult because of the strange way the subject is
divided up but here are some remarks:
1. Automatic landing systems for airplanes are offered as a field in
which conventional engineering techniques have been more successful
than AI methods…
2. Lighthill is disappointed that detailed knowledge of subject matter
has to be put in if programs are to be successful in theorem proving,
interpreting mass spectra, and game playing…
3. A further disappointment is that chess playing programs have only
reached an ``experienced amateur'' level of play…
4. Lighthill discusses the combinatorial explosion problem as though
it were a relatively recent phenomenon that disappointed hopes that
unguided theorem provers would be able to start from axioms
representing knowledge about the world and solve difficult
problems… (Mccarthy, 2000, p.2)
Hans Moravec também criticou e julgou severamente como causa da crise as
previsões irrealistas e os prognósticos excessivamente otimistas dos seus colegas de
campo de estudo.
The enormous shortage of ability to compute is distorting our work,
creating problems where there are none, making others impossibly
difficult, and generally causing effort to be misdirected. Shouldn't this
view be more widespread, if it is as obvious as I claim?
(MORAVEC, 1976, p. 28)
Após este turbulento período no campo de estudo da inteligência artificial,
John Searle (1980) definiu o conceito de inteligência artificial forte, nas observações
78
de sua publicação Minds, Brains, and Programs. Esta apresenta uma forte
contestação na questão da criatividade em computadores inteligentes.
79
1.5 O Quarto Chinês
O Quarto Chinês de Searle (1980) confronta a metodologia de avaliação do
Teste de Turing, o qual sugere abstratamente um quarto fechado com uma pessoa
dentro simbolizando o computador, e a interface entre o mundo externo e a sala fosse
apenas a fenda que fica embaixo ao se fechar uma porta. O Quarto Chinês consiste
em que uma pessoa insira um cartão com palavras em Chinês pela fenda debaixo da
porta do quarto. Dentro do quarto existe uma pessoa, que não tem conhecimento do
idioma Chinês, porém possui uma tabela de relação entre símbolos em chinês que
serão colocados para dentro da sala e o qual deve ser devolvido para fora da sala,
portanto o sujeito recebe o cartão e procura imediatamente o cartão correspondente
para devolver por debaixo da porta do quarto. Com essa analogia Searle (1980) abre
uma discussão relacionando entendimento dos símbolos e não apenas correlação
entre eles, e encontra argumentos para diferenciar inteligência artificial forte de
inteligência artificial fraca:
…I find it useful to distinguish what I will call "strong" AI from
"weak" or "cautious" AI (Artificial Intelligence). According to weak
AI, the principal value of the computer in the study of the mind is that
it gives us a very powerful tool. For example, it enables us to
formulate and test hypotheses in a more rigorous and precise fashion.
But according to strong AI, the computer is not merely a tool in the
study of the mind; rather, the appropriately programmed computer
really is a mind, in the sense that computers given the right programs
can be literally said to understand and have other cognitive states. In
strong AI, because the programmed computer has cognitive states, the
programs are not mere tools that enable us to test psychological
80
explanations; rather, the programs are themselves the explanations…
(SEARLE, 1980, p. 418)
FIGURA 5
REPRESENTAÇÃO DA TEORIA DO QUARTO CHINÊS
FONTE: http://ibtokspot.blogspot.com/2009_10_01_archive.html
O argumento do quarto chinês, inventado por John Searle (1980), é um
argumento contra a possibilidade da existência de inteligência artificial forte. O
argumento tem a intenção de mostrar que, enquanto os computadores adequadamente
programados podem aparecer para conversar em linguagem natural, eles não são
capazes de entender a língua, mesmo em princípio. Searle argumenta que a
experiência do pensamento ressalta o fato de que os computadores só usam as regras
sintáticas para manipular seqüências de símbolos, mas não têm compreensão do
significado ou semântica.
O argumento de Searle é um desafio direto aos defensores da inteligência
artificial, e o argumento também tem amplas implicações para as teorias
funcionalistas e computacionais do significado e da mente. Muitas das questões
levantadas pelo argumento do quarto chinês não podem ser resolvidas até que haja
81
um consenso sobre a natureza do significado, sua relação com a sintaxe, e sobre a
natureza da consciência. Continua a haver divergências significativas sobre os
processos que criam significado, compreensão e consciência, assim como o que pode
ser comprovado a priori pelos experimentos de pensamento. (COLE, 2009)
Searle (1990) produziu uma versão mais formal do argumento de que o
quarto chinês faz parte. A parte do argumento que deve ser controversa é A3 (ver
abaixo), e é este ponto que o pensamento da experiência do quarto é destinado a
provar. Ele começa com três axiomas:
(A1) "Os programas são formais (sintáticos)": Um programa usa a sintaxe
para manipular símbolos e não presta atenção à semântica dos símbolos. Ele sabe
onde colocar os símbolos e como movê-los, mas não sabe o que eles representam ou
o que eles significam. Para o programa, os símbolos são objetos físicos, como
quaisquer outros.
(A2) "Mentes têm conteúdo mental (semântica)": Ao contrário dos símbolos
usados por um programa, nossos pensamentos têm um significado: eles representam
coisas e sabemos o que é que eles representam.
(A3) "Sintaxe, por si só não é constitutiva de nem suficiente para a
semântica": Isto é o que o argumento do quarto chinês pretende provar: a sala
chinesa tem uma sintaxe (porque não há um homem lá que se desloca em torno de
símbolos). O quarto chinês não tem semântica (porque, segundo Searle, não há
ninguém ou nada no quarto que compreende o que os símbolos significam).
82
Portanto, tendo sintaxe não é suficiente para gerar a semântica. Searle (1990)
propõe as seguintes conclusões:
(C1) Programas não são constitutivos suficiente para equiparar à mente. Eles
devem seguir sem controvérsia a partir dos três primeiros: Programas não têm
semântica. Os programas têm somente a sintaxe e a sintaxe não é suficiente para a
semântica. Cada mente tem semântica. Portanto, os programas não são mentes.
Grande parte do argumento tem a intenção de mostrar que a inteligência
artificial nunca produzirá uma máquina com uma mente de escrever programas que
manipulam símbolos.
O restante do argumento trata de uma questão diferente. (A4) Cérebro causa
mente. Searle (1990) afirma que podemos deduzir "imediatamente" e "trivial" que:
(C2) Qualquer outro sistema capaz de provocar mentes teria que ter poderes causais
(pelo menos) equivalentes aosàs do cérebro. O cérebro deve ter algo que faz com que
a mente exista. A ciência ainda tem que determinar exatamente o que é, mas ele deve
existir, porque a mente existe. Searle chama de "poderes causais". "Poderes causais"
é o que o cérebro usa para criar uma conta. Se nada mais pode causar uma mente
para existir, ele deve ter "poderes causais equivalentes". "Equivalentes poderes
causais" é tudo aquilo que poderia ser usado para constituir uma idéia.
A partir disso, ele deriva a novas conclusões: (C3) Qualquer artefato que
produziu fenômenos mentais, qualquer cérebro artificial, teria de ser capaz de
83
duplicar os poderes causais específicos do cérebro, e não poderia fazer isso somente
executando um programa formal.
Disso decorre C1 e C2: Como nenhum programa pode produzir uma mente e
"poderes causais equivalentes" para produzir mentes, segue-se que os programas não
têm "poderes causais equivalente."
(C4) A forma que o cérebro humano realmente produz fenômenos mentais
não pode ser exclusivamente por força de execução de um programa de computador.
Desde que os programas não têm "poderes causais equivalentes", "poderes causais
equivalentes" para produzir mentes e são os cérebros que produzem mentes, segue-se
que os cérebros não usam programas para produzir mentes.
84
1.6 A retomada dos investimentos nos estudos
Na década de 1980 formas de aplicações especialistas em inteligência
artificial chamados de sistemas especialistas foram amplamente adotados pelas
corporações ao redor do mundo e o conhecimento tornou-se o foco de pesquisas
intensas no campo de aplicação de inteligência artificial, impulsionando
comercialmente a área de estudo. Essas aplicações, chamadas de sistemas
especialistas, são uma forma artificial de compilar e reproduzir o conhecimento,
capacidade analítica e de execução de uma específica tarefa relizada da melhor forma
que poderia ser, por um ou mais especialistas humanos. O primeiro sucesso de
aplicação foi o projeto Dendral (LINDSAY et al, 1980) já citado anteriormente.
Nos anos seguintes, o governo japonês lançou o projeto da quinta geração de
computadores, consequentemente o estudo também da inteligência artificial
aumentou. Em 1981, o Ministério japonês do Comércio Internacional e Indústria
financiaram agressivamente o projeto do computador da quinta geração. Seus
objetivos foram escrever programas e construir máquinas que pudessem continuar
conversações, traduzir línguas, interpretar imagens, e buscar a criação da razão como
nos seres humanos. Muito a contragosto, eles escolheram o Prolog (uma linguagem
de lógica de programação com propósito geral associado à inteligência artificial e
lingüística computacional) como linguagem de programação principal para esse
projeto.
O Reino Unido também investiu fortemente no projeto de Alvey, cuja
proposta era de simplesmente reagir ao projeto de quinta geração de computadores
85
do Japão. As principais áreas de foco do programa Alvey foram: integração larga
escala de tecnologia para microeletrônica (VLSI - very large scale integration),
sistemas baseados em conhecimento inteligente (IKBS - Intelligent Knowledge Based
Systems) ou inteligência artificial (AI – Artificial Intelligence), engenharia de
software, interface Homem-Maquina (incluíndo processamento de linguagem
natural) e arquitetura de sistemas (para o processamento paralelo).
Também pela corrida tecnológica declarada pelo Japão, um consórcio de
empresas norte-americanas formou a Microelectronics e Computer Technology
Corporation (MCC) para financiar os projetos de grande dimensão em tecnologia da
inteligência artificial e da informação. O próprio departamento de defesa dos Estados
Unidos (DARPA) também respondeu fortemente, fundando a Strategic Computing
Initiative e triplicando seu investimento em inteligência artificial entre 1984 e 1988.
When it began in 1982, Japan`s Fifth Generation Computer system
project caught the imagination of the computing world. Responses of
all kinds, including criticism, praise and initiation of competing and
cooperative projects, have combined in a kind of Fifth Generation
“hysteria” that has touched most of the world computing community
(GOEBEL, 1986, p. 1)
Os sistemas baseados em conhecimento (sistemas especialistas) e engenharia
do conhecimento tornaram-se um grande foco da pesquisa e avanços nesse período.
Os anos 1980 também viram o nascimento de Cyc, a primeira tentativa de atacar o
problema do conhecimento do senso comum diretamente, criando um enorme banco
de dados que contém todos os fatos banais que uma pessoa comum sabe. Douglas
86
Lenat, que iniciou e liderou o projeto, argumentou que não há nenhum atalho - a
única forma de máquinas saberem o significado dos conceitos humanos é ensiná-los,
um conceito de cada vez, com a mão. O projeto não teve previsão para ser concluído
durante muitas décadas.
O conceito de Engenharia do Conhecimento surgiu em 1983 por Edward
Feigenbaum, e Pamela McCorduck. Tornou-se uma disciplina de engenharia que
envolve o conhecimento de integração nos sistemas de computador, a fim de resolver
problemas complexos que normalmente exigem um elevado nível de conhecimentos
humanos.
Atualmente, refere-se à construção, manutenção e desenvolvimento de
sistemas baseados em conhecimento, tem muita coisa em comum com a engenharia
de software, e é usado em muitos domínios da inteligência artificial em bases de
dados, mineração de dados, sistemas especialistas, sistemas de apoio à decisão e
sistemas de informação geográfica. A engenharia do conhecimento também está
relacionada com a lógica matemática, bem como fortemente envolvida nas ciências
cognitivas e na engenharia sócio-cognitiva onde o conhecimento é produzido por
agregados sócio-cognitivos (principalmente humanos) e é estruturado de acordo com
a nossa compreensão de como raciocínio e lógica humana funcionam.
In the Eighties, Knowledge Engineering (KE) was set up as a new
discipline in Artificial Intelligence with the objective of providing
methods and tools for constructing knowledge based systems in a
systematic and controllable way. Research in KE resulted in major
achievements with respect to the structuring of knowledge models as
87
well as the systematic construction and reuse of such knowledge
models. In spite of these technical achievements, KE did not get a
widespread attention in the past maybe this situation mirrored the still
rather limited success story of knowledge-based systems in general.
(STUDER et al, 2000, p. 1)
88
1.7 A Segunda parada “Second AI Winter”
Conforme cita Pamela McCorduck (2004), o fascínio da comunidade
empresarial com a inteligência artificial levantou-se e caiu na década de 80, no
padrão clássico de uma bolha econômica. O desmoronamento deu-se na percepção
decepcionadora da area por agências governamentais e investidores que mais uma
vez apostaram alto em projetos muito audaciosos.
O primeiro indício do declínio foi o súbito colapso do mercado de hardware
especializado em inteligência artificial de 1987. Os computadores da Apple e da IBM
foram ganhando velocidade e potência na época, e em 1987 eles se tornaram mais
poderosos que as máquinas mais caras LISP feitas especialmente para pesquisas em
inteligência artificial. Com a obsolecência das máquinas LISP, todas essas indústrias
foram extintas. Eventualmente, os primeiros sistemas especialistas de sucesso,
mostraram-se muito caros para manter. Eram difíceis de atualizar, plausíveis ainda de
cometer erros grotescos quando administrados de forma não ideal, e eles foram
vítimas de problemas de qualificação, ou seja, os sistemas especialistas se mostraram
úteis apenas em algumas aplicações especiais.
As entidades governamentais, que investiram na inteligência artificial,
redirecionaram os investimentos para áreas de mais rápido e mais visível retorno.
Chegado o ano de 1991, comparou-se a impressionante lista de metas a serem
atingidas, escritas em 1981, com a euforia do projeto de quinta geração de
computadores do Japão, as quais ainda não haviam sido cumpridas. As expectativas
haviam sido novamente muito maiores do que era realmente possível se executar.
89
No final dos anos 80 com a crise da área, pesquisadores defenderam uma
abordagem totalmente nova para a inteligência artificial, baseada em robótica. Eles
acreditavam que, para mostrar a verdadeira inteligência, uma máquina precisa ter um
corpo, sugeriam que a máquina precisaria perceber, mover-se, sobreviver e lidar com
o mundo. Eles argumentaram que essas habilidades sensório-motoras são essenciais
para as competências de nível superior como o raciocínio do senso comum e que o
raciocínio abstrato era realmente o mínimo de habilidade interessante ou importante.
Defendem assim a construção da inteligência "de baixo para cima."
First, robots will soon be able to do everything human beings do, only
better. ("Soon" to a scientist doesn't mean next week. He's talking about
within 50 years.) Second, that they will go on to do many things we can't
do. Third, that they will take over first Earth and then the universe.
(PERRIN, 1988, p. X08)
A abordagem reviveu as idéias da cibernética e da teoria de controle que
haviam sido impopulares desde os anos sessenta. O percursor David Marr (1980) nos
anos 70, partindo de um histórico de sucesso na neurociência teórica começaria a
pesquisar e estudar a visão. Ele rejeitou todas as abordagens simbólicas de McCarthy
(1960) e as estruturas de Minsky (1974), argumentando que seria necessário para a
inteligência artificial compreender os mecanismos físicos de visão de baixo para
cima, antes que qualquer processamento simbólico ocorresse.
O pesquisador de robótica Rodney Brooks mirou direto na hipótese física do
sistema simbólico, argumentando que os símbolos não eram sempre necessários, uma
vez que o mundo é o seu melhor modelo. Na década de 80 e 90, muitos cientistas
90
cognitivos também rejeitaram o modelo de processamento de símbolos da mente e
argumentaram que o corpo é essencial para o raciocínio, uma teoria chamada de tese
da mente encarnada (cognição encarnada).
There is room for plenty of experimentation, and eventually, when we are
mature enough, there is also room for much theoretical development of
the approaches to Artificial Intelligence based on the physical grounding
hypothesis. (BROOKS, 1990, p. 14)
91
1.8 Atualidades na Inteligência Artificial
A inteligência artificial, após seu meio seculo de existência, finalmente
conseguiu atingir alguns dos seus antigos objetivos. Começaram a ser utilizados
dispositivos tecnológicos com sucesso em toda a indústria, embora gradativamente.
Foram atribuidos a alguns dos sucessos ao aumento do poder computacional e outros
foram alcançados focando em problemas específicos ou isolados e perseguido-os
com os mais elevados padrões de responsabilidade científica. Ainda assim, a
reputação dos estudos em inteligência artificial é muito baixa e os investimentos
ainda considerados arriscados. Dentro da área de estudo houve pouco consenso sobre
as razões do fracasso, mas definitivamente os estudos da área fracassaram neste meio
século de existencia. Juntos, todos esses fatores contribuíram para fragmentar a
inteligência artificial em subcampos concorrentes focados em problemas específicos
ou abordagens que, por vezes, mesmo sob novos nomes, disfarçaram o resultado
negativo globalmente.
Em 11 de maio de 1997, o Deep Blue se tornou o primeiro sistema de
computador que joga xadrez, ganhando de um campeão de xadrez mundial, Garry
Kasparov, apesar das condições terem sido muito contestadas. O computador Deep
Blue era cerca de 10 milhões de vezes mais rápido que o Ferranti Mark 1, primeiro
computador disponível para ser comercializado, ao qual Christopher Strachey
ensinou a jogar xadrez em 1951. Este aumento visível do poder computacional,
durante o intervalo citado, é medido pela lei de Moore que prevê que a capacidade de
velocidade e memória dos computadores dobra a cada dois anos. O problema
92
fundamental de baixo poder computacional está sendo aos poucos superado
(KURZWEIL, 2005).
FIGURA 6
REPRESENTAÇÃO DA LEI DE MOORE EM DESEMPENHO DE PROCESSADOR
FONTE: KURZWEIL, 2005, p. 64
Um novo paradigma chamado de "agentes inteligentes" se tornou amplamente
aceito nos anos 90, embora os pesquisadores anteriores houvessem proposto modular
abordagem para a inteligência artificial. A definição de agente inteligente passou por
estudos de Jon Doyle (1983), que na verdade era de formação em psicologia.
Rational psychology is not the study of rational agents, but instead the
mathematical approach to the problems of agents and their actions,
whether these agents and actions are themselves thought rational or
irrational. (DOYLE, 1983, p. 2)
93
Solidificando o conceito, um agente inteligente é um sistema que percebe seu
ambiente e realiza ações que maximizam suas chances de sucesso. O mais simples
dos agentes inteligentes são programas que resolvem problemas específicos. O mais
complexo sistema de agente inteligente seria a inteligência artificial forte. Estudiosos
e cientistas da mente citam que o paradigma de agentes inteligentes definiria a
pesquisa em inteligência artificial como sendo o estudo desses mesmos agentes
(inteligentes), ou seja, como o problema principal do estudo da área. Isto vai além do
estudo da inteligência humana, pois estuda quaisquer tipos de inteligência.
Com o desafio lançado, foi apresentado o SOAR (Symbolic Cognitive
Architecture), um dos muitos sistemas de inteligência artificial que têm tentado
fornecer uma organização apropriada de ação inteligente. SOAR é ser capaz de: (a)
trabalhar em toda a gama de tarefas, desde rotinas altamente complexas, (b)
empregar toda a gama de métodos de resolução de problemas e representações
necessárias, e (c) aprender sobre todos os aspectos das tarefas e seu desempenho
neles. SOAR funcionou como um sistema experimental desde meados de 1982 em
OPS5 e LISP (LAIRD et al, 1987).
O paradigma dos pesquisadores mudou dos estudos de problemas para
encontrar soluções isoladas que estavam pendentes. Com a linguagem comum para
descrever os problemas e compartilhar suas soluções uns com os outros e com outros
campos quais também usaram conceitos de agentes abstratos, como a economia e a
teoria de controle.
94
Soar embodies eleven basic hypotheses about the structure of an
architecture for general intelligence:
1. Physic-al symbol-system hypothesis: A general intelligence must be
realized with a symbolic system.
2. Goal-structure hypothesis: Control in a general intelligence is
maintained by a symbolic goal system.
3. Uniform elementary-representation hypothesis: There is a single
elementary representation for declarative knowledge.
4. Problem-space hypothesis: Problem spaces are the fundamental
organizational unit of all goaldirected behavior.
5. Production-system hypothesis: Production systems are the appropriate
organization for encoding all long-term knowledge.
6. Universal-subgoaling hypothesis: Any decision can be an object of
goal-oriented attention.
7. Automatic-subgoaling hypothesis: All goals arise dynamically i,
response to impasses and are generated automatically by the
architecture.
8. Control-knowledge hypothesis: Any decision can be controlled by
indefinite amounts of knowledge, both domain dependent and
independent.
9. Weak-method hypothesis: The weak methods form the basic methods of
intelligence.
10, Weak-method emergence hypothesis: The weak methods arise
directly from the system responding based on its knowledge of the task.
11. Uniform-learning hypothesis: Goal-based chunking is the general
learning mechanism. (LAIRD et al, 1987, p. 57)
Na mesma época, os pesquisadores começaram a desenvolver e utilizar
ferramentas sofisticadas de matemática mais do que eles jamais tiveram no passado.
Houve uma percepção generalizada de que muitos dos problemas da inteligência
artificial estavam sendo trabalhados fortemente com a matemática. Altamente
95
influente Judea Pearl (1985) trouxe a probabilidade e teoria da decisão para a
inteligência artificial. Entre as muitas ferramentas inovadoras, estavam as redes
Bayesianas, modelos ocultos de Markov, teoria da informação, modelagem
estocástica e otimização clássica. Foram também aperfeiçoadas as aplicações para os
paradigmas da inteligência computacional, como nas redes neurais e nos algorítimos
evolutivos.
This study was motivated by attempts to devise a computational model
for humans` inferential reasoning, namely, the mechanism by which
people integrate data from multiple sources and generate a coherent
interpretation of that data. Since the knowledge from which inferences
are drawn is mostly judgmental - namely, subjective, uncertain,
incomplete - a natural place to start would be to cast the reasoning
process in the framework of probability theory. (PEARL, 1985, p. 3)
Com o tempo, a inteligência artificial estava resolvendo alguns de seus
problemas complicados, algoritmos desenvolvidos com os desenvolvimentos da área
estavam aparecendo em sistemas maiores. A mineração de dados, reconhecimento de
fala, os aplicativos de diagnose na medicina, os programas de robótica, os softwares
bancários, assim como os algorítimos de busca do Google, foram frutos da constante
pesquisa da área, porém todos estes anos de estudos e a sensação de fracasso da área,
reduziram-na a apenas uma ferramenta da computação.
At its low point, some computer scientists and software engineers
avoided the term artificial intelligence for fear of being viewed as wild-
eyed dreamers (MARKOFF, 2005)
96
2 DESAFIOS NA ARTIFICIALIZAÇÃO
Existem ainda muitos questionamentos relevantes no campo da inteligência
artificial até alcançar a chamada inteligência artificial forte. Em 1968, na obra “Uma
odisséia no Espaço”, Arthur C. Clarke e Stanley Kubrick imaginaram que, no ano de
2001, uma máquina existiria com uma inteligência que corresponderia ou excederia a
capacidade dos seres humanos. O personagem criado, HAL 9000, foi baseado na
ciência e muitos investigadores principais em inteligência artificial também
acreditavam que uma máquina desse tipo existiria até o ano de 2001. O grande
questionamento com relação ao fato de não existir atualmente uma máquina similar
ao HAL 9000, seria por quê?
As opiniões divergem e variam de questões centrais das ciências cognitivas
até a suficiência do poder computacional atual necessáio para desempenhar tais
atividades. Abaixo estão alguns questionamentos filosóficos das ciências cognitivas
relevantes para o desenvolvimento da inteligência artificial forte (Thagard, 2009): (a)
Inato: Até que ponto o conhecimento é inato ou adquirido pela experiência?
Comportamento humano é moldado principalmente pela natureza ou a criação? (b)
Idioma do pensamento: Será que o cérebro humano funciona com um código de
linguagem, como ou com uma arquitetura conexionista mais geral? Qual é a relação
simbólica entre modelos cognitivos através de regras e conceitos e modelos de
subsimbólico usando redes neurais? (c) A imagem mental: Será que a mente humana
pensa com visual e outros tipos de imagens, ou apenas com representações de
linguagem como? (d) A psicologia popular: A compreensão cotidiana de uma pessoa
com outras pessoas consiste em ter uma teoria da mente, ou de simplesmente ser
97
capaz de simulá-la? (e) Significado. Como as representações mentais adquirem
significado ou o conteúdo mental? Até que ponto o significado de uma representação
depende de sua relação com outras representações, a sua relação com o mundo, e sua
relação com uma comunidade de pensadores? (f) identidade mente-cérebro. Estados
mentais são estados do cérebro? Ou eles podem ser realizados pelos Estados que
multiplicam outro material? Qual é a relação entre a psicologia e a neurociência? O
materialismo é verdade? (g) O livre-arbítrio. É a ação humana livre ou simplesmente
causada por eventos cerebrais? (h) Psicologia Moral. Como mentes / cérebros fazem
julgamentos éticos? (i) O sentido da vida. Como se pode entender mentes
naturalisticamente como cérebros e encontrar valor e sentido? (j) Emoções. Quais
são as emoções, e que papel elas desempenham no pensamento? (k A doença mental.
Quais são as doenças mentais, e como são os processos psicológicos e neurológicos
relevantes para a sua explicação e tratamento? (l) Aparência e realidade. Como
mentes / cérebros formam e avaliam as representações do mundo externo? (m)
Ciências Sociais. Como as explicações das operações da mente interagem com
explicações sobre as operações dos grupos e das sociedades?
Os estudiosos, particularmente mais envolvidos com a área de inteligência
artificial e aplicações, divergem e encaram também como inimigo deste
desenvolvimento o poder computacional:
Processor performance in MIPS has doubled every 1.8 years per
processor... it`s a conservative projection to expect detailed and realistic
models of all brain regions by the late of 2020s.
(KURZWEIL, 2005, p. 64 and 293)
98
Kurzweil (2005) adota a posição futurista e talvez muito otimista nos
desenvolvimentos em inteligência artificial. Ele acredita friamente que a solução
destes problemas será evidente com a máxima exploração e descobrimentos no
mapeamento do cérebro. Porém abre uma resalva com relação aos desafios que ele
acha relevantes da linguagem natural.
The three tasks that have to do with human-level understanding of
natural language - reviewing a movie, holding a press conference and
translating speech – are the most difficult. Once we can take down these
signs, we`ll have Turing-level machines, and the era of strong AI will
have start. (KURZWEIL, 2005, p. 64 and 293)
Existem também os que acreditam que o desenvolvimento da inteligência
artificial forte é plenamente possível e seria também uma questão de tempo.
Considerado um dos pais da inteligência artificial pela participação no projeto de
Dartmouth, Marvin Minsk (2006) em The Emotional Machine mapeia pontos chave
do funcionamento da mente em uma visão mais completa, ou seja, começa a sugerir
um estudo focado partindo não somente de questões de inteligência e racionalidade,
mas também estudando a artificialização da mente humana como um todo. Minsk
possui forte frente de pesquisa na questão do commonsense, questões que são
incisivas sobre a artificialização de tomadas de decisões, incluindo as sensações em
sua literatura.
Think on how many states our children engage in the thousand minutes
of each waking day! In this very brief story we`ve touched upon
Satisfaction, Affection and Pride – feelings we think of as positive – and
we also encountered Shame, Fear and Anxiety – conditions we think of as
99
negative. What are the functions of all those mental conditions, and why
do we so often classify then as positive and negative?
(MINSKY, 2006, p. 37)
Para João Teixeira (2009), fica evidente a expectativa com relação à
computação quântica, assim como cita a forte tendência em acreditar em evoluções
com o crescimento do poder computacional. Teixeira (2009) apresenta em seu livro,
um resgate a trabalhar a força bruta. Pode ser entendido como força bruta a sequente
tentativa e erro até que se encontre o resultado certo. Cabe lembrar que quanto maior
o poder computacional da máquina, melhor o desempenho para a resposta.
Outra alternativa é o computador quântico. A computação quantica é um
novo campo da ciência da computação que surge da mecânica quântica.
(TEIXEIRA, 2009, p. 13)
A evolução ainda promete muitas novidades, a computação quântica, o
computador óptico, a computação por DNA, e mesmo com todos esses avanços não
se terá a certeza de solucionar esses antigos problemas. Nem mesmo tem-se com
absoluta segurança que algumas variáveis relevantes desses problemas estariam
sendo negligenciadas. Thagard (2009) argumenta que todos os desafios podem ser
melhor atendidos através da expansão e completando a abordagem computacional-
representacional conforme segue: (a) O desafio emoção: as emoções estão sendo
negligenciadas no pensamento humano? (b) O desafio consciência: Está sendo
ignorada a importância da consciência no pensamento humano? (c) O desafio do
mundo: Está sendo ignorado o papel de importantes ambientes físicos no pensamento
humano? (d) O desafio do corpo: Está sendo negligenciada a contribuição da
100
incorporação do pensamento e da ação humana? (e) O desafio social: O pensamento
humano é intrinsecamente social e relevante? (f) Os sistemas dinâmicos desafio: A
mente é um sistema dinâmico, não um sistema computacional? (g) O desafio de
matemática: resultados matemáticos mostram que o pensamento humano não pode
ser computacional no sentido de norma, de modo que o cérebro deve funcionar de
forma diferente, talvez como um computador quântico.
101
CONSIDERAÇÕES FINAIS
Esta dissertação objetivou entender a fundo a conceituação de teorias e
pensamentos nas áreas das ciências cognitivas, representadas por suas especialidades.
Essas especialidades representam mais as questões de funcionamento da mente e
teorias afins, assim como sua direção e expectativa futura.
No campo da filosofia da mente, observam-se as evoluções da questão mente-
corpo que culminam nas atuais teorias de linhagens distintas, uma derivada do
dualismo e a outra derivada do monismo.
As linhagens derivadas do dualismo não são incisivamente comprovadas para
os padrões científicos, ficando ainda indefinições nas próprias derivações do mesmo.
A Mente separada de corpo, este é o paradigma no final da análise sobre o dualismo,
apesar de suas divisões e evoluções filosóficas.
O monismo tem algumas divisões seqüenciais mais coerentes para os estudos
científicos, sendo predecessor do fisicalismo ou materialismo que apóia e
fundamenta a pesquisa no conhecimento biológico. Evolutivamente da filosofia
surge a psicologia, uma ciência com o objetivo de aprofundar os estudos da mente e
seus processos em geral.
A psicologia cognitiva basicamente fomenta fortemente a área de ciências
cognitivas, com várias análises nas questões de: percepção, categorização, memória,
102
representação do conhecimento, cognição numérica, linguagem e pensamento. Esta
ciência se torna intensamente interconectada em suas teorias e estudos com a
neurociência cognitiva, lingüística cognitiva, semiótica cognitiva e inteligência
artificial.
Com a evolução da psicologia cognitiva chega-se ao conexionismo, uma
teoria que engloba o modelamento de interconexão de unidades, com o intuito de
formar uma rede, geralmente representada por redes neurais. Percebe-se que neste
momento a teoria da área, que foi derivada da filosofia, se funde com conceitos das
neurociências e inteligência artificial.
A neurociência ainda se apresenta como grande vedete dos estudos na
atualidade, com o intuito de pesquisar e obter pistas para melhores formulações de
hipóteses e teorias para todas as ciências cognitivas. Existe ceticismo de alguns
estudiosos e pesquisadores sobre a criação artificial de inteligência.
A neurociência se preocupou desde o inicio em tentar particionar a análise de
funcionamento. Os estudos caminham e cada dia tem-se novidades da área em
termos de descobertas baseadas no mecanicismo.
As tendências dos estudos da neurociência não são completamente lineares e
de clara assimilação, porém além de ainda ter progressos, começam a apontar para
um estudo de sintaxe e signos do processamento da mente. Devido a tal direção o
possível foco de estudos no futuro, que já começa a aparecer, seria o campo da
semiótica cognitiva.
103
A semiótica cognitiva veio com um propósito de analisar como as entradas
(sentidos e percepções) interagem e se representam mentalmente para serem
processadas. Os estudos e análises na semiótica também segundo pesquisa tiveram
início há muito tempo, porém somente nesse contexto das outras ciências
correlacionadas foi criando forma e fazendo maior sentido.
A inteligência artificial teve uma posição praticamente comprovadora das
teorias e suposições das áreas das ciências cognitivas. Isso pode ser constatado na
pesquisa pelos fatos históricos, de modo que seu intermitente fracasso, talvez possa
ser explicado pelo direcionamento incompleto das outras ciências.
Mostra se que muitos parâmetros estão sendo negligenciados no estudo, e
seria essencial para um resultado mais coerente separar os estudos de aprendizagem e
conhecimento dos estudos da emoção e do bom senso.
104
1.HIPÓTESES PARA FUTURAS PESQUISAS
Encerra-se, assim, esta dissertação, com as sugestões futuras de
aprofundamento em estudos de diferentes níveis de dificuldade que se aproximem da
inteligência artificial forte: na questão do paradigma de John Searle (O quarto
Chinês); na questão da influência da emoção e consciência; nas questões de
linguagem / semiótica do pensamento; e em modelagens de máquinas inteligentes no
contexto da inteligência artificial forte.
105
REFERÊNCIAS BIBLIOGRÁFICAS
ANDERSON, J.R.; BOWER, G.H., A propositional theory of recognition memory. Memory & Cognition, Vol 2, No 3. New York: Springer New York. 1973. p. 406-412.
ATKINSON, R.C.; SHIFFRIN, R.M., "Chapter: Human memory: A proposed system and its control processes". In Spence, K.W.; Spence, J.T., The psychology of learning and motivation, Vol 2. New York: Academic Press. 1968. p. 89-195.
BECHTEL, W.; MUNDALE J., Multiple Realizability Revisited: Linking Cognitive and Neural States. Philosophy of Sciences, Vol 66, No 2. The University of Chigaco Press. 1999. p. 175-207.
BLISS, T.V.P.; LOMO, T., Long-Lasting Potentiation of Synaptic Transmission in the Dentate Area of the Anaesthetized Rabbit Following Stimulation of the Perforant Path, J. Physiol. Vol 232. 1973. p. 331-356.
BOGEN, J., Regularities and causality; generalizations and causal explanations. Studies in History and Philosophy of Biological and Biomedical Sciences. Vol 36.
2005. p. 397–420.
BRIGANDT, I.; LOVE, A., Reductionism in Biology. The Stanford Encyclopedia of Philosophy. 2008. Disponível em
<http://plato.stanford.edu/archives/fall2008/entries/reduction-biology/>. Acessado
em 18 de novembro de 2010.
BROADBENT, D.E., Perception and communication. London: Pergamon Press,
1958. p. 338.
BROADMANN, K., Brodmann’s Localisation in the Cerebral Cortex, The Principles of Comparative Localisation in the Cerebral Cortex Based on Cytoarchitectonics. Lausanne: Springer. 1909. p.3-30.
BROOK, A.; MANDIK, P., The Philosophy and Neuroscience Movement. Analyse & Kritik 26. 2004. p. 382-397
BROOKS, R., Elephants Don't Play Chess. Robotics and Autonomous Systems 6.
1990. p. 3−15.
CHURCHLAND, P.S., Neurophilosophy, Toward a Unified Science of the Mind-Brain. Massachusets: the MIT press, 1986. p. 277-301.
106
COLE, D., The Chinese Room Argument, The Stanford Encyclopedia of Philosophy.2009. Disponível em <http://plato.stanford.edu/archives/win2009/entries/chinese-
room/>. Acessado em 30 de setembro de 2010.
CRANE, T., The Mind-Body Problem. Department of Philosophy, London, 1999.
Disponível em <http://www.timcrane.com/>. Data de acesso: 15 de fevereiro de
2011.
DOYLE, J., What is Rational Psychology? Toward a modern mental philosophy. AI Magazine, Vol 4, No 3. 1983. p. 50–53.
FLANAGAN, J.R.; LEDERMAN, S.J., Feeling bumps and holes. Nature, Vol 412.
2001. p. 389-391
FODOR, J., The Language of Thought. Thomas Y. Crowell Co., Paperback, Harvard University Press. 1975.
GARDNER, H., Estruturas da Mente: A teoria das Inteligências Multiplas. Porto
Alegre: Artmed, 1994.
GARSON, J., Connectionism, The Stanford Encyclopedia of Philosophy . 2010.
Disponível em <http://plato.stanford.edu/archives/win2010/entries/connectionism/>.
Acessado em 5 de outubro de 2010.
GAZZINAGA, M.S., A Judge’s Guide to Neuroscience. What is cognitive neuroscience?. University of California, Santa Barbara. 2010. p.1-71.
GOEBEL, R., The Fifth Generation: making computers easy to use?, Department of Computer Sciences, University of Waterloo. 1986.
GOOD, I.J., Speculations Concerned of the First Ultraintelligent Machine.Advances in computer, Vol 6, New YorK: Academic Press Inc.. 1965. p.31-36
GOTTFREDSON, L.S., Mainstream Science on Intelligence. 1994, dezembro, 13:
página A18. Disponível em
<http://www.udel.edu/educ/gottfredson/reprints/1994WSJmainstream.pdf>. Acesso
em 27 julho de 2010.
HEIL, J., Philosophy of Mind: a contemporary introduction. London: Routeledge.
1998.
HOWARD, R., Dualism. The Stanford Encyclopedia of Philosophy. 2009.
Disponível em <http://plato.stanford.edu/archives/fall2009/entries/dualism/>. Acesso
em 10 de março de 2010.
107
KRIEGEL, U., Is Intentionality dependent upon consciousness?. Philosophical Studies 116. Dordrecht: Kluwer Academic Publishers, 2003. p. 271-307.
KURZWEIL, R., The singularity is near: When humans transcend biology. New York: Penguin Book. 2005.
LACKOFF, G., Women, Fire, and Dangerous Things: What Categories Reveal About the Mind. Chicago: University of Chicago Press. 1987. p. 1-57.
LAIRD, J.E.; NEWELL, A.; ROSENBLOOM, P.S., SOAR: An Architecture for General Intelligence, Computer Sciences Division, Office of Naval Research and DARPA. 1987.
LEVIN, J., Functionalism. The Stanford Encyclopedia of Philosophy. 2010.
Disponível em <http://plato.stanford.edu/archives/sum2010/entries/functionalism/>.
Acesso em 21 de março de 2010.
LEVINE, J., Materialism and Qualia: the Explanatory Gap. Pacific Philosophical Quarterly 64. California: University of Southern California. 1983. p. 354-361.
LINDSAY, R.K.; BUCHANAN, B.G.; FEIGENBAUM, E. A.; LEDERBERG, J.,
Applications of Artificial Intelligence for Organic Chemistry: The Dendral Project. McGraw-Hill Book Company. 1980.
MACCORQUODALE, K., On Chomsky's Review of Skinner's Verbal Behavior. Journal of the Experimental Analysis of Behavior, 13, No 1, Janeiro. Minessota,
1970. p. 83-99.
MACH, E., The Analysis of Sensation and the Relation of the Physical to the Psychical. London: The open court publishing company. 1914. p. 1-38.
MARKOFF, J., Behind Artificial Intelligence, a Squadron of Bright Real People.
New York Times, published: October 14. 2005. Disponível em
<http://www.nytimes.com/2005/10/14/technology/14artificial.html?_r=1>. Acesso
em 15 de dezembro de 2010.
MCCARTHY, J., A Proposal For The Dartmouth Summer Research Project On Artificial Intelligence. Hannover. 1955. Disponível em <http://www-
formal.stanford.edu/jmc/history/dartmouth/dartmouth.html>. Acesso em 13 de julho
de 2009.
MCCARTHY, J., What is Artificial Intelligence?. Computer Science Department, Stanford University, revised November 12. 2007. Disponível em < http://www-
formal.stanford.edu/jmc/whatisai/whatisai.html>. Acesso em 26 de agosto de 2008.
108
MCCARTHY, J., Recursive Functions of Symbolic Expressions and Their Computation by Machine, Part I.1960.
MCCARTHY, J., Review of “Artificial Intelligence: A General Survey”. Computer Science Department, Stanford University. 2000. Disponível em <http://www-
formal.stanford.edu/jmc/reviews/lighthill/lighthill.html>. Acesso em 22 de setembro
de 2009.
MCCLELLAND, J.L.; RUMELHART, D.E.; HINTON, G.E., In Parallel Distributed Processing: Foundations, Vol. 1. 1986. p. 3-44.
MILLER, G.A., The cognitive revolution: a historical perspective. TRENDS in Cognitive Sciences, New Jersey, Vol.7 No.3 Março. 2003. p. 141-144.
MILLER, G.A., The Magical Number Seven, Plus or Minus Two Some Limits on Our Capacity for Processing Information. The Psychological Review, Philadelfia,Vol.101, No.2, Maio. 1955. p. 343-351.
MINSKY, M., A Framework for Representing Knowledge. MIT-AI Laboratory Memo 306, Massachucets, June. 1974.
MINSKY, M., Meet Shakey, the First Electronic Person. Life Magazine. New York:
Life Magazine, 1970. p. 58-68.
MINSKY, M., The Emotion Machine: Commonsense Thinking, Artificial Intelligence, and the Future of the Human Mind. New York: Simon & Schuster. 2006.
MORAVEC, H., The Role of Raw Power in Intelligence, Stanford AI Lab. 1976.
NEISSER, U., Intelligence: Knowns and Unknowns. American Psycologist. Atlanta: AP editor, Fevereiro. 1996. p. 77-101.
NEWELL, A.; SHAW, J.C., Programming the Logic Theory Machine. Los Angeles: Proceedings of the Western Computer Conference, 1957. p. 230-240.
NEWELL, A; SIMON, H.A., Human Problem Solving: the State of the Theory in 1970. American Psychologist, Vol 26, No 2, Fevereiro. 1971. p. 145-159.
NÖTH, W., Anotações de aulas no Seminário de Doutorado do programa de
Tecnologias da Inteligência e Design Digital da Pucsp, 1o. semestre de 2011.
OPPY, G.; DOWE, D., The Turing Test. The Stanford Encyclopedia of Philosophy. Disponível em <http://plato.stanford.edu/archives/spr2011/entries/turing-test/>.
Acesso em 16 de novembro de 2008.
109
PEARL, J., Bayesian Networks: a Model of Self-Activated Memory for Evidential Reasoning. UCLA Computer Science Department Technical Report 850021 (R-43); Proceedings, Cognitive Science Society, UC Irvine, August 15-17. 1985. p. 329-334.
PERIN, N., Anything We Can do They Can do Better. Washington Post 881023. October. 1988. p. X08. Disponível em
<http://www.frc.ri.cmu.edu/~hpm/book88/reviews/881023.WashPost.html>. Acesso
03 de agosto de 2010.
PLACE, U.T., Is Consciousness a Brain Process. British Journal of Psychology 47,
London, 1956, p. 44–50.
PUTNAM, H., Mind, Language and Reality. Philosophical Pappers, Vol 2.
Cambridge: Cambridge University Press. 1975. p. 429-440.
RAMSEY, W., Eliminative Materialism. The Stanford Encyclopedia of Philosophy.Disponível em <http://plato.stanford.edu/archives/spr2011/entries/materialism-
eliminative/>. Acesso em 10 de janeiro de 2011.
SANTAELLA, L., Matrizes da linguagem e pensamento: sonora visual verbal. 3°
edição. São Paulo: Iluminuras, 2001.
SANTAELLA, L., Navegar no ciberespaço: o perfil cognitivo do leitor imersivo. 3°
edição. São Paulo: Paulus, 2004.
SEARLE, J.R., Minds, Brains and Programs. Behavioral and Brain Sciences 3. Cambridge: Cambridge University Press. 1980. p. 417-457.
SEARLE, J.R., Is the Brain's Mind a Computer Program?, Scientific American 262,
Janeiro. 1990. p. 26-31.
SHANNON, C.E., A Mathematical Theory of Communication. The Bell System Technical Journal, Vol. 27, New Jersey. 1948. p. 379–423, 623–656.
SKINNER, B.F., Can Psychology Be a Science of Mind?. American PsychologistVol.45 No.11 November, 1990. p. 1206-1210.
SMART, J.J.C., The Identity Theory of Mind, The Stanford Encyclopedia of Philosophy. 2008. Disponível em
<http://plato.stanford.edu/archives/fall2008/entries/mind-identity/>. Acesso em 30 de
maio de 2010.
SOEGAARD, M., Gestalt principles of form perception.2010. Disponível em
<http://www.interaction-
design.org/encyclopedia/gestalt_principles_of_form_perception.html>. Acesso em
10 de Janeiro de 2010.
110
SPERLING, G., The information available in brief visual presentations. Psychological Monographs: General and Applied, 74, No 11, whole No 486. 1960.
p. 1-29.
SPURZHEIM, J.G., Phrenology or the Doctrine of the Mental Phenomena, Vol 1.
Philadelphia: J. B. Lippincott Company. 1833. p. 9-99.
STERNBERG, S., High-Speed Scanning in Human Memory, Science, Vol 153. New Jersey: 1966. p. 652-654.
STOJLAR, D., Physicalism. The Stanford Encyclopedia of Philosophy. 2009.
Disponível em <http://plato.stanford.edu/archives/fall2009/entries/physicalism/>.
Acesso em 5 de abril de 2010.
STUDER, R.; DECKER, S.; FENSEL, D.; STAAB, S., Situation and Perspective of Knowledge Engineering. In: Cuena et al. Knowledge Engineering and Agents Technology. IOS Press. 2000.
TEIXEIRA, J.F., Mentes e máquinas: uma introdução à ciência cognitiva. Porto
Alegre: Artes Médicas, 1998.
TEIXEIRA, J.F., Inteligência Artificial. São Paulo: Paulus, 2009.
TEIXEIRA, J.F., O que é Filosofia da Mente?. São Paulo: Brasiliense, 1994.
THAGARD, P., Cognitive Science. The Stanford Encyclopedia of Philosophy. 2010.
Disponível em <http://plato.stanford.edu/archives/sum2010/entries/cognitive-
science/>. Acesso em 05 de novembro de 2009.
TURING, A.M., Computing Machinery and Intelligence. Mind. Oxford: Oxford University Press, 1950. p. 433-460.
TYE, M., Qualia. The Stanford Encyclopedia of Philosophy. 2009. Disponível em
<http://plato.stanford.edu/archives/sum2009/entries/qualia/>. Acesso em 03 de junho
de 2009.
WAUGH, N.C.; NORMAN, D.A., Primary Memory. Psychological Review, Vol 72,
No 2. 1965. p. 89-104.
YALOWITZ, S., Anomalous Monism. The Stanford Encyclopedia of Philosophy.2008. Disponível em <http://plato.stanford.edu/archives/fall2008/entries/anomalous-
monism/>. Acesso em 12 de janeiro de 2011.