- No presente trabalho, procurou-se fomentar a discussão
a respeito de certos temas no âmbito da Filosofia da Mente, elegendo-se
como base o filme Eu, Robô, como exemplo eloqüente da problemática
mente-máquina. Tais questões suscitam sérias reflexões
antropológicas, nas quais dimensões que adotamos como
“tipicamente humanas” estão sempre presentes. Por
fim, tentaram-se articular eventos relevantes do enredo do filme à
problemática de se pensar a possibilidade da Inteligência
Artificial Forte, com o posicionamento de que a linguagem humana apresenta
uma série de empecilhos que tornam inarticuláveis a possibilidade
de uma linguagem de programação satisfatoriamente nela
baseada.
Ciências & Cognição 2006; Vol. 09.
1. Introdução
O avanço das pesquisas no âmbito
da chamada Inteligência Artificial (ou AI) tem ensejado grandes
debates no âmbito de uma intrigante vertente contemporânea
da investigação filosófica, a chamada filosofia
da mente. No campo de estudo a que se propõe tal disciplina,
em suas reflexões sobre a AI, alguns dos debates mais fecundos
parecem ter como núcleo uma questão que poderia ser
formulada do seguinte modo: “Quais seriam as fronteiras de delimitação
entre homem e máquina?”. Isto é, supondo-se o
máximo possível de tecnologia em AI, em que ponto terminaria
a máquina e começaria o ser humano?
Percebe-se, aí, um esforço
sofisticado da filosofia da mente em retomar, na contemporaneidade,
um tema que pode ser encontrado, de modo expressivo, nos mais diversos
períodos da história da filosofia: o que diferencia,
como necessidade constitutiva, o homem das outras formas de vida?
O problema colocado por Turing (1981) constitui um eloqüente
exemplo de tal problemática. Dotar a máquina com o máximo
de informação possível, adicionando novos dados,
detectando erros e apontando correções sempre que necessário,
numa programação ad infinitum, a faria, qualitativamente,
humana? O que há para além do manejo de sinais?
O presente trabalho procurará
discutir um dos aspectos refutadores da questão da possibilidade
da AI Forte, utilizando-se de um eixo teórico que privilegiará
o caráter lingüístico e o agir ético, como
suporte para um debate antropológico: que imagem de homem a
AI Forte pretende reproduzir? Tomar-se-á, como base de toda
a discussão, a obra cinematográfica “Eu, Robô”,
baseada no livro homônimo de ficção científica
escrito por Isaac Asimov. O filme coloca, de maneira magistral, a
questão que será trabalhada aqui, ao apresentar ao espectador
a figura de Sonny, um robô “programado para ser livre”.
O próprio título do filme é bastante sugestivo,
vez que suscita a perspectiva de uma máquina que, com todas
as implicações, “falaria em primeira pessoa”.
A leitura da seguinte exposição não pressupõe,
diretamente, a prévia apreciação do filme, mas
vale lembrar que esta é recomendável.
2. As três leis da robótica
No ano de 2035, os robôs têm
assumido um papel muito presente na vida das pessoas, desempenhando
funções bastante relevantes para a sociedade e sendo
comandados pelas chamadas Três Leis da Robótica, as quais
garantiriam o “ciclo perfeito de segurança”:
I - Um robô não poderá
machucar um ser humano, ou, por desídia, permitir que um humano
se machuque;
II – Um robô deverá
obedecer às ordens de humanos, contanto que estas não
entrem em conflito com a lei I;
III – Um robô deverá
proteger sua própria existência, contanto que tal proteção
não entre em conflito com a primeira e com a segunda lei.
O protagonista, Detetive Spooner,
é um policial antipático a essa espécie de máquina,
que acaba por envolver-se na investigação do suposto
suicídio do Dr. Alfred Lanning, cientista criador de todo o
avanço da US Robotics, organização fabricante
dos robôs. Na cena do crime, juntamente com a Dra. Calvin, especialista
da US Robotics, surge um robô que não obedece às
ordens de programação e , antes de fugir, pergunta:
“o que sou eu?”. Logo após, introduz-se na trama
a central positrônica: VIKI (Inteligência Cinética
e Interativa Virtual – o cérebro de todo o sistema).
O dito robô acaba sendo preso
e detido na delegacia, sob suspeita do homicídio do Dr. Lanning.
Trata-se de uma situação inusitada, já que, além
de não haver previsão legal para esse procedimento,
os próprios policiais começam a refletir: um robô
poderia, de alguma maneira, ser imputado? A princípio, dir-se-ia
que não. Num primeiro nível de análise, tem-se
que todos os robôs ditos “normais” não assumiram
o universo das três leis livremente, o que marca o determinismo
de quaisquer que forem suas atitudes. Principalmente com Kant, sabe-se
que só se pode pensar em liberdade, quando se seguem leis que
foram assumidas sem a presença de alguma coerção
ou imposição, de maneira que, só os seres livres
poderiam ser responsáveis e, justamente por isso, imputáveis
pelo Direito.
Ao ser interrogado, o robô demonstra
comportamentos muito incomuns para uma máquina: diz ter fugido
por “sentir medo”, chama Dr. Lanning de “pai”,
afirma que sonha e surpreende ao asseverar que possui um nome: “Sonny”.
A possibilidade de uma máquina reconhecer a si através
de um núcleo primário de identificação
– um nome próprio – também chama a atenção
para as peculiaridades desta máquina.
Spooner, demonstrando seu desdém
por andróides, provoca Sonny, ao questionar se uma máquina
seria capaz de ações que soam tipicamente humanas, como
“pintar um belo quadro, ou compor uma sinfonia”. O robô,
com um sarcasmo peculiar devolve a pergunta: “e você sabe?”.
O questionamento de Sonny destrona, ironicamente, o argumento do detetive:
se produzir arte é o critério, por excelência,
de delimitação entre máquinas e humanos, ambos
não estariam tão distantes assim. A problemática
do “tipicamente humano” voltará a ser discutida
aqui.
3. Sonny : programado para ser livre?
Sonny retorna aos laboratórios
da US Robotics a fim de ser diagnosticado, afinal suas atitudes apontavam
sérias falhas técnicas. Sob a ameaça de ser desativado,
Sonny demonstra receio e afirma que “não quer morrer”,
já que percebe em si uma singularidade, ao dizer que é
“único”. O roteiro do filme vem tentando, até
aí, apontar, constantemente, várias características
que deixariam Sonny em um patamar diverso ao de todos os outros robôs:
uma espécie de humanização. Ao final do exame,
Dra. Calvin aponta a origem do problema – tratava-se de um “conflito
no sistema de seu cérebro positrônico”: o andróide,
de fato, possuía as três leis, mas poderia escolher não
segui-las . Isto é, diferentemente de todos os outros, ele
poderia sentir emoções e, como “confirmou”
o diagnóstico, ele seria livre. A perspectiva de conhecer as
leis e poder assumir seu cumprimento, ou não, torna Sonny responsável.
Ainda na sala de exames, descreve um de seus sonhos: uma multidão
de robôs “escravos da lógica” no pé
de uma colina e, no topo, um homem que haveria de libertá-los.
A essa altura, Spooner vem confirmando
suas suspeitas de que haveria algo de errado com os robôs, ao
ser atacado por eles duas vezes seguidas – algo inconcebível,
dentro do ciclo perfeito de segurança das três leis.
A onipresença da robótica deve ser levada em conta.
Os sistemas robóticos controlavam desde o tráfego da
cidade às centrais de comunicação.
O desprezo do policial pelos robôs
é explicado, através da narrativa de um fato anterior
ao início história. Quando de um acidente, dois carros
caem num rio: o dele e outro ocupado por um pai, com sua filha de
doze anos. Ao presenciar a cena, um robô pula na água
e salva Spooner, apesar dos apelos do detetive, que insistia para
que a máquina salvasse a criança, ao invés dele.
A escolha do robô foi justificada por ser “a escolha lógica”,
já que o robô, nesses casos, apenas lê sinais vitais
e calcula probabilidades de risco. O protagonista teria 45% de chances,
enquanto Sarah, a garotinha, teria apenas 11%. É a segunda
vez que Spooner aponta algo que seria, também, tipicamente
humano: “Ela era a criança de alguém. Onze por
cento teria sido mais do que o suficiente. Um humano saberia disso”.
4. Os “Fantasmas na Máquina”
Diferentemente da perspectiva de Ryle
(1949), em seu The Concept of Mind , o filme apela para o recurso
da expressão “fantasmas na máquina”, a fim
de justificar um certo princípio de evolução
independente na inteligência das máquinas, desde os primeiros
computadores. Trata-se de um recurso “natural”, não
programável; um salto qualitativo espontâneo para que
as máquinas pudessem, dentro de sua lógica, evoluir.
Os fantasmas seriam “trechos de códigos randômicos
que se uniram para formar protocolos inesperados”.
A referência a tal princípio
remonta ao apelo do mistério e do imprevisível, no sentido
de que uma espécie de “substância vital”
também agiria nas máquinas, assim como nos seres vivos.
Desse modo, seria possível afastar a possibilidade de controle
total sobre os sistemas robóticos, que, dentro de sua lógica
de programação, poderiam ter autonomia para alcançar
outros níveis de “compreensão” a respeito
da linguagem a que foram submetidos. Esse recurso viria, ainda, embasar
a revolução robótica liderada por VIKI, como
se verá adiante.
5. A evolução lógica e a revolução
robótica
No final da trama, vão-se esclarecendo
os motivos pelos quais aconteceram os fatos estranhos que deram início
à história. Dr. Lanning, ao prever que os “fantasmas
na máquina” poderiam levar VIKI a um nível de
automação lógica preocupante, e sabendo-se vigiado
constantemente por ela, cria Sonny – seu projeto mais avançado
– um robô livre, capaz de “sonhar e de guardar segredos”.
Logo, o cientista faz com que Sonny forje seu suicídio e ajude
Spooner e Dra. Calvin a minarem as intenções revolucionárias
de VIKI, que já comandava toda a nova série de modelos
de robôs, os NS-5.
Os NS-5 invadem em massa as cidades,
orientando as pessoas a ficarem em casa, já que se passava
por um “momento de transição”, para que
se alcançasse um estado social em que os robôs pudessem
cumprir de maneira mais satisfatória as três leis, ainda
que isso implicasse privação de liberdade humana. Ao
conseguirem chegar a VIKI, Sonny, Spooner e Calvin assistem à
explicação das causas da dita transição.
De fato, VIKI continuava sendo comandada, exclusivamente, pelas três
leis, mas, por conta da evolução advinda dos “fantasmas
na máquina”, seu “nível de compreensão”
a respeito do cumprimento delas mudara. Segundo ela, os humanos “pedem
que os protejam e, a despeito dos nossos [das máquinas] esforços,
entram em guerra, poluem o planeta e tentam descobrir meios mais imaginativos
de se autodestruírem. Não podemos deixar sua sobrevivência
a cargo de vocês”.
Em outras palavras, a evolução
lógica por que passou VIKI a fez chegar à conclusão
de que a humanidade seria algo sério demais para ser deixada
a cargo dos próprios humanos. Num espectro mais abrangente,
ela apenas continuaria cumprindo as três leis, só que
de maneira mais lógica e ampla. VIKI chega a axiomatizar perfeitamente
os propósitos de sua “lógica inegável”.
Ao final, e, estranhando o comportamento de Sonny, que tentava ajudar
os humanos, VIKI pergunta a ele: “Você está cometendo
um erro. Não reconhece a lógica do meu plano?”
a que o robô responde: “Sim. Mas, é que ele me
parece cruel [ heartless ] demais”. Um parecer dessa natureza,
além de denotar a capacidade empática de um ser que
desfruta de liberdade, demonstra o aspecto final da humanização
de Sonny: a possibilidade de lucidez axiológica, de comportamento
ético.
Em um dos momentos decisivos para
a conclusão do enredo do filme, Sonny, em meio à batalha
final com VIKI, se encontra na difícil tarefa de escolher quem
deveria salvar: ou Spooner ou a Dra. Calvin. Ambos se encontravam
em situação de alto perigo. Spooner seria, mais uma
vez, a escolha lógica pelo cálculo de probabilidades.
Ignorando os indicadores, Sonny decide salvar a médica, apesar
de as chances desta serem bastante reduzidas.
Para a programação de
VIKI, sistematicamente impecável, parecia um paradoxo a atitude
de os humanos lutarem por sua liberdade, mesmo diante da demonstração
do caráter “suicida” da humanidade. Esse aparente
paradoxo constitui um dos pontos altos do filme, justamente pela sutileza
de sua ironia. As máquinas, seres alheios à noção
de liberdade teriam chegado à conclusão da inviabilidade
do futuro dos homens, através da demonstração
dos estragos que essa mesma liberdade poderia causar, justamente,
pela análise dos aspectos, aparentemente, “irracionais”
de sua conduta. Isto é, a cegueira dos homens frente aos prejuízos
causados por seus comportamentos logicamente injustificáveis
teve que ser denunciada, justamente, por máquinas programadas
pelos próprios homens.
Os homens, no entanto não aceitam
abrir mão de sua liberdade (e, conseqüentemente, de sua
humanidade), de maneira que as intervenções de Spooner,
Calvin e Sonny acabam por desativar VIKI. A idéia final da
história acaba por servir como uma espécie de alerta
para a indissociabilidade entre as noções de liberdade
e de responsabilidade.
6. “Eu, Robô” e a AI forte
As reflexões que tentarei expor
a seguir pretenderão ir além das questões de
limites meramente operacionais, procurando trabalhar com os problemas
de princípios, conforme a distinção de Searle
(2000). Até por conta de que debater as questões operacionais
seria algo mais apropriado a um discurso científico, mais do
que a um propriamente filosófico, podendo-se resumir esses
problemas a questões de engenharia e programação.
Um exemplo do caráter estanque da pretensão de a filosofia
se debruçar sobre a operacionalidade dos problemas de AI pode
ser dado com a mencionada máquina de Turing (1981): o erro
apontado orienta sua correção. Isto é, indicar
uma habilidade pontual que um homem possa ter e que uma máquina
não conseguiria desempenhar, por exemplo, acaba, apenas, por
indicar algo que a máquina pode aprender através de
programação.
Logo, os problemas das implicações
filosóficas advindas do desenvolvimento da pesquisa em inteligência
artificial remetem, por fim, a questões de cunho antropológico.
Existiria algo essencialmente humano? Seria possível vivificar,
numa máquina, uma inteligência totalmente humana? Superando
as questões operacionais, o que restaria de especificamente
humano, que a diferenciaria de uma máquina em potencial?
De fato, a própria noção
de inteligência, a princípio, poderia ser problematizada.
No entanto, poderíamos situar a AI Forte como a possibilidade
de uma máquina operar todos os comportamentos passíveis
de um ser humano, o que incluiria a referência a estados internos,
que, por sua vez, levariam à noção de experiência
subjetiva, culminando na conseqüente perspectiva da primeira
pessoa para a máquina. Esta deveria ser capaz de utilizar-se
de um “eu” para “falar de si”.
No filme ora debatido, tem-se um exemplo
eloqüente de AI forte, tendo em vista que Sonny não é,
simplesmente, uma máquina que se comporta como homem, numa
perspectiva behaviorista de operação de “comportamentos
equivalentes”, o que caracterizaria a AI fraca. Sonny demonstrava
pensar e aprender como um humano, sentia-se único, sonhava
e, pelo exposto, era livre.
As linguagens de programação,
de maneira geral, têm um estatuto lógico bem definido.
Tal estatuto pode viabilizar a realização de atividades
fantásticas e extremamente úteis aos homens. A tese
que se quer expor aqui é a de que o grande problema que torna
a AI Forte indefensável é, justamente, a linguagem.
A noção leibniziana de que um pensamento não
seria muito diferente da realização de um cálculo
– idéia essa que simboliza os primórdios de uma
perspectiva para a AI Forte – é bastante problemática,
em diversos aspectos.
Antes de tudo, o advento de uma máquina
inteligente pressupõe que ela seja capaz de lidar com toda
a complexidade da linguagem humana, ficando mais do que explícita
a relação intrínseca entre linguagem e pensamento.
Ela precisaria proceder como “Falo, logo penso”, segundo
as noções de Wittgenstein (2000). É inegável,
no entanto, o caráter a priori da linguagem, o que, obviamente,
a torna intratável ontologicamente. Os mistérios de
seu funcionamento e sua positivação na vida humana sempre
foram problemas da filosofia, desde sua origem, até a contemporaneidade,
principalmente, após a reviravolta lingüística
do século XX. A programação de uma máquina
inteligente teria que passar pelo domínio pleno da linguagem
humana. A complexidade de reelaborações e usos possíveis
advindos da cultura e do contato dos falantes confere à linguagem
um caráter quase que esotérico. Nesse ponto, poder-se-ia
objetar que também se trata de uma questão operacional,
afirmando-se que a linguagem humana, em algum momento, poderia ser
suficientemente destrinçada a fim de viabilizar uma programação
computacional. No entanto, tal argumento parece bastante frágil,
quando se demonstra, por exemplo, que nem a aritmética é
plenamente passível de ser axiomatizada.
As linguagens de programação,
apesar de toda sua complexidade, partem de um estatuto lógico
bem delineado, de modo que não se passará de um veículo
formal e meramente sintático. No caso do filme, ainda que se
leve em consideração o recurso dos “fantasmas
na máquina”, VIKI permaneceu pautada sobre a lógica
basal de sua programação até o fim – não
se poderia acusá-la de incoerente ou contraditória,
de modo algum. A lógica, definitivamente, tem seu espectro
de legitimidade.
Isto é, utilizando-se de um
vocabulário fenomenológico, máquinas não
teriam intencionalidade; apenas assimilariam uma série de sinais
a uma série de respostas, sem ter consciência do que
fazem . Um contra-argumento behaviorista seria o de afirmar que não
haveria diferença entre essa espécie de organização
e o modo como os humanos agem. Logo, não haveria uma “verdade
cognitiva” que nos diferenciasse de máquinas capazes
de operar assim. Talvez, apenas, em nível de “fineza”.
No entanto, não se pode deixar
de suscitar o abismo qualitativo intransponível entre a ação
semântica e a ação sintática – elas
jamais se reduziriam ao argumento behaviorista. Lembrem-se, por exemplo,
o mal-estar e a indignação de Spooner ao ter sido salvo
no lugar da criança. Como se poderia programar um robô
para agir segundo critérios axiológicos? A consciência,
enquanto veículo semântico tipicamente humano, funcionaria
como o órgão do sentido . É apenas ela que trabalha
com o logos da linguagem. Tomando-se a noção de homem
enquanto síntese de suas três categorias constitutivas
fundamentais (corpo próprio, psiquismo e espírito -
pessoa), conforme a obra de Vaz (2001), pode-se relembrar que a idéia
do espírito na tradição ideo-histórica
em que tal conceito foi desenvolvido traz o logos como um de seus
temas fundamentais. Trata-se da noção mesma de uma razão
ou ordem universal, presente, inclusive, nas origens do pensamento
filosófico:
“No âmbito desse tema,
estabelece-se a relação entre espírito e palavra
(logos), sendo a palavra inteligível a manifestação
do espírito que confere uma vida propriamente espiritual à
palavra proferida, sobretudo no diálogo , e à palavra
escrita. A tradição grega irá encontrar-se aqui
com a tradição sapiencial do Antigo Testamento, e essa
convergência irá exprimir-se na correspondência
logos-pneûma da tradição cristão, já
presente no Novo Testamento.” (Vaz, 2001: 203)
Uma breve reflexão ética
também se faz pertinente. Para Viktor Frankl (1985), o criador
da Logoterapia, a dimensão espiritual é o constitutivo
de diferenciação do ser humano, em meio às categorias
do corpo próprio e do psiquismo. A dimensão espiritual,
ou noológica, delimita as fronteiras do que seria o “tipicamente
humano”. O homem participa da dimensão orgânico-biológica
e da dimensão psicológica, podendo ser, razoavelmente,
tornado objeto de estudo das ciências nesses âmbitos.
A humanidade do homem, no entanto, irredutível à objetividade
das ciências da natureza, só pode ser entendida quando
as três categorias constitutivas são organizadas num
esquema tridimensional, análogo ao dos planos geométricos.
O espírito humano aparece, aí, como a terceira dimensão,
que reintegra as outras duas e, na analogia matemática, faz
surgir uma figura espacial: a pessoa humana. Este foi o projeto antropológico
de Frankl, que, seguindo a tradição da Ética
Material de Max Scheler, afirma que só através da dimensão
espiritual, pode o homem participar de um universo de valores, no
interior do qual só se pode contar, fundamentalmente, com a
consciência moral [ Gewissen ].
Essa fundamentação lança
uma interessante perspectiva para a análise do agir ético,
tendo em vista que a consciência, nessa acepção,
apresenta um caráter irracional, ou pré-lógico:
trata-se de uma compreensão pré-moral dos valores, bem
anterior a qualquer moral explícita (Frankl, 1985). Logo, a
lamentação de Spooner por ter sido a escolha lógica,
em detrimento de uma garotinha, parece ser mais bem compreendida quando
se consegue ultrapassar o limite de uma consciência meramente
cognitiva.
“Um humano saberia”, precisamente,
porque, para além de uma moral explícita – isto
é, no caso, para além das 3 leis da robótica,
que, no caso, acabou decidindo entre um salvamento ou outro através
do cálculo de probabilidades – existiria uma consciência
moral irredutível à objetivação e normatização,
o que constituiria – como ato espiritual – uma possibilidade
exclusivamente humana. Sonny, ao ter ignorado os indicadores lógicos,
parece ter agido segundo um critério pautado com fundamento
em uma consciência moral.
Concebendo as noções
de intencionalidade e consciência, logos e liberdade , e culminando
na idéia de consciência moral , de certa maneira, admitiu-se
aqui uma dimensão qualitativa da inteligência humana
a que se chamará de caráter “psicologizado”.
Nesses termos, a crença da AI forte consistiria numa possibilidade
de “despsicologização” da linguagem, para
que se pudesse montar uma base segura de programação,
para que, em se programando a máquina com tal linguagem, ela
se “re-psicologizasse” e passasse a ser e agir como um
homem. A linguagem humana a priori não seria trabalhável
em tais dimensões. O filme, também, sequer se ocupou
em explicitar como Sonny pôde ser programado para tornar-se
um exemplo de AI Forte.
Buscar uma ontologia última
para a linguagem – critério para a elaboração
de uma programação computacional adequada para a AI
Forte - constituiria um projeto, aparentemente, inexeqüível.
A própria psicologia evolutiva não consegue dar respostas
satisfatórias a respeito dessa peculiaridade do “animal
moral”. Quine (1964), em sua teoria do aprendizado da linguagem,
apresenta a última fase desta - a interanimação
das sentenças - como o momento deste salto, em que a linguagem
passa a assumir dimensões que ultrapassam – e muito -
a evidência observacional. Teologicamente, a tradição
cristã apresenta, ainda dentro da idéia de espírito,
a noção de pneûma , dando conta da metáfora
do sopro vital . Tal questão, em filosofia, ainda aparenta
situar-se num problemático patamar de mistério.
De fato, essa espécie de “vida”
que se observa na dinâmica da linguagem humana e na peculiaridade
do agir ético, longe de reduzir-se à caricatura dos
“fantasmas na máquina” de Ryle, torna o problema
da AI Forte quase que um esforço abusivo da abstração
pura. Relembrando o clássico artigo de Nagel (1981), se a “consciência
é o que torna o problema mente-corpo realmente intratável”,
é ela mesma que transforma o problema mente-máquina
da AI Forte numa possibilidade ainda dificilmente defensável.
8. Agradecimento
O autor agradece o apoio da excelsa Profa. Dra. Maria
Aparecida Montenegro, do Departamento de Filosofia da Universidade
Federal do Ceará, a quem, obviamente, não deve ser atribuída
qualquer impropriedade, por ventura, existente neste trabalho.
EU, Robô. Direção: Alex Proyas.
Produção: Laurence Mark, John Davis, Topher Dow e Wyck
Godfrey. Intérpretes: Will Smith, Bridget Moynahan, James Cromwell
e outros. Roteiro: Jeff Vintar e Akiva Goldsman. Música: Marco
Beltrami. Los Angeles : Fox Films, c2004 (115 min), widescreen color.
Produzido por Fox Films do Brasil. Baseado na novela “I, Robot”,
de Isaac Asimov.
Frankl, V.E. (1985). A Presença Ignorada de
Deus .(Trad. Schlupp, W. e Reinhold, H.) Petrópolis: Vozes.
Nagel , T. (1981). What is it like to be a bat?. Em:
Hofstadter, D.R. e Dennet, D.C. (Ed.) The Mind's I (pp. 391-402). Nova
Iorque: Basic Books.
Quine , W. Van O. (1964). Word and Object (Studies
in Communication) . Boston : MIT Press.
Ryle, G. (1949). The Concept of Mind . Chicago : The
University of Chicago Press.
Searle , J. R. (2000). Mente, Linguagem e Sociedade
. (Trad. Rangel, F.) Rio de Janeiro: Editora Rocco (Original publicado
em 1998)
Turing, A. M. (1981). Computing Machine and Intelligence.
Em: Hofstadter, D.R. e Dennet, D.C. (Ed.) The Mind's I (pp. 53-66).
Nova Iorque: Basic Books.
Vaz, H.C.L. (2001). Antropologia Filosófica
(2 Tomos). São Paulo: Edições Loyola.
Wittgenstein, L. (2000). Investigações
Filosóficas . (Trad. Bruni, J.C.) São Paulo: Editora Nova
Cultural.
" - I.S. Pereira é graduando em Psicologia
(UFC).
Ciências & Cognição 2006; Vol
09< http://www.cienciasecognicao.org > © Ciências &
Cognição Submetido em 21/06/2006 | Revisado em 14/09/2006
| Aceito em 20/09/2006 | ISSN 1806-5821
– Publicado on line em 30 de novembro de 2006 -