Sunday, July 17, 2016

Argumento da Sala Chinesa: Implicações do Problema da Fundação dos Símbolos (UNISUL, 2014)

Argumento da Sala Chinesa:Implicações do Problema da Fundação dos Símbolos

Leon Erickson

UNISUL, 2014

Podemos atualmente considerar duas as principais abordagens para as questões relacionadas ao funcionamento do cérebro e da mente – como emerge a personalidade, a consciência, a historicidade do sujeito, suas sensações, suas emoções e a sensação de ser possuidor de estados mentais. Uma delas, apresentada principalmente por António Damásio, tem caráter mais biológico ao supor que a mente acontece em um corpo e que os eventos mentais estão ligados a acontecimentos que envolvem desde mecanismos endócrinos a representações neurais destes mecanismos e, esta perspectiva, é similar à adotada por John Searle. A outra abordagem, originalmente proposta por Hilary Putnam e designada Teoria Computacional da Mente (CTM), suporta a noção de que todos os eventos mentais decorrem de manipulações simbólicas realizadas pelo cérebro, sendo assim, a implementação da mente é independente do substrato computacional sobre o qual esta interação sintática acontece, de modo que nem o corpo nem o cérebro seriam necessários para emergir a consciência.

Para pensadores antigos e medievais, tanto os fenômenos da realidade quanto os mentais foram relegados à intervenção divina, por isso, até o Iluminismo, explicar como são possíveis os estados mentais não foi considerado um problema de ordem científica ou filosófica. A partir de René Descartes, tornou-se impossível ignorar existência de uma entidade física que é o corpo e um fenômeno imaterial manifestado pela mente, sendo ambos qualitativamente diferentes, não obstante precisem ser explicados segundo uma visão unificada da realidade.

O argumento de René Descartes postulou a existência de dois domínios separados: resgatando da ontologia aristotélica o conceito de substância, dividiu a realidade na categoria dos entes materiais, cujo principal atributo seria a extensão (res extensa) e os entes mentais, caracterizados pelo atributo do pensamento (res cogitans). Tal cisão tem marcado o raciocínio filosófico desde então – embora o dualismo seja sempre rejeitado pelos estudiosos ao menos em sua forma metafísica. Porém, como ainda hoje se faz uso do mesmo vocabulário para especificar os problemas da Filosofia da Mente, o filósofo norte americano John Searle pontuou recentemente que um curso contemporâneo desta disciplina continuaria totalmente compreensível a Descartes (SEARLE, 1997).

Apenas a partir da primeira metade do século XX uma alternativa às perspectivas monista e cartesiana dualista foi vislumbrada em decorrência da publicação dos artigos de Alan Turing, dentro da qual o fenômeno da mente poderia decorrer de características da própria matéria ao implementar relações lógicas, sendo assim, dispensaria a necessidade de haver duas naturezas distintas e, o problema consequente, explicar como estas se relacionariam. Esta nova perspectiva  evita a supressão da realidade dos fenômenos mentais, como realizada pelos materialistas, ou o oposto, a redução da totalidade da realidade à apreensão subjetiva.

Searle (1997) nota que o mais evidente problema de nossa era é dar conta de nós mesmos enquanto seres livres, conscientes e racionais, em um mundo em que a ciência nos mostra consistir inteiramente de partículas e campos de força inconscientes e sem significado. E isto é particularmente grave em vista do avanço científico e tecnológico que se tem observado, sem, no entanto, poder iluminar minimamente esta questão. O que se pode supor é que o problema da consciência está além do alcance da Ciência, pois esta trata de fenômenos perceptualmente observáveis, enquanto a consciência é uma experiência subjetiva. Como construir uma teoria da mente possivelmente consistiria em um problema que exige a convergência de elementos de diversas áreas do saber para que seja propriamente estruturado e adequadamente abordado.

A partir disto pretende-se expor as duas perspectivas anteriormente mencionadas perante a discussão do Argumento da Sala Chinesa, no qual Searle refuta a CTM supostamente demonstrando que a mera sintaxe não pode dar origem ao universo semântico e que, portanto, a instauração das operações mentais depende de elementos materiais não redutíveis à exclusiva manipulação simbólica.

1           Revisão histórica

A filosofia é fundada sobre a inquietação a respeito da realidade das coisas e da realidade humana. Os filósofos chamados pré-socráticos perguntavam sobre a realidade do mundo, questionavam se o que viam no mundo era real. Platão tornou-se para a reflexão filosófica uma referência fundamental, tanto por realizar a primeira grande síntese filosófica, unindo os pensamentos contraditórios de seu tempo sob uma mesma filosofia mais ampla, quanto por realizar implicitamente a fissura entre a mente e o corpo: sua divisão tripartite da alma, apresentada no Livro IV de A República, representa o homem com uma parte apetitiva, ligada aos desejos do corpo,  outra irascível, responsável pelos impulsos como a coragem e a honra, e uma parte racional, capaz de sabedoria e prudência, e que deve reger a irracionalidade das demais partes. Também de A República, em diversas passagens, se depreende que é a parte racional a mais nobre, pois apenas esta seria capaz de conhecer a Verdade-em-si (PLATO et al., 1992).

Tal filosofia será incorporada pelo cristianismo se tornando a heresia que mais profundamente o marcou – talvez mais ainda que o Aristotelismo injetado posteriormente por Tomás de Aquino – devido à naturalidade com que o platonismo apela para o senso comum. Troca-se "Verdade" por "Deus" e tudo parece cair em seu lugar. A divisão entre um corpo corruptível, marcado pelo pecado original, e uma alma escolhida por Deus, através do batismo na Igreja para a salvação, cabia muito bem à mentalidade medieval e, ainda hoje, possui forte apelo.

A partir da modernidade fez-se necessário repensar a realidade com base na razão, pois os valores medievais não respondiam mais nem às necessidades históricas nem às inquietações filosóficas emergentes. Ninguém levou mais a fundo esta tarefa que René Descartes: a dúvida metódica parte da suspensão da crença em tudo, na existência do mundo, no outro, em Deus, mesmo em si, na procura de um fundamento seguro do qual não se possa duvidar. Descartes concluíra que não podia duvidar que duvidava e, portanto, não poderia duvidar da existência de sua razão duvidante (DESCARTES, 2004){Formatting Citation}. Existindo, presumiu que deveria existir um ente que lhe pusera em existência, e este era Deus. Deus não seria um Deus enganador, postula, e assim admite suas experiências como reais tais como são o mundo e os outros homens. Consumava-se assim uma nova fissura entre a razão e o corpo, uma fissura sacralizada pela razão.

Algumas perguntas que antes não se faziam ou por não se ousar fazer ou por não fazerem sentido agora vinham à tona, e uma delas é justamente como a mente interage com o corpo: como quando quero levantar meu braço, meu braço se levanta? Descartes respondeu, mal, a esta questão. Segundo ele, a glândula pineal, por não ser duplicada (e não se saber sua função), deveria ser a interface da alma com o corpo (DESCARTES, 1979). Esta explicação foi sucedida por outras tentativas igualmente frustradas de resolver este problema, como o caso do ocasionalismo manifestado por Malebranche, que considera que cada movimento realizado pela alma é sincronizado com o corpo pela ação de Deus. Se desejo levantar meu braço, Deus o levanta para mim e causa em minha alma a sensação de tê-lo levantado. Outra alternativa seria admitir que existe uma sincronicidade entre a alma e o corpo, tese defendida por Leibniz. Assim, quando desejo levantar meu braço, meu corpo o levanta, porém alma e corpo não se comunicam, apenas estão em uma harmonia pré-estabelecida(GRIM, 2008). Isto nos leva a perguntar se realmente faz diferença se ter uma alma, desde que todas as ações são realizadas pelo corpo, a consciência seria mero epifenômeno da matéria. Ou, o solipsista em uma última quase-alternativa[1], pergunta se seria apenas eu o único ser consciente e todos os demais seriam zumbis irracionais apenas movimentando os corpos tal e qual entes conscientes o fariam (KIRK, 2005).

A situação se torna mais complexa quando Darwin publica em 1859 A Origem das Espécies, pois antes, seguindo Descartes, os animais não passavam de autômatos, sendo o homem o único ser dotado de uma alma imortal criada por Deus. Com o evolucionismo tudo isto muda pois o homem e os demais animais estão na mesma árvore evolutiva, não há mais uma clara separação entre os animais humanos e não-humanos.

Em meio a esta confusão, as ciências particulares escolhem deixar de lado o problema da alma ou consciência, e dedicam-se apenas ao fenômeno observável, quantificável, tornando a preocupação com a natureza humana um não problema ou quando muito um problema para as ciências humanas (PINKER, 1999).

O século XX foi rico em contribuições para os problemas da natureza humana, da consciência e da relação entre o corpo e a mente. A mais proveitosa transformação veio do inusitado campo da matemática. Em 1900 o matemático David Hilbert enunciou 23 problemas que vinham inquietando os matemáticos, muitos desde a antiguidade clássica, que exigiam ser resolvidos. Seu discurso colocava peso sobre a capacidade infinita da razão para solucionar os problemas de ordem lógica e matemática (NAGEL; NEWMAN, 2001). Muitos matemáticos de talento se debruçaram sobre esta tarefa, mas o resultado foi longe de obter êxito, não obstante, o programa de Hilbert tenha sido um dos maiores propulsores da matemática do século. Gödel apresentou em 1931 o que se tornou conhecido como Teoremas da Incompletude, que enunciam que nenhum sistema formal suficientemente amplo e não contraditório poderá ser provado por seus próprios axiomas. Isto significa que nenhum sistema, nem a aritmética, nem a geometria, pode ser provada por si mesma, mas nem por isso seus axiomas deixam de ser verdadeiros. Decorre, portanto, que um tal sistema não é capaz de demonstrar sua própria consistência. Paralelamente, Alan Turing apresentou sua tese em 1936 sobre computablidade que fez uso de um recurso que virá a ser muito relevante daí em diante, as chamadas Máquinas de Turing (PETZOLD, 2008). Seu objetivo era o mesmo que o de Gödel: provar que um sistema era consistente através de um método mecânico e repetitivo. Para isto elaborou um recurso hipotético que utilizaria operações simples como escrever um símbolo, ler o símbolo, mover o símbolo para direita ou à esquerda, apagar o símbolo, em uma fita infinita e em tempo infinito, e operar de acordo com instruções sintáticas alterando o próprio estado. Ele concluiu que alguns problemas são decidíveis e podem ser resolvidos por estas máquinas, outros não, como é o caso das equações diofânticas[2].

1.1          Autômatos

Descartes, proclamado fundador do dualismo moderno, é também responsável por dar origem a uma forma de monismo, segundo a qual a natureza se comporta exclusivamente de forma mecânica, determinada por causas tal qual o funcionamento de um relógio. Esta interpretação da realidade foi aceita por Thomas Hobbes e estendida para abranger também o funcionamento da mente. Sua perspectiva advoga que toda a realidade é material e o ato de raciocinar se dá através de computações definidas por operações aritméticas sobre símbolos. A razão seria, portanto, nada mais que o ato de contabilizar as conseqüências, através de uma série de somas e subtrações de nomes, os quais foram convencionados para significar nossos pensamentos (DYSON, 2012).

Porém, Descartes já havia observado um homem e imaginado que sob seu chapéu e casaco houvesse apenas uma máquina movida por molas. No mesmo espírito, ao se deparar com os autômatos de Jacques de Vaucanson[3], La Mèttrie observa um grau de complexidade crescente desde o pato ao andróide flautista e reflete que a distinção entre humanos e animais não se dá por aquele possuir uma natureza diversa deste, mas uma mera diferença quantitativa, de algo como roldanas e molas e, sendo assim, o homem seria apenas uma máquina a rastejar perpendicularmente. A partir da descoberta do princípio de funcionamento dos músculos, La Mèttrie pode descartar a necessidade de espíritos animais para explicar o movimento dos seres vivos que, portanto, não dependem de uma alma para os animar. A palavra alma doravante só deveria ser utilizada para referir-se à mente, ou de outra forma seria vazia (WOOD, 2003).

“O Turco”, um autômato jogador de xadrez, representou um enigma exemplar para a hipótese do pensamento mecânico. Considerado um jogo de extrema habilidade intelectual, a idéia de uma máquina capaz de derrotar um oponente humano trouxe o debate da Inteligência Artificial (AI) às cortes e salões do século XVIII. No entanto, para realizar tal feito, o dispositivo dissimulava em seu interior um jogador humano. Os segredos do seu funcionamento foram mantidos até após a destruição da máquina por um incêndio no museu que a abrigava, em 1854. E, talvez devido em parte ao ardil empregado na concepção deste autômato, a habilidade de jogar xadrez permaneceu até os anos finais do século XX como ápice da genialidade do intelecto humano {Formatting Citation}(WOOD, 2012).

1.2         A Máquina diferencial

Tanto Pascal quanto Leibniz dedicaram-se a aprimorar calculadoras mecânicas, e Charles Babbage levou o conceito de computação mecânica a um nível superior de complexidade com o projeto da Máquina Diferencial, esta capaz de tabular funções polinomiais (ISAACSON, 2014). E, antes de poder completar sua construção, percebeu que poderia construir uma máquina capaz de realizar qualquer computação desde que alimentada com o conjunto de instruções necessárias. A Máquina Analítica, projetada em 1837 e nunca construída, foi o primeiro sistema a utilizar-se de programas armazenados – em papel perfurado similares aos teares mecânicos –, com um setor dedicado à memória, que armazenaria as variáveis e resultados, e outro para as operações propriamente ditas[4]. Porém, Ada Lovelace foi quem anteviu o potencial da Máquina Analítica, pretendia esta não apenas a manipulação de valores, qualquer padrão que pudesse ser representado em símbolos poderia ser computado.

Os limites da aritmética foram ultrapassados no momento em que a ideia de utilizar cartões perfurados aconteceu, a Máquina Analítica não ocupa o mesmo terreno que simples “máquinas de calcular”. (...) Ao possibilitar um mecanismo para combinar símbolos gerais em uma sucessão de ilimitada variedade e extensão, um laço é estabelecido entre as operações da matéria e os abstratos processos mentais dos ramos mais abstratos da ciência matemática (MENABREA; LOVELACE, 1842, Nota A).

É ao final de sua Nota G[5] que realizou a afirmação a qual Turing, mais de um século depois, irá contestar:

A Máquina Analítica não tem qualquer pretensão de dar origem a coisa alguma, ela é capaz de fazer qualquer coisa que nós sabemos como programá-la para realizar. Ela é capaz de acompanhar a análise; mas é incapaz de prever relações analíticas ou verdades (MENABREA; LOVELACE, 1842, Nota G).

1.3          o jogo da imitação

Uma das consequências mais evidentes da formalização do conceito de algoritmo realizada por Turing foi a efetiva criação de máquinas computadoras, os recursos e justificativas que faltaram a Babbage, no século XX abundariam na forma da Segunda Guerra Mundial. A vantagem estratégica decorrente da quebra da encriptação das mensagens do Eixo e, posteriormente, a pesquisa da Bomba Atômica e Bomba H, tornou uma necessidade computadores mais rápidos e com mais armazenamento.

Se intrigados leigos observadores dos protótipos da Máquina Analítica já informalmente a chamavam de “máquina que pensa” (TOOLE, 2010, p. 46), Turing prescreve em 1950 um teste segundo o qual uma máquina pode ser propriamente classificada como inteligente. Parte de que um computador digital que venha a existir em qualquer futuro, independente da tecnologia utilizada, é equivalente a uma máquina presente[6], seja tanto em 1950 quanto agora, pois todas suas operações podem ser reduzidas às de uma máquina de turing. Sendo assim, seu artigo Computing Machinery and Intelligence, questiona se uma máquina imaginável poderia exibir uma inteligência similar à de um ser humano, a ponto de ser de fato confundida com um.

Perguntar-se se uma máquina pensa, é de toda forma uma pergunta vazia, estabelece Turing, pois requer definir o que se entende por pensar e o que se considera uma máquina. Seu primeiro interesse volta-se a livrar-se de certa parcialidade ou favoritismo, pois consideramos em geral pensar algo que uma pessoa faz, porém o conceito de pensar se torna gradualmente deslocado ao aplicá-lo a outros seres vivos, e muito mais se aplicado a um produto da engenharia. E, se levado ao extremo, não podemos mesmo saber se outra pessoa pensa realmente, haja vista apenas nossos estados mentais nos são dados a conhecer, quanto aos demais, apenas podemos fazer uso da analogia para inferir que existem. Turing propõe que a própria palavra “pensar” não representa adequadamente nossa dúvida, e acredita que ao final do século XX dizer que um computador está pensando não causará imediato desconforto. Prevendo isto, substitui a pergunta original por uma mais bem formulada: seria uma máquina capaz de exibir inteligência similar à humana?

O procedimento que propõe para se avaliar a capacidade da máquina veio a ser conhecido como Teste de Turing (T2), e consiste basicamente em implementar um algoritmo de imitação de ser humano que, quando capaz de convencer um juiz, após cinco minutos de interação por escrito em 30% das tentativas, se tratar de uma pessoa humana, seria considerado aprovado, ou seja, seria concedido que esta máquina tem inteligência similar à de um ser humano.

Assim como uma caixa preta, as operações que tal máquina realizaria para produzir a imitação não devem ser alvo de objeções, posto que só nos interessa o efeito observável, a saber, a capacidade de se passar por uma pessoa humana, que é avaliada por meio da análise de sentenças por ela produzidas (output) em respostas a perguntas livremente escolhidas pelos juízes (input).

Ademais, se trata de reconhecer similaridade qualitativa, não quantitativa. Pois se poderia argumentar que tal máquina na verdade possuiria inteligência superior a um humano posto que ela precisaria intencionalmente cometer erros e produzir demora em apresentar resultados de operações matemáticas para não se revelar ao juiz. Isto é, replicar as funções cognitivas humanas é apenas um dos atributos daquela máquina. Por exemplo,

Q: Por favor, escreva um soneto sobre a Ponte de Londres.

R: Não conte comigo nisso. Eu nunca poderia escrever poesia.

Q: Some 34957 a 70764

R: (após 30 segundos) 105621

Q: Tenho um Rei em e1, e nenhuma outra peça. Você tem somente um Rei em e4 e Torre em a8, sua vez de jogar. Que peça moverá?

R: (após 15 segundos) Torre para a1. Xeque-mate.(TURING, 1964, p.6)

Não obstante, resta ainda definir o que se entende por máquina. Ciente de que o termo é demasiado amplo e que um ser humano poderia ser apresentado como exemplar de máquina, decide Turing, ao invés de delimitar as características que definem o que é uma máquina, o que considera uma tarefa ineficiente, arbitrariamente escolhe apenas debater exclusivamente o caso de computadores digitais. Justifica, pois primeiramente são estes os dispositivos que levantaram as questões ora debatidas, além do mais,

Esta restrição parece ser drástica à primeira vista (...) mas será apenas insatisfatória se (contrariamente à minha crença), computadores digitais forem incapazes de se saírem bem no jogo [de imitar] (TURING, 1964, p.7).

Fica evidente que Turing, desde que considera o ser humano uma espécie de máquina, volta a sua indagação para a possibilidade de implementar em um computador digital um conjunto de instruções suficientes para reproduzir os atributos que geralmente identificamos com o comportamento intelectual de um ser humano.

2           A Sala Chinesa

Poderia-se argumentar que da mesma forma que relógios mecânicos e autômatos serviram de inspiração à La Mèttrie e Descartes, o computador digital serve de modelo ao teórico contemporâneo que intenta explicar o funcionamento da mente. Exceto por, talvez, o próprio computador ter sido criado à imagem de certa concepção do pensar humano, que desde Hobbes ao menos intriga filósofos e matemáticos. Porém até computadores se tornarem amplamente disponíveis a cientistas de vários campos nos anos cinqüentas, a possibilidade de aproximar a inteligência mecânica à inteligência humana permanecia um trabalho meramente especulativo. Porém, tão cedo quanto 1953, Barricelli já conduzia experimentos com organismos virtuais em um universo artificial e seria de se supor que tão logo estivesse disponível suficiente poder computacional, organismos gradualmente mais complexos passariam a habitar universos realisticamente simulados(DYSON, 2012).

Nos anos sessentas, Hilary Putnam propôs uma explicação dos fenômenos mentais utilizando-se de Máquinas de Turing para defender a múltipla realizabilidade independente do substrato. Segundo esta perspectiva a mente seria para o cérebro o que um conjunto de instruções é para um computador digital. Tal prerrogativa foi assumida pelo campo da AI de tal maneira que se acredita que a instanciação de consciências poderia igualmente se dar em chips feitos de silício. Segundo Marvin Minksy, é o que já ocorre com o cérebro humano, pois, paralelamente, considera este apenas uma máquina feita de carne (LEVY, 1984).

Lado a lado, porém, computadores digitais e cérebros guardam pouco em comum. Computadores trabalham em série, sobre informações discretas em oposição à natureza massivamente paralela dos cérebros, decorrente da ramificada interação dos neurônios, que por sua vez combinam elementos digitais e analógicos. Neurônios conjugam reações químicas e disparos elétricos, extremamente lentos se comparados às operações eletrônicas: circuitos operam em frações da velocidade da luz. Não obstante, estima-se a capacidade computacional de um único cérebro humano da ordem de 1017 operações por segundo (BOSTROM, 2003) e sua memória entre 1015 (TURING, 1964) e 1020 (KURZWEIL, 2012) bits de informação, enquanto isso, o mais rápido supercomputador em existência, o chinês Tianhe-2 “Milkyway-2”, da Universidade de Sun Yat-sem, é capaz de 3315 operações por segundo (MEUER et al., 2014), ou seja, ainda duas ordens de magnitude inferior.

Assim, isto significa que não se pode ainda, contrariamente à previsão de Turing que imaginou no final do século XX a existência de computadores com suficiente potencial, resolver com um teste prático o problema da inteligência mecânica e, contiguamente, descartar ou acolher a explicação da CTM para os processos cognitivos. No entanto, desde as Notas de Ada Lovelace, uma série de argumentos se têm acumulado discordando da possibilidade de máquinas em geral, e computadores digitais em particular, demonstrarem genuína inteligência. Estes argumentos são importantes também à psicologia, pois igualmente limitam o poder explicativo da CTM a respeito dos processos cognitivos.

Um dos tipos de argumentos mais prevalentes é familiar à afirmação de Ada Lovelace, de que computadores não são capazes de criar algo novo. O que era compreensivo em sua época, pois ela nunca pôde operar o computador digital que ajudou a desenvolver, porém a capacidade de gerar informações e padrões inusitados foi rapidamente percebida pelos pioneiros da computação (GLEICK, 2008). Assim como há parcialidade em se entender um processo computacional como inteligente, há um mito com relação aos processos criativos. Porém um trabalho é criativo somente em função da ignorância do crítico: quem avalia a obra simplesmente não é capaz de dizer como pôde ser gerada. Composição musical foi um exemplo muito utilizado para defender esta posição, porém quando David Cope publicou milhares de composições similares[7] a Beethoven e Mahler produzidos pelo software Emily Howell, a composição musical deixou de ser considerada algo genial e passou a ser um mero truque (COPE, 2009). E pessoas comuns não são em geral capazes de compor música, quanto menos rivalizar Bach, o que torna este tipo de exigência de criatividade excludente mesmo para humanos. Tal exemplo extremo pode ser aproveitado analogamente para todas as áreas que foram consideradas domínio exclusivo da capacidade cognitiva humana (MINSKY, 1982).

Até recentemente o uso de CAPTCHA (Completely Automated Public Turing test to tell Computers and Humans Apart – Teste de Turing público totalmente automatizado para distinguir computadores de humanos) foi uma barreira eficiente contra sistemas automatizados de reconhecimento de caracteres, dependendo de intervenção humana. Aos poucos, novos sistemas especialistas[8] tornaram-se eficientes na decodificação dos caracteres distorcidos do teste com a consequente necessidade de imagens mais elaboradas, como fotografias, serem importadas para o teste ao ponto de mesmo pessoas não passarem neste teste reverso de Turing. Destarte, tais limites impostos pelo senso comum à capacidade de sistemas computacionais, posto que são sistematicamente resolvidos pela associação do aumento do poder computacional e implementação de algoritmos apropriados, não revela o que computadores são capazes de realizar[9]. Ademais, sequer se sabe, de fato, o que o intelecto humano é capaz, ou não, de fazer.

E isto ressoa a posição de Gödel ao advocar que embora existam problemas os quais não podem ser resolvidos por máquinas de estados finitos, a mente humana seria capaz ultrapassar estas limitações, em parte ou totalmente (FEFERMAN, 2011). Isto é dizer que um problema diofantino permanecerá para sempre aquém do poder de uma máquina de turing, como provado (TURING, 1936; GÖDEL, 2000), mas um matemático poderia inventar uma maneira de resolver esta classe de questões (algum em particular ou todos) se e somente se fosse o caso de que o intelecto humano infinitamente superasse os limites de qualquer máquina de estados finitos – não obstante outros problemas não decidíveis poderiam permanecer para sempre além do intelecto humano, ou seja, serem absolutamente insolúveis.

E este seria o caso de haver um princípio ainda não descoberto (PENROSE, 1996) ou não devidamente compreendido (CRICK; KOCH, 2003), mas que fosse de fato o responsável pelos processos mentais. Porém, se de fato é possível ultrapassar os limites do poder computacional de qualquer hipotética máquina de turing ainda há de ser demonstrado, e mais remotamente se encontraria a tarefa de provar se o cérebro obedece a tais princípios.

A discussão de maior relevância talvez venha de John Searle, denominado Argumento da Sala Chinesa. Afirma que a intencionalidade em seres humanos e animais é um produto de características causais do cérebro. E, a instanciação de um programa de computador não é condição suficiente para intencionalidade (SEARLE, 1980). Para tanto, parte de três axiomas:

Axioma 1: Programas de computador são formais (Sintáticos)

Axioma 2: Mentes humanas têm conteúdos mentais (Semântica)

Axioma 3: A sintaxe por si mesma não é nem constitutiva nem suficiente para semântica.

Conclusão: Programas não são nem constitutivos nem suficientes para mentes (CHURCHLAND; CHURCHLAND, 1990, p. 33) .

Para explicar seu argumento Searle fez uso de um Gedankenexperiment (experimento mental) no qual se imaginou fechado em uma sala, comunicando-se com o mundo exterior apenas por folhas de papel trocadas por debaixo da porta. Porém o que recebe por escrito são ideogramas chineses, e Searle não entende nada de chinês, mas entende inglês nativamente. Assim, ele possui um livro com regras de combinação de traços em inglês, e uma caixa com diversos tipos de traços para construir os símbolos chineses. Ao receber uma folha com ideogramas escritos nela, ele procuraria no livro de regras o que fazer quando encontrasse uma linha assim e assim, e o livro diria para pegar na caixa uma linha na forma tal e tal e combinar com outra, assim por diante. Imagina que teria todo o tempo do mundo e paciência infinita para prosseguir em sua tarefa, ao final entregando uma folha repleta de ideogramas compostos segundo o livro de regras, que lhe são tão misteriosas quanto as que recebeu, mas compreensivas para o chinês nativo.

À folha de papel que recebe, denomina perguntas, e à que devolve, respostas. O livro de regras é o programa e a caixa com símbolos, um banco de dados. Para um juiz que lê as respostas, estas seriam indiscerníveis de uma dada por um chinês nativo. Isto é, Searle passa no T2 para chinês, mas Searle afirma não apenas não entender nada de chinês, mas também não ter ideia do que significam os rabiscos que devolveu por debaixo da porta. Com base nisto conclui que a mera manipulação de símbolos não é suficiente para se inferir que há entendimento do significado, ou seja, se Searle não compreende o que está fazendo, da mesma forma um computador não é capaz de compreensão. E, portanto, a AI não é capaz de explicar o entendimento humano (SEARLE, 1980).

Este argumento assume particular importância ao evidenciar o caráter formal das teorias de AI e, consequentemente, da CTM, exigindo uma revisão de suas bases com a finalidade de justificar a dimensão semântica, a qual caracteriza os processos que consideramos como inteligentes, em oposição a mera obediência a regras predeterminadas, que caracteriza um programa de computador, isto é, a sintaxe. Este é o problema da fundação dos símbolos e, se entendido na forma do argumento de Searle, transforma a pesquisa sobre inteligência mecânica um campo restrito à Engenharia, em nada contribuindo seja à Filosofia da Mente ou às Ciências Cognitivas..

As primeiras réplicas a este argumento são apresentadas, ao final do artigo seminal de 1980, pelo próprio Searle, como respostas às objeções, e duas delas cabe comentar. A intitulada Resposta do Sistema, afirma que Searle, trancado em sua sala, não entende chinês nem o poderia, pois ele representa apenas uma peça do sistema, não mais relevante que um simples neurônio no cérebro. Quem entende chinês, de fato, seria a sala, com todos os seus elementos, as caixas com símbolos, o livro de regras e Searle trabalhando dentro: o conjunto entende chinês. Searle contra argumenta, memorizando os símbolos e as regras, e realiza todas as manipulações em sua própria cabeça, dispensa a sala inclusive, e afirma que, mesmo assim, nada entenderia pois em nenhum momento fez algo além que manipular, em sua cabeça, linhas e traços.

O segundo contra-argumento que Searle responde é imaginar que ao invés de reproduzir as funções cognitivas em um computador, o programa, na verdade, reproduziria o funcionamento do cérebro no nível de descrição neuronal. Desta maneira os símbolos manipulados estariam fundados na representação neurofisiológica do modelo. Searle responde afirmando que, de qualquer maneira, o que o computador estaria fazendo seria mera manipulação simbólica e esperar que uma simulação de um cérebro produza cognição seria equivalente a pretender que uma simulação do sistema digestivo realmente faça digestão. Imagina-se, ao invés de manipular símbolos, a abrir e fechar válvulas e conclui que não teria entendimento melhor em função do nível de descrição. E mesmo que a sala fosse incorporada a um robô, os símbolos não estariam fundados na interface sensório motora, mas seriam igualmente carentes de referente:

Devido às manipulações simbólicas por si mesmas não possuírem qualquer intencionalidade, elas são vazias de significado; elas sequer são manipulações simbólicas, já que os símbolos não simbolizam coisa alguma. No jargão dos linguistas, elas têm apenas sintaxe, mas não semântica. Esta intencionalidade, como computadores parecem ter, se dá somente nas mentes daqueles que os programam e na daqueles que os usam; daqueles que enviam o input e interpretam o output [do sistema] (SEARLE, 1980, p. 421).

Turing presumiu com o jogo da imitação que a cognição é o que a cognição faz, porém, em oposição, Searle afirma que computadores não estão aguardando o programa certo para se tornarem inteligentes; isto é, mesmo um robô de toda forma indiscernível de um ser humano, seja na manifestação verbal (passe no T2) quanto no comportamento (também passe no T3[10]), falharia em possuir estados mentais e poderia muito bem ser um zumbi – não se sentiria como um sujeito cognoscente (HARNAD, 2011).

E esta conclusão trás novamente a discussão de Descartes, tal como antes falhara ao demonstrar a existência das outras mentes, ora confrontamo-nos com a impossibilidade de conceder a posse de estados mentais a uma máquina hipotética. Outrossim, a fissura dualista parece reemergir ao se separar o etéreo universo dos significados e da consciência do universo mecânico e determinista em reinos incomunicáveis.

Considerando que por máquina define-se um sistema dinâmico governado por causalidade (HARNAD, 2011), é conhecida ao menos uma máquina capaz de estados mentais e de comportamentos inteligentes: o ser humano. Assim, o que Searle afirma é que a consciência seria resultado de causas biológicas, sejam de ordem estrutural ou dependente de reações químicas. O mesmo tipo de poderes causais são necessários para se produzir uma outra máquina pensante, pois reproduzindo-se as causas reproduzem-se os efeitos (SEARLE, 1980).

(...) O cérebro não instancia meramente um padrão formal ou programa (ele faz isso, também), mas ele causa eventos mentais em virtude de processos neurobiológicos. Cérebros são órgãos biológicos específicos, e suas propriedades bioquímicas específicas habilitam-no a causar a consciência e outros fenômenos mentais (SEARLE, 1990, p. 26)

 O Prêmio Loebner é oferecido anualmente para os criadores dos programas mais bem sucedidos em imitar seres humanos. No entanto, o prêmio máximo nunca foi conquistado como até o momento nenhum programa foi capaz de convencer adequadamente aos juízes em se tratar de uma pessoa (AISB, 2014). Isto significa dizer que não ficou demonstrado sequer se é possível por mera computação Searle, trancado em sua sala chinesa, ser convincente em suas respostas. E isso após 14 anos do prazo estipulado pelo próprio Turing para o desenvolvimento de um sistema capaz de passar pelo T2.

Em virtude do excessivo otimismo manifestado por alguns pesquisadores que pretendem uma síntese de psicologia nativista, evolucionismo neo-darwinista e CTM, Jerry Fodor, talvez o mais importante defensor da CTM, reforça que há todos os motivos para se acreditar que a CTM seja parte da verdade sobre a cognição, “mas não me ocorreu que alguém poderia pensar que é uma grande parte da verdade; menos ainda que está perto de ser a história completa sobre como a mente funciona” (FODOR, 2001, p.1). Isto é, a teoria de Turing aplicada às ciências cognitivas não pretende mais que examinar alguns processos cognitivos que, por assim dizer, se estruturam como sentenças.

Em relação aos demais processos cognitivos será, portanto, necessário seguir a orientação de Searle e voltar-se às neurociências em busca de alternativas. Neste sentido, António Damásio oferece, com base em estudos de caso de paciente com lesões cerebrais, uma possível ilustração sobre o funcionamento da razão humana ao perceber que o simples raciocinar não é funcional exceto se amparado pelo corpo. Isto é, ao requerer uma decisão, o cérebro simula as alternativas na mente e experimenta no corpo a sensação que cada alternativa causaria. As emoções vinculam os objetos e situações da experiência à regulação homeostática (como prazer ou dor, por exemplo) e, sob esta ótica, participam indissociavelmente dos processos cognitivos ajudando a estabelecer um cenário no qual evidencia as características mais importantes de cada problema, permitindo ao sujeito hierarquizar e priorizar suas ações. Seguindo esta lógica, a consciência é um fenômeno ligado ao corpo, ou mais especificamente, não se distingue do corpo à medida que a suspensão das percepções sensoriais anularia também a consciência por esta não possuir imagens sobre as quais operar (DAMASIO, 2000).

Sob tal prerrogativa é possível vislumbrar a consciência como emergindo do auto-interesse de organismos permanecerem na existência, bem como supor que se trata de um fenômeno bastante antigo na evolução da vida. Isto é dizer que a intencionalidade deve ter sido selecionada evolutivamente por seu próprio valor – seja na auto preservação, seja na reprodução – e aprimorado a propósitos próprios de cada espécie. Desta perspectiva a consciência humana, por mais complexa que seja, não se situa como exemplar às outras formas de cognição, porém uma adaptação a um nicho ecológico e, talvez, outras formas de cognição ofereçam respostas mais adequadas ao ambiente.

3           Conclusão

A cognição proveniente da AI pode, portanto, ser de uma natureza diversa o suficiente da manifestada por organismos vivos ao ponto de não ser reconhecida como tal. Ademais, enquanto implementado em um sistema físico, as operações computacionais não são desprovidas de semântica, na verdade, as operações lógicas conduzidas são intrinsecamente semânticas posto que lidam com sucessivas alterações do estado do sistema, apesar de serem muito diferente do que pessoas consideram conteúdo semântico. O que pode implicar que a semântica se constrói em níveis hierárquicos de interação, e o que chamamos de compreensão pode não passar de uma propriedade emergente de um sistema sintático em um nível de descrição inferior (KURZWEIL, 2012). Ademais, considerando que a consciência é o resultado do processo de evolução biológica, caberia demonstrar se dentro da lógica de evolução tecnológica uma consciência com traços similares aos humanos seria, de fato, uma característica desejável.

Neste ponto da história a inteligência mecânica ainda está em um nível que pode ser devidamente interpretada e entendida, apesar de já e em muito superar a capacidade de qualquer humano em sua área específica. Isto é, pode-se entender os erros que IBM Watson comete, podemos simpatizar com seus palpites mal sucedidos. Porém à medida que mais e mais computadores deixam de ser programados passo a passo e incorporam algoritmos de aprendizagem pela interação com o mundo, a forma de inteligência que máquinas desenvolvem pode se tornar, talvez, demasiada alienígena para entendermos. Foi exatamente o que em 1949 Turing já imaginara: a existência de um momento em que as máquinas seriam tão complexas que não as entenderíamos mais que entendemos o funcionamento de cérebros hoje. Irving John Good, colega de Turing em Bletchley Park, explicaria, “uma máquina superinteligente é a que acredita que pessoas não são capazes de pensar”(DYSON, 2012, p. 49). O que tornaria, afinal, o T2 um jogo sem propósito.

Há modelos para diversos mecanismos que reproduzem com fidelidade, em um universo virtual, desde a previsão do dobramento de proteínas, como o projeto Folding@home da Universidade de Stanford (STANFORD UNIVERSITY, 2013), ao funcionamento de partes inteiras do sistema nervoso, como o utilizado no implante coclear (WATTS, 1992). Neste mesmo ideal encaminha-se o Blue Brain Project, com a expectativa de simular o neocórtex mamífero, a partir do nível de neurônios individuais, com o objetivo de realizar a engenharia reversa do cérebro (MADRIGAL, 2013). Pois, segundo Harnad (2011) a única maneira de se entender como o cérebro funciona é construir modelos que funcionem como imaginamos que cérebros funcionam, para testar se este modelo faz, de fato, o que cérebros são capazes de fazer. E isto soa, novamente, como um T2.

 Ora, se a cognição está amparada no corpo e este pode ser inteiramente reduzido a uma descrição digital através do código genético, é de se supor que existe um programa hipotético capaz de reproduzir com aproximação, tanto quanto necessário, o processo que dá origem ao organismo. Talvez Searle simplesmente não tenha podido prever em seu experimento mental se o sistema possui intencionalidade e não esteja, em respeito disto, mais certo que Ada Lovelace estava sobre a capacidade de máquinas surpreenderem seus programadores. E, neste sentido, à medida que se amplie o poder computacional, talvez o nível de complexidade supere o da simulação de simples vermes (MADRIGAL, 2013), compatível com atuais supercomputadores, em direção à construção de simulações realistas do universo, com seres conscientes para habitá-lo (BOSTROM, 2003).

 

referências

AHN, L. VON; BLUM, M.; HOPPER, N.; LANGFORD, J. CAPTCHA: Using hard AI problems for security. Advances in Cryptology, 2003. Disponível em: <http://link.springer.com/chapter/10.1007/3-540-39200-9_18>. Acesso em: 29/10/2014.

AISB. Loebner Prize 2014. Disponível em: <http://www.aisb.org.uk/events/loebner-prize#Introduction>. Acesso em: 29/10/2014.

BOSTROM, N. Are We Living in a Computer Simulation? The Philosophical Quarterly, v. 53, n. 211, p. 243–255, 2003. Disponível em: <http://pq.oxfordjournals.org/cgi/doi/10.1111/1467-9213.00309>. Acesso em: 29/10/2014.

CHURCHLAND, P. M.; CHURCHLAND, P. S. Could a machine think? Scientific American, v. 262, n. 1, p. 32–7, 1990. Disponível em: <http://www.ncbi.nlm.nih.gov/pubmed/2294584>. Acesso em: 29/10/2014.

COPE, D. Music of David Cope and Experiments in Musical Intelligence. Disponível em: <http://artsites.ucsc.edu/faculty/cope/mp3page.htm>. Acesso em: 29/10/2014.

CRICK, F.; KOCH, C. A framework for consciousness. Nature neuroscience, v. 6, n. 2, p. 119–26, 2003. Disponível em: <http://www.ncbi.nlm.nih.gov/pubmed/12555104>. Acesso em: 29/10/2014.

DAMASIO, A. R. O Mistério da Consciência: do corpo e das emoções ao conhecimento de si. São Paulo: Companhia das Letras, 2000.

DESCARTES, R. As Paixões da Alma. Os Pensadores. p.213–94, 1979. São Paulo: Abril Cultural.

DESCARTES, R. Meditações sobre Filosofia Primeira: nas quais de demonstram a existência de Deus e a distinção da alma e do corpo. Campinas: Editora UNICAMP, 2004.

DYSON, G. Turing’s Cathedral: The origins of the digital universe. New York: Pantheon Books, 2012.

FEFERMAN, S. Gödel, Nagel, Minds and Machines. In: S. Franchi; F. Bianchini (Eds.); The Search for a Theory of Cognition: Early Mechanisms and New Ideas. p.265–280, 2011. Amsterdã: Editions Rodopi.

FODOR, J. A. The mind doesn’t work that way: The scope and limits of computational psychology. Cambridge: MIT Press, 2001.

GLEICK, J. Chaos: Making a New Science. Revised ed ed. New York, N.Y: Penguin Books, 2008.

GÖDEL, K. On formally undecidable propositions of Principia Mathematica and related systems I. (M. Hirzel, Tran.), p. 1–22, 2000. Boulder.

GRIM, P. Philosophy of Mind: Brains, Consciousness, and Thinking Machines. Chantilly, VA: The Great Courses, TTC, 2008. Disponível em: <http://www.thegreatcourses.com/courses/philosophy-of-mind-brains-consciousness-and-thinking-machines.html>. Acesso em: 25/10/2014.

HARNAD, S. Minds,Brains and Turing. Consciousness Online, v. 3, n. February 18th - March 4th, 2011. Online: University of Southmapton. Disponível em: <http://eprints.soton.ac.uk/id/eprint/272242>. Acesso em: 29/10/2014.

ISAACSON, W. The Innovators: How a Group of hackers, geniuses and geeks created the digital revolution. London: Simon & Schuster UK, 2014.

KIRK, R. Zombies and Consciousness. Oxford: Oxford University Press, 2005.

KURZWEIL, R. How to create a mind: The secret of human thought revealed. New York: Penguin Books, 2012.

LARDINOIS, F. New Google Research Project Can Auto-Caption Complex Images. Disponível em: <http://techcrunch.com/2014/11/18/new-google-research-project-can-auto-caption-complex-images/>. Acesso em: 21/11/2014.

LEVY, S. Hackers: Heroes of the Computer Revolution. New York: Delta Books Dell Publishing, 1984.

MADRIGAL, A. C. Is This Virtual Worm the First Sign of the Singularity? Disponível em: <http://www.theatlantic.com/technology/archive/2013/05/is-this-virtual-worm-the-first-sign-of-the-singularity/275715/>. Acesso em: 21/10/2014.

MENABREA, L. F.; LOVELACE, A. A. Sketch of The Analytical Engine invented by Charle Babbage. Disponível em: <https://www.fourmilab.ch/babbage/sketch.html>. Acesso em: 29/10/2014..

MEUER, H.; STROHMAIER, E.; DONGARRA, J.; SIMON, H.; MEUER, M. Top 500 Supercomputer Sites. Disponível em: <http://top500.org/lists/2014/06/>. Acesso em: 28/10/2014.

MICROSOFT. ASIRRA: Animal Species Image Recognition for Restricting Access. Disponível em: <http://research.microsoft.com/en-us/um/redmond/projects/asirra/>. Acesso em: 21/11/2014.

MINSKY, M. Why people think computers can’t. AI Magazine, p. 3–15, 1982. Cambridge: American Association for Artificial Intelligence. Disponível em: <http://www.aaai.org/ojs/index.php/aimagazine/article/viewArticle/376>. Acesso em: 27/10/2014.

NAGEL, E.; NEWMAN, J. R. Gödel’s Proof, revised edition. New York: New York University Press, 2001.

PENROSE, R. La Mente Nueva del Emperador:En torno de la cibernética, la mente y las leys de la fisica. 1st ed. Cidade do México: Fondo de Cultura Económica, 1996.

PETZOLD, C. The Annotated Turing: A Guided Tour Through Alan Turing’s Historic Paper on Computability and the Turing Machine. Indianapolis: John Wiley & Sons, 2008.

PINKER, S. The Blank Slate, the Noble Savage, and the Ghost in the Machine: The Tanner Lectures on Human Values. , 1999. Salt Lake City: University of Utah. Disponível em: <http://tannerlectures.utah.edu/_documents/a-to-z/p/pinker00.pdf>. .

PLATO; GRUBE, G. M. A.; REEVE, C. D. C. Plato: Republic. 1992.

SEARLE, J. Minds, Brains and Programs, 1980. Disponível em: <http://cogprints.org/7150/>. Acesso em: 29/10/2014..

SEARLE, J. Is the brain’s mind a computer program? Scientific American, v. 262, n. 1, p. 26–31, 1990. [s.l.]: Nature America. Disponível em: <http://sils.shoin.ac.jp/~gunji/AI/CR/Is_The_Brains_Mind_A_Computer_Program.pdf>. Acesso em: 6/8/2014.

SEARLE, J. R. The Philosophy of  Mind. Springfield: Teaching Company, 1997.

STANFORD UNIVERSITY. Folding at Home. Disponível em: <https://folding.stanford.edu/>. Acesso em: 21/11/2014.

TOOLE, B. A. Ada, the Enchantress of Numbers: Poetical Science. Sausalito: Critical Connection, 2010.

TURING, A. M. On computable numbers, with an application to the Entscheidungsproblem. Proceedings of the London Mathematical Society, v. 42, n. 2, p. 230–265, 1936. Oxford: Oxford University Press. Disponível em: <http://plms.oxfordjournals.org/cgi/reprint/s2-42/1/230>. 21/11/2014.

TURING, A. M. Computing machinery and intelligence. In: A. R. Anderson (Ed.); Minds and Machines: contemporary perspectives in Philosophy series. p.4–30, 1964. Englewood Cliffs: Prentice-Hall Inc.

WATTS, L. Cochlear mechanics: Analysis and analog VLSI. October 1992. Disponível em: <http://www.lloydwatts.com/thesis.pdf>. Acesso em: 29/9/2014.

WOOD, G. Edison’s Eve: A Magical History of the Quest for Mechanical Life. First Edit ed. New York: Anchor, 2003.

WOOD, G. Café Curio: Inventing Robots. Online: Camden Arts Centre, 2012. Disponível em: <http://camdenartscentre.org/whats-on/view/eve-bl-10/>. Acesso em 21/11/2014.

 

apêndice: Acrônimos Utilizados

T2: Teste de Turing como descrito por Turing no artigo de 1950.

T3: Teste de Turing ampliado, descrito por Harnad (2011), que inclui a reprodução realista dos atributos físicos de um ser humano além das capacidades intelectuais, também chamado de Teste de Turing Robótico.

IAArtificial Inteligence, Inteligência Artificial.

CTM: Computational Theory of Mind, Teoria Computacional da Mente.

CAPTCHA: Completely Automated Public Turing test to tell Computers and Humans Apart, Teste de Turing público totalmente automatizado para distinguir computadores de humanos.

 

 



[1] Não se atribui a filósofo algum a defesa do solipsismo, mesmo porque tal defesa implicaria uma contradição performática

[2] Problemas decidíveis são aqueles que podem ser respondidos com um “sim” ou um“não”.

[3] Vaucanson (1709-1782) adquiriu imenso prestígio através da construção de máquinas que imitavam animais e pessoas, sendo duas de suas obras mais memoráveis, um pato, movido por corda, que era capaz de andar, comer e defecar, supostamente digerindo o alimento e um flautista, movido por vapor, capaz de imitar realisticamente um ser humano tocando o instrumento. (WOOD, 2003).

[4] Este design levaria um século para ser redescoberto:o trabalho de Babbage caiu em esquecimento e muitos dos computadores que marcaram o século XX, como o Zuze Z3, Mark I e o ENIAC, não possuíam algumas das implementações, como saltos condicionais, que Babbage já havia previsto.

[5] Cabe ressaltar que no texto de Menabrea, ao qual as Notas se referem, já especificava claramente que “a máquina não é um ser pensante, mas um simples autômato que age de acordo com as leis a ele impostas”.

[6] Turing cita a Máquina Analítica a título de comparação, ressaltando que apesar de mais lenta, meramente mecânica e movida à vapor, ela seria totalmente compatível com as operações de um computador contemporâneo; isto é, ela possui turing-completude.

[7] A composição Sonata Movement foi descrita por um ouvinte, sem saber se tratar de uma composição mecânica, como “delicada (...) quase doída”. E prossegue, “provocou um sentimento de compaixão (...) imaginei algo vivo movendo-se com cuidado, com algum machucado, mas sem um pesar ou desespero, algo levemente triste, mas sem afetação”.

[8] Pois a própria idéia criação do CAPTCHA teve o intuito original de resolver um problema prático da AI, a saber, descobrir meios eficientes para o reconhecimento automatizado de padrões (AHN et al., 2003).

[9] Como exemplo, A Microsoft, em 2007, iniciou um projeto que pretendia substituir os CAPTCHAS tradicionais pela correta distinção entre fotografias de cães e gatos (MICROSOFT, 2014), baseando-se na habilidade humana de reconhecer as espécies animais e classificar seus indivíduos com facilidade. Recentemente a Google (LARDINOIS, 2014) apresentou um serviço automatizado para descrever fotografias, e uma de suas das demonstrações foi justamente o correto reconhecimento, não apenas a foto de cães e gatos (e elefantes), mas o contexto no qual os animais apareciam.

[10] Isto é, um artefato robótico capaz de superar o Vale da estranheza (uncanny valley) ), isto é, o notável estranhamento repulsivo causado por algo que se assemelha muito ao humano, mas falhando em sê-lo de fato.