Poderão as máquinas ter uma mente e pensar como os seres humanos típicos? Inês Simões Godinho Escola Portuguesa de Luanda 11º. ano de Filosofia Turma D Neste ensaio discute-se o problema de saber se as máquinas poderão ter uma mente e pensar como os seres humanos típicos. Vou defender neste ensaio que é muitíssimo improvável que as máquinas sejam equipadas ou criadas de Inteligência Artificial (IA) Forte. Em primeiro lugar, irei definir o conceito de IA: A IA é a área da informática cujo objetivo é a aplicação do conhecimento dos processos cognitivos humanos aos sistemas informáticos que reproduzem aqueles processos. Distinguem – Distinguem – se se duas perspetivas sobre a IA: 1) A IA Forte (defendida por Turing), isto é, um computador apropriadamente programado, que passe o teste de Turing, terá necessariamente uma mente. 2) A IA Fraca (defendida por Searle), isto é, um computador apropriadamente programado pode simular processos mentais e ajudar-nos a compreender a mente, mas isso não significa que tenha uma mente, mesmo que passe o teste de Turing.
Para tentar determinar se uma máquina é realmente inteligente foi criado o teste de Turing, segundo o qual um sistema informático a ser testado e um humano típico são entrevistados separadamente, através de uma serie de perguntas e respostas por um interrogador humano. Se na maior parte dos casos, o interrogador não conseguir identificar corretamente a maquina, ela terá passado o teste de Turing. No entanto em resposta ao teste de Turing, Searle criou o argumento do quarto chinês em que defende que uma máquina que passasse o teste estaria apenas a manipular os símbolos, sem lhes atribuir qualquer significado. A máquina estaria apenas a exibir propriedades sintáticas (relacionadas com a forma logica) mas não propriedades semânticas, i.e., relacionadas com o significado dos símbolos que estão a ser utilizados. Ora, um sistema
adequadamente programado que manipule apenas a sintaxe e não a semântica, não reúne todas as condições necessárias para possuir uma mente tal como a de um ser humano típico. Logo, se uma máquina passar no teste de Turing poderemos dizer que tem IA fraca, isto é, pode simular processos mentais de seres humanos típicos mas não possui uma mente. Uma objeção comum ao argumento do quarto chinês é a Objeção do Sistema, que defende que apesar de a pessoa, isoladamente, não entender chinês, o sistema no seu todo, entende. Searle na defesa do seu argumento do quarto chines supõe que o João memoriza todos os elementos do sistema. Apesar de conhecer todas as regras, continua a não saber porque as aplica, ou seja, continua a não perceber chinês e consequentemente o sistema também não, pois agora os sistema é apenas mais uma parte do João. Outra objeção comum ao argumento do quarto chinês é a Objeção do Robot. Esta objeção supõe que um computador foi colocado dentro de um robot. Ele irá interagir com o mundo (caminhar, comer, …). Segundo, os críticos, nada mais poderemos exigir em termos de compreensão senão o correto relacionamento das palavras e das frases com o mundo exterior. Mais uma vez, Searle irá contra-argumentar a objeção do robot dizendo que apesar da interação com o mundo exterior por parte do robot, este não tem noção do porque que deve reagir daquele modo. O computador (ou quarto chines) é que o faz mover. Ora, visto que o QC/computador é que o faz reagir assim, o computador não possui estados intencionais, como crenças e desejos direcionados a algo, por isso, não poderá ser dotado de uma IA Forte. Para criar sistemas de IA Forte é necessário, em rigor, replicar o funcionamento do cérebro humano numa máquina, não apenas as funções racionais mas também as funções não exclusivamente racionais como os sentimentos, impulsos ou instintos básicos. Na minha opinião, só poderemos considerar uma máquina dotada de uma mente similar ao do humano típico quando esta for capaz de escrever sonetos ou compor concertos a partir das suas próprias emoções, ideias e sentimentos. Ora, considero isto muito improvável pois até hoje não se conhece forma alguma de converter este lado não exclusivamente racional em algoritmos de qualquer tipo.
Concluindo, é altamente improvável que as máquinas possuam uma mente e possam pensar como os humanos típicos, visto que estas apenas manipulam símbolos, não sabendo os seus significados e não são dotadas de funções não exclusivamente racionais.