Sala chinesa - Chinese room

O argumento da sala chinesa sustenta que um computador digital executando um programa não pode ter uma " mente ", " compreensão " ou " consciência ", independentemente de quão inteligente ou parecido com o humano o programa possa fazer o computador se comportar. O argumento foi apresentado pelo filósofo John Searle em seu artigo, "Minds, Brains, and Programs", publicado em Behavioral and Brain Sciences em 1980. Argumentos semelhantes foram apresentados por Gottfried Leibniz (1714), Anatoly Dneprov (1961), Lawrence Davis ( 1974) e Ned Block (1978). A versão de Searle foi amplamente discutida nos anos seguintes. A peça central do argumento de Searle é um experimento mental conhecido como quarto chinês .

O argumento é dirigido contra as posições filosóficas do funcionalismo e do computacionalismo , que sustentam que a mente pode ser vista como um sistema de processamento de informações operando em símbolos formais e que a simulação de um dado estado mental é suficiente para sua presença. Especificamente, o argumento pretende refutar uma posição que Searle chama de IA forte : "O computador apropriadamente programado com as entradas e saídas corretas teria, portanto, uma mente exatamente no mesmo sentido que os seres humanos têm mente."

Embora tenha sido originalmente apresentado em reação às declarações de pesquisadores de inteligência artificial (IA), não é um argumento contra os objetivos da pesquisa de IA convencional, porque não mostra um limite na quantidade de comportamento "inteligente" que uma máquina pode exibir. . O argumento se aplica apenas a computadores digitais executando programas e não se aplica a máquinas em geral.

Experiência de pensamento do quarto chinês

O experimento mental de Searle começa com esta premissa hipotética: suponha que a pesquisa de inteligência artificial tenha conseguido construir um computador que se comporta como se entendesse chinês . Ele pega os caracteres chineses como entrada e, seguindo as instruções de um programa de computador , produz outros caracteres chineses, que apresenta como saída. Suponha, diz Searle, que este computador execute sua tarefa de forma tão convincente que passe confortavelmente no teste de Turing : ele convence um falante humano de chinês de que o próprio programa fala chinês ao vivo. Para todas as perguntas que a pessoa faz, ele dá respostas apropriadas, de modo que qualquer falante de chinês ficaria convencido de que está falando com outro ser humano que fala chinês.

A pergunta que Searle quer responder é a seguinte: a máquina "entende" literalmente chinês? Ou está apenas simulando a habilidade de entender chinês? Searle chama a primeira posição de " IA forte " e a última de "IA fraca".

Searle então supõe que está em uma sala fechada e tem um livro com uma versão em inglês do programa de computador, junto com papéis, lápis, borrachas e arquivos suficientes. Searle podia receber caracteres chineses por meio de uma fenda na porta, processá-los de acordo com as instruções do programa e produzir caracteres chineses como saída. Se o computador tivesse passado no teste de Turing dessa forma, segue-se, diz Searle, que ele também o faria, simplesmente executando o programa manualmente.

Searle afirma que não há diferença essencial entre os papéis do computador e dele próprio no experimento. Cada um simplesmente segue um programa, passo a passo, produzindo um comportamento que é então interpretado pelo usuário como uma demonstração de conversação inteligente. No entanto, o próprio Searle não seria capaz de entender a conversa. ("Não falo uma palavra em chinês", ele ressalta.) Portanto, ele argumenta, conclui-se que o computador também não seria capaz de entender a conversa.

Searle argumenta que, sem "compreensão" (ou " intencionalidade "), não podemos descrever o que a máquina está fazendo como "pensamento" e, uma vez que ela não pensa, não tem uma "mente" em nada parecido com o sentido normal de a palavra. Portanto, ele conclui que a hipótese da "IA forte" é falsa.

História

Gottfried Leibniz apresentou um argumento semelhante em 1714 contra o mecanismo (a posição de que a mente é uma máquina e nada mais). Leibniz usou o experimento mental de expandir o cérebro até que ele ficasse do tamanho de um moinho . Leibniz achou difícil imaginar que uma "mente" capaz de "percepção" pudesse ser construída usando apenas processos mecânicos.

O ciberneticista russo Anatoly Dneprov apresentou um argumento essencialmente idêntico em 1961, na forma do conto " O Jogo ". Nele, um estádio de pessoas funciona como interruptores e células de memória implementando um programa para traduzir uma frase do português, língua que nenhum deles conhece. O jogo foi organizado por um "Professor Zarubin" para responder à pergunta "As máquinas matemáticas pensam?" Falando por meio de Zarubin, Dneprov escreve "a única maneira de provar que as máquinas podem pensar é se transformar em uma máquina e examinar seu processo de pensamento". e ele conclui, como Searle faz: "Provamos que mesmo a simulação mais perfeita do pensamento da máquina não é o processo de pensamento em si."

Em 1974, Lawrence Davis imaginou duplicar o cérebro usando linhas telefônicas e escritórios operados por pessoas, e em 1978 Ned Block imaginou toda a população da China envolvida em tal simulação cerebral. Este experimento mental é chamado de cérebro da China , também "Nação Chinesa" ou "Ginásio Chinês".

John Searle em dezembro de 2005

A versão de Searle apareceu em seu artigo de 1980 "Minds, Brains, and Programs", publicado na Behavioral and Brain Sciences . Eventualmente, tornou-se o "artigo alvo mais influente" da revista, gerando um enorme número de comentários e respostas nas décadas seguintes, e Searle continuou a defender e refinar o argumento em muitos jornais, artigos populares e livros. David Cole escreve que "o argumento da Sala Chinesa foi provavelmente o argumento filosófico mais amplamente discutido na ciência cognitiva nos últimos 25 anos".

A maior parte da discussão consiste em tentativas de refutá-lo. "A esmagadora maioria", observa o editor do BBS Stevan Harnad , "ainda pensa que o argumento da sala chinesa está completamente errado". O grande volume da literatura que cresceu em torno dele inspirou Pat Hayes a comentar que o campo da ciência cognitiva deveria ser redefinido como "o programa de pesquisa em andamento para mostrar que o argumento da sala chinesa de Searle é falso".

O argumento de Searle se tornou "uma espécie de clássico nas ciências cognitivas", de acordo com Harnad. Varol Akman concorda e descreveu o artigo original como "um exemplo de clareza e pureza filosófica".

Filosofia

Embora o argumento da Sala Chinesa tenha sido originalmente apresentado em reação às declarações dos pesquisadores de inteligência artificial , os filósofos passaram a considerá-lo como uma parte importante da filosofia da mente . É um desafio ao funcionalismo e à teoria computacional da mente , e está relacionado a questões como o problema mente-corpo , o problema de outras mentes , o problema da base de símbolos e o difícil problema da consciência .

IA forte

Searle identificou uma posição filosófica que ele chama de "IA forte":

O computador apropriadamente programado com as entradas e saídas certas teria, portanto, uma mente exatamente no mesmo sentido que os seres humanos têm mente.

A definição depende da distinção entre simular uma mente e realmente ter uma mente. Searle escreve que "de acordo com a IA forte, a simulação correta é realmente uma mente. De acordo com a IA fraca, a simulação correta é um modelo da mente."

A afirmação está implícita em algumas das declarações dos primeiros pesquisadores e analistas de IA. Por exemplo, em 1955, o fundador da IA, Herbert A. Simon, declarou que "agora existem no mundo máquinas que pensam, que aprendem e criam". Simon, junto com Allen Newell e Cliff Shaw , após ter concluído o primeiro programa de "IA", o Logic Theorist , afirmou que eles "resolveram o venerável problema mente-corpo , explicando como um sistema composto de matéria pode ter as propriedades da mente . " John Haugeland escreveu que "a IA deseja apenas o artigo genuíno: máquinas com mentes , no sentido pleno e literal. Isso não é ficção científica, mas ciência real, baseada em uma concepção teórica tão profunda quanto ousada: a saber, nós somos, na raiz, os próprios computadores . "

Searle também atribui as seguintes afirmações aos defensores da IA ​​forte:

  • Os sistemas de IA podem ser usados ​​para explicar a mente;
  • O estudo do cérebro é irrelevante para o estudo da mente; e
  • O teste de Turing é adequado para estabelecer a existência de estados mentais.

IA forte como computacionalismo ou funcionalismo

Em apresentações mais recentes do argumento da sala chinesa, Searle identificou "IA forte" como " funcionalismo do computador " (um termo que ele atribui a Daniel Dennett ). Funcionalismo é uma posição na filosofia da mente moderna que sustenta que podemos definir fenômenos mentais (como crenças, desejos e percepções), descrevendo suas funções em relação uns aos outros e ao mundo exterior. Como um programa de computador pode representar com precisão as relações funcionais como relações entre símbolos, um computador pode ter fenômenos mentais se executar o programa certo, de acordo com o funcionalismo.

Stevan Harnad argumenta que as representações de Searle de IA forte podem ser reformuladas como "princípios reconhecíveis do computacionalismo , uma posição (ao contrário de" IA forte ") que é realmente sustentada por muitos pensadores e, portanto, vale a pena refutar." O computacionalismo é a posição na filosofia da mente que argumenta que a mente pode ser descrita com precisão como um sistema de processamento de informações .

Cada um dos seguintes, de acordo com Harnad, é um "princípio" do computacionalismo:

  • Os estados mentais são estados computacionais (é por isso que os computadores podem ter estados mentais e ajudar a explicar a mente);
  • Os estados computacionais são independentes da implementação - em outras palavras, é o software que determina o estado computacional, não o hardware (razão pela qual o cérebro, sendo hardware, é irrelevante); e essa
  • Como a implementação não é importante, os únicos dados empíricos que importam são como o sistema funciona; portanto, o teste de Turing é definitivo.

IA forte contra naturalismo biológico

Searle mantém uma posição filosófica que ele chama de " naturalismo biológico ": que a consciência e a compreensão requerem maquinários biológicos específicos que são encontrados nos cérebros. Ele escreve "cérebros causam mentes" e que "fenômenos mentais humanos reais [são] dependentes das propriedades físico-químicas reais dos cérebros humanos reais". Searle argumenta que esse mecanismo (conhecido pela neurociência como " correlatos neurais da consciência ") deve ter alguns poderes causais que permitem a experiência humana da consciência. A crença de Searle na existência desses poderes foi criticada.

Searle não discorda da noção de que as máquinas podem ter consciência e compreensão, porque, como ele escreve, “somos precisamente essas máquinas”. Searle afirma que o cérebro é, na verdade, uma máquina, mas dá origem à consciência e à compreensão por meio de máquinas que não são computacionais. Se a neurociência for capaz de isolar o processo mecânico que dá origem à consciência, então Searle garante que pode ser possível criar máquinas que tenham consciência e compreensão. No entanto, sem o maquinário específico necessário, Searle não acredita que a consciência possa ocorrer.

O naturalismo biológico implica que não se pode determinar se a experiência da consciência está ocorrendo apenas examinando como um sistema funciona, porque o mecanismo específico do cérebro é essencial. Assim, o naturalismo biológico se opõe diretamente ao behaviorismo e funcionalismo (incluindo "funcionalismo de computador" ou "IA forte"). O naturalismo biológico é semelhante à teoria da identidade (a posição de que os estados mentais são "idênticos" ou "compostos de" eventos neurológicos); no entanto, Searle tem objeções técnicas específicas à teoria da identidade. O naturalismo biológico de Searle e a IA forte são ambos opostos ao dualismo cartesiano , a ideia clássica de que o cérebro e a mente são feitos de "substâncias" diferentes. De fato, Searle acusa a IA forte de dualismo, escrevendo que "IA forte só faz sentido dada a suposição dualística de que, no que diz respeito à mente, o cérebro não importa".

Consciência

A apresentação original de Searle enfatizou "compreensão" - isto é, estados mentais com o que os filósofos chamam de " intencionalidade " - e não abordou diretamente outras idéias intimamente relacionadas, como "consciência". No entanto, em apresentações mais recentes, Searle incluiu a consciência como o verdadeiro alvo da discussão.

Os modelos computacionais de consciência não são suficientes por si próprios para a consciência. O modelo computacional para a consciência está para a consciência da mesma forma que o modelo computacional de qualquer coisa está para o domínio que está sendo modelado. Ninguém supõe que o modelo computacional das tempestades de Londres nos deixará todos molhados. Mas eles cometem o erro de supor que o modelo computacional de consciência é de alguma forma consciente. É o mesmo erro em ambos os casos.

-  John R. Searle, Consciousness and Language, p. 16

David Chalmers escreve "é bastante claro que a consciência está na raiz da questão" da sala chinesa.

Colin McGinn argumenta que a sala chinesa fornece fortes evidências de que o difícil problema da consciência é fundamentalmente insolúvel. O argumento, para ficar claro, não é se uma máquina pode ser consciente, mas se ela (ou qualquer outra coisa) pode ser mostrada como consciente. É claro que qualquer outro método de sondar o ocupante de uma sala chinesa tem, em princípio, as mesmas dificuldades que trocar perguntas e respostas em chinês. Simplesmente não é possível adivinhar se uma agência consciente ou alguma simulação inteligente habita a sala.

Searle argumenta que isso só é verdade para um observador fora da sala. O objetivo do experimento mental é colocar alguém dentro da sala, onde pode observar diretamente as operações da consciência. Searle afirma que, de sua posição privilegiada dentro da sala, não há nada que possa imaginar que possa dar origem à consciência, a não ser ele mesmo, e claramente ele não tem uma mente que fale chinês.

Ética aplicada

Sentado no centro de informações de combate a bordo de um navio de guerra - proposto como um análogo da vida real à Sala Chinesa

Patrick Hew usou o argumento da Sala Chinesa para deduzir as exigências dos sistemas de comando e controle militares , se pretendem preservar a agência moral de um comandante . Ele traçou uma analogia entre um comandante em seu centro de comando e a pessoa na Sala Chinesa, e a analisou sob uma leitura das noções de Aristóteles de "compulsório" e "ignorância" . A informação poderia ser "convertida para baixo" de significado em símbolos e manipulada simbolicamente, mas a agência moral poderia ser minada se houvesse uma "conversão ascendente" inadequada em significado. Hew citou exemplos do incidente do USS Vincennes .

Ciência da Computação

O argumento do quarto chinês é principalmente um argumento da filosofia da mente , e tanto os principais cientistas da computação quanto os pesquisadores de inteligência artificial o consideram irrelevante para seus campos. No entanto, vários conceitos desenvolvidos por cientistas da computação são essenciais para a compreensão do argumento, incluindo processamento de símbolos , máquinas de Turing , Turing completude , e o teste de Turing .

Pesquisa de IA forte contra IA

Os argumentos de Searle geralmente não são considerados um problema para a pesquisa de IA. Stuart Russell e Peter Norvig observam que a maioria dos pesquisadores de IA "não se preocupa com a hipótese de IA forte - contanto que o programa funcione, eles não se importam se você a chama de simulação de inteligência ou inteligência real". A missão primária da pesquisa em inteligência artificial é apenas criar sistemas úteis que agem de forma inteligente, e não importa se a inteligência é "meramente" uma simulação.

Searle não discorda que a pesquisa de IA pode criar máquinas que são capazes de um comportamento altamente inteligente. O argumento do quarto chinês deixa aberta a possibilidade de que uma máquina digital possa ser construída que atue de forma mais inteligente do que uma pessoa, mas não tenha uma mente ou intencionalidade da mesma forma que os cérebros .

A "IA forte" de Searle não deve ser confundida com a " IA forte ", conforme definido por Ray Kurzweil e outros futuristas, que usam o termo para descrever a inteligência da máquina que rivaliza ou excede a inteligência humana. Kurzweil está preocupado principalmente com a quantidade de inteligência exibida pela máquina, enquanto o argumento de Searle não estabelece limites para isso. Searle argumenta que mesmo uma máquina superinteligente não teria necessariamente uma mente e consciência.

Teste de Turing

A "interpretação padrão" do Teste de Turing, em que o jogador C, o interrogador, recebe a tarefa de tentar determinar qual jogador - A ou B - é um computador e qual é um humano. O interrogador está limitado a usar as respostas a perguntas escritas para fazer a determinação. Imagem adaptada de Saygin, et al. 2000.

A sala chinesa implementa uma versão do teste de Turing . Alan Turing introduziu o teste em 1950 para ajudar a responder à pergunta "as máquinas podem pensar?" Na versão padrão, um juiz humano se envolve em uma conversa em linguagem natural com um humano e uma máquina projetada para gerar desempenho indistinguível daquele de um ser humano. Todos os participantes estão separados uns dos outros. Se o juiz não puder distinguir com segurança a máquina do ser humano, diz-se que a máquina passou no teste.

Turing então considerou cada objeção possível à proposta "as máquinas podem pensar" e descobriu que há respostas simples e óbvias se a pergunta for desmistificada dessa maneira. Ele não pretendia, no entanto, que o teste medisse a presença de "consciência" ou "compreensão". Ele não acreditava que isso fosse relevante para as questões que estava abordando. Ele escreveu:

Não quero dar a impressão de que não há mistério sobre a consciência. Há, por exemplo, algo de paradoxo relacionado a qualquer tentativa de localizá-lo. Mas não creio que esses mistérios precisem necessariamente ser resolvidos antes de podermos responder à pergunta com a qual nos preocupamos neste artigo.

Para Searle, como um filósofo que investiga a natureza da mente e da consciência , esses são os mistérios relevantes. A sala chinesa foi projetada para mostrar que o teste de Turing é insuficiente para detectar a presença da consciência, mesmo que a sala possa se comportar ou funcionar como uma mente consciente faria.

Processamento de símbolo

A sala chinesa (e todos os computadores modernos) manipulam objetos físicos para realizar cálculos e fazer simulações. Os pesquisadores de IA, Allen Newell e Herbert A. Simon, chamaram esse tipo de máquina de sistema de símbolos físicos . Também é equivalente aos sistemas formais usados ​​no campo da lógica matemática .

Searle enfatiza o fato de que esse tipo de manipulação de símbolos é sintática (tomando emprestado um termo do estudo da gramática ). O computador manipula os símbolos usando uma forma de regras de sintaxe , sem nenhum conhecimento da semântica do símbolo (ou seja, seu significado ).

Newell e Simon conjeturaram que um sistema de símbolo físico (como um computador digital) tinha todo o mecanismo necessário para "ação inteligente geral" ou, como é conhecido hoje, inteligência geral artificial . Eles enquadraram isso como uma posição filosófica, a hipótese do sistema de símbolos físicos : "Um sistema de símbolos físicos tem os meios necessários e suficientes para uma ação inteligente geral." O argumento do quarto chinês não refuta isso, porque é enquadrado em termos de "ação inteligente", ou seja, o comportamento externo da máquina, ao invés da presença ou ausência de compreensão, consciência e mente.

Quarto chinês e completude de Turing

A sala chinesa tem um design análogo ao de um computador moderno. Possui uma arquitetura de Von Neumann , que consiste em um programa (o livro de instruções), alguma memória (os papéis e arquivos), uma CPU que segue as instruções (o homem) e um meio de escrever símbolos na memória (o lápis e borracha). Uma máquina com este projeto é conhecida na ciência da computação teórica como " Turing completa ", porque tem o maquinário necessário para realizar qualquer cálculo que uma máquina de Turing possa fazer e, portanto, é capaz de fazer uma simulação passo a passo de qualquer outra máquina digital, com memória e tempo suficientes. Alan Turing escreve: “todos os computadores digitais são, em certo sentido, equivalentes”. A tese amplamente aceita de Church-Turing sustenta que qualquer função computável por um procedimento efetivo é computável por uma máquina de Turing.

A completude de Turing da sala chinesa implica que ela pode fazer tudo o que qualquer outro computador digital pode fazer (embora muito, muito mais lentamente). Portanto, se a sala chinesa não contém ou não pode conter uma mente que fale chinês, nenhum outro computador digital poderá conter uma mente. Algumas respostas a Searle começam argumentando que a sala, conforme descrito, não pode ter uma mente que fale chinês. Argumentos dessa forma, de acordo com Stevan Harnad , "não são uma refutação (mas sim uma afirmação)" do argumento da sala chinesa, porque esses argumentos na verdade implicam que nenhum computador digital pode ter uma mente.

Existem alguns críticos, como Hanoch Ben-Yami, que argumentam que a sala chinesa não pode simular todas as habilidades de um computador digital, como ser capaz de determinar a hora atual.

Argumento completo

Searle produziu uma versão mais formal do argumento do qual a Sala Chinesa faz parte. Ele apresentou a primeira versão em 1984. A versão dada abaixo é de 1990. A única parte do argumento que deveria ser polêmica é A3 e é esse ponto que o experimento mental do quarto chinês pretende provar.

Ele começa com três axiomas:

(A1) "Os programas são formais ( sintáticos )."
Um programa usa sintaxe para manipular símbolos e não presta atenção à semântica dos símbolos. Ele sabe onde colocar os símbolos e como movê-los, mas não sabe o que eles representam ou o que significam. Para o programa, os símbolos são apenas objetos físicos como quaisquer outros.
(A2) "As mentes têm conteúdos mentais ( semântica )."
Ao contrário dos símbolos usados ​​por um programa, nossos pensamentos têm significado: eles representam coisas e sabemos o que eles representam.
(A3) "A sintaxe por si só não é constitutiva nem suficiente para a semântica."
Isso é o que o experimento mental da sala chinesa pretende provar: a sala chinesa tem sintaxe (porque há um homem lá dentro movendo símbolos). A sala chinesa não tem semântica (porque, segundo Searle, não há ninguém ou nada na sala que entenda o que significam os símbolos). Portanto, ter sintaxe não é suficiente para gerar semântica.

Searle postula que isso leva diretamente a esta conclusão:

(C1) Os programas não são constitutivos nem suficientes para as mentes.
Isso deve seguir sem controvérsia dos três primeiros: Os programas não têm semântica. Os programas têm apenas sintaxe e a sintaxe é insuficiente para a semântica. Cada mente tem semântica. Portanto, nenhum programa é uma mente.

Essa parte do argumento pretende mostrar que a inteligência artificial nunca pode produzir uma máquina com uma mente escrevendo programas que manipulam símbolos. O restante do argumento aborda uma questão diferente. O cérebro humano está executando um programa? Em outras palavras, a teoria computacional da mente está correta? Ele começa com um axioma que se destina a expressar o consenso científico moderno básico sobre cérebros e mentes:

(A4) Cérebros geram mentes.

Searle afirma que podemos derivar "imediatamente" e "trivialmente" que:

(C2) Qualquer outro sistema capaz de causar mentes teria que ter poderes causais (pelo menos) equivalentes aos dos cérebros.
Os cérebros devem ter algo que faça com que uma mente exista. A ciência ainda não determinou exatamente o que é, mas deve existir, porque as mentes existem. Searle chama isso de "poderes causais". "Poderes causais" é tudo o que o cérebro usa para criar uma mente. Se qualquer outra coisa pode causar a existência de uma mente, ela deve ter "poderes causais equivalentes". "Poderes causais equivalentes" é tudo o que outra pessoa que poderia ser usado para fazer uma mente.

E disso ele tira as outras conclusões:

(C3) Qualquer artefato que produzisse fenômenos mentais, qualquer cérebro artificial, teria que ser capaz de duplicar os poderes causais específicos dos cérebros, e não poderia fazer isso apenas executando um programa formal.
Isso segue de C1 e C2: Uma vez que nenhum programa pode produzir uma mente, e "poderes causais equivalentes" produzem mentes, segue-se que os programas não têm "poderes causais equivalentes".
(C4) A maneira como os cérebros humanos realmente produzem fenômenos mentais não pode ser apenas em virtude da execução de um programa de computador.
Visto que os programas não têm "poderes causais equivalentes", "poderes causais equivalentes" produzem mentes e os cérebros produzem mentes, segue-se que os cérebros não usam programas para produzir mentes.

Respostas

As respostas ao argumento de Searle podem ser classificadas de acordo com o que afirmam mostrar:

  • Aqueles que identificam quem fala chinês
  • Aqueles que demonstram como símbolos sem sentido podem se tornar significativos
  • Aqueles que sugerem que a sala chinesa deve ser redesenhada de alguma forma
  • Aqueles que afirmam que o argumento de Searle é enganoso
  • Aqueles que argumentam que o argumento faz suposições falsas sobre a experiência consciente subjetiva e, portanto, nada prova

Alguns dos argumentos (simulação de robô e cérebro, por exemplo) se enquadram em várias categorias.

Sistemas e respostas da mente virtual: encontrando a mente

Essas respostas tentam responder à pergunta: já que o homem na sala não fala chinês, onde está a "mente" que fala ? Essas respostas abordam as principais questões ontológicas de mente x corpo e simulação x realidade. Todas as respostas que identificam a mente na sala são versões da "resposta do sistema".

Resposta do sistema

A versão básica argumenta que é o "sistema completo" que entende o chinês. Enquanto o homem entende apenas inglês, quando ele é combinado com o programa, rascunho, lápis e arquivos, eles formam um sistema que pode entender chinês. “Aqui, o entendimento não está sendo atribuído ao mero indivíduo, mas sim a todo este sistema do qual ele faz parte”, explica Searle. O fato de o homem não entender chinês é irrelevante, porque é apenas o sistema como um todo que importa.

Searle observa que (nesta versão simples da resposta) o "sistema" nada mais é do que uma coleção de objetos físicos comuns; concede o poder de compreensão e consciência "à conjunção daquela pessoa e pedaços de papel" sem fazer nenhum esforço para explicar como essa pilha de objetos se tornou um ser pensante e consciente. Searle argumenta que nenhuma pessoa razoável deve ficar satisfeita com a resposta, a menos que esteja "sob o domínio de uma ideologia"; Para que essa resposta seja remotamente plausível, deve-se supor que a consciência pode ser o produto de um "sistema" de processamento de informações e não requer nada que se pareça com a biologia real do cérebro.

Searle então responde simplificando esta lista de objetos físicos: ele pergunta o que acontece se o homem memorizar as regras e acompanhar tudo em sua cabeça? Então, todo o sistema consiste em apenas um objeto: o próprio homem. Searle argumenta que, se o homem não entende chinês, então o sistema também não entende chinês, porque agora "o sistema" e "o homem" descrevem exatamente o mesmo objeto.

Os críticos da resposta de Searle argumentam que o programa permitiu ao homem ter duas mentes na mesma cabeça. Se assumirmos que uma "mente" é uma forma de processamento de informação, então a teoria da computação pode ser responsável por duas computações ocorrendo ao mesmo tempo, a saber (1) a computação para programabilidade universal (que é a função instanciada pela pessoa e tomada de notas materiais independentemente de qualquer conteúdo de programa particular) e (2) o cálculo da máquina de Turing que é descrita pelo programa (que é instanciada por tudo, incluindo o programa específico). A teoria da computação, portanto, explica formalmente a possibilidade aberta de que a segunda computação na Sala Chinesa poderia implicar em um entendimento semântico equivalente humano das entradas chinesas. O foco pertence à máquina de Turing do programa, e não à pessoa. No entanto, da perspectiva de Searle, esse argumento é circular. A questão em questão é se a consciência é uma forma de processamento de informações, e essa resposta exige que façamos essa suposição.

Versões mais sofisticadas da resposta dos sistemas tentam identificar mais precisamente o que é "o sistema" e diferem exatamente na forma como o descrevem. De acordo com essas respostas, a "mente que fala chinês" poderia ser coisas como: o "software", um "programa", um "programa em execução", uma simulação dos "correlatos neurais da consciência", o "sistema funcional" , uma "mente simulada", uma " propriedade emergente " ou "uma mente virtual " ( a versão de Marvin Minsky da resposta do sistema, descrita abaixo).

Resposta da mente virtual

O termo " virtual " é usado na ciência da computação para descrever um objeto que parece existir "em" um computador (ou rede de computadores) apenas porque o software faz com que pareça existir. Os objetos "dentro" dos computadores (incluindo arquivos, pastas e assim por diante) são todos "virtuais", exceto os componentes eletrônicos do computador. Da mesma forma, Minsky argumenta, um computador pode conter uma "mente" que é virtual no mesmo sentido que máquinas virtuais , comunidades virtuais e realidade virtual .
Para esclarecer a distinção entre a resposta do sistema simples fornecida acima e a resposta da mente virtual, David Cole observa que duas simulações podem estar sendo executadas em um sistema ao mesmo tempo: uma falando chinês e outra falando coreano. Embora haja apenas um sistema, pode haver várias "mentes virtuais", portanto, o "sistema" não pode ser a "mente".

Searle responde que tal mente é, na melhor das hipóteses, uma simulação , e escreve: "Ninguém supõe que as simulações de computador de um incêndio com cinco alarmes queimarão a vizinhança ou que uma simulação de computador de uma tempestade nos deixará encharcados." Nicholas Fearn responde que, para algumas coisas, a simulação é tão boa quanto a coisa real. “Quando chamamos a função de calculadora de bolso em um computador desktop, a imagem de uma calculadora de bolso aparece na tela. Não reclamamos que 'não é realmente uma calculadora', porque os atributos físicos do dispositivo não matéria." A questão é: a mente humana é, como a calculadora de bolso, essencialmente composta de informações? Ou a mente é como a tempestade, algo diferente de um computador, e não pode ser totalmente percebida por uma simulação de computador? Por décadas, essa questão da simulação levou pesquisadores e filósofos de IA a considerar se o termo " inteligência sintética " é mais apropriado do que a descrição comum de tais inteligências como "artificiais".

Essas respostas fornecem uma explicação de quem exatamente entende chinês. Se há algo além do homem na sala que pode entender chinês, Searle não pode argumentar que (1) o homem não entende chinês, portanto (2) nada na sala entende chinês. Isso, de acordo com aqueles que fazem esta resposta, mostra que o argumento de Searle falha em provar que "IA forte" é falsa.

Essas respostas, por si só, não fornecem nenhuma evidência de que a IA forte é verdadeira , no entanto. Eles não mostram que o sistema (ou a mente virtual) entende chinês, a não ser a premissa hipotética de que ele passa no Teste de Turing . Searle argumenta que, se considerarmos a IA forte remotamente plausível, a Sala Chinesa é um exemplo que requer explicação, e é difícil ou impossível explicar como a consciência pode "emergir" da sala ou como o sistema teria consciência. Como Searle escreve, "a resposta do sistema simplesmente implora a questão, insistindo que o sistema deve entender chinês" e, portanto, está se esquivando da questão ou é irremediavelmente circular.

Respostas do robô e da semântica: encontrando o significado

No que diz respeito à pessoa na sala, os símbolos são apenas "rabiscos" sem sentido. Mas se a sala chinesa realmente "entende" o que está dizendo, então os símbolos devem obter seu significado de algum lugar. Esses argumentos tentam conectar os símbolos às coisas que eles simbolizam. Essas respostas abordam as preocupações de Searle sobre intencionalidade , base de símbolos e sintaxe vs. semântica .

Resposta do robô

Suponha que, em vez de uma sala, o programa fosse colocado em um robô que pudesse vagar e interagir com seu ambiente. Isso permitiria uma " conexão causal " entre os símbolos e as coisas que eles representam. Hans Moravec comenta: "Se pudéssemos enxertar um robô em um programa de raciocínio, não precisaríamos mais de uma pessoa para fornecer o significado: ele viria do mundo físico."
A resposta de Searle é supor que, sem o conhecimento do indivíduo na sala chinesa, algumas das entradas vieram diretamente de uma câmera montada em um robô, e algumas das saídas foram usadas para manipular os braços e as pernas do robô. No entanto, a pessoa na sala ainda está apenas seguindo as regras e não sabe o que os símbolos significam. Searle escreve "ele não vê o que entra nos olhos do robô." (Veja a sala de Maria para um experimento mental semelhante.)

Significado derivado

Alguns respondem que a sala, como Searle a descreve, está conectada ao mundo: por meio dos falantes de chinês que está "conversando" com os programadores que projetaram a base de conhecimento em seu arquivo. Os símbolos que Searle manipula já são significativos , eles simplesmente não são significativos para ele .
Searle diz que os símbolos têm apenas um significado "derivado", como o significado das palavras nos livros. O significado dos símbolos depende da compreensão consciente dos falantes de chinês e dos programadores fora da sala. A sala, como um livro, não tem compreensão própria.

Conhecimento de senso comum / resposta contextualista

Alguns argumentaram que os significados dos símbolos viriam de um vasto "pano de fundo" de conhecimento de senso comum codificado no programa e nos arquivos. Isso forneceria um " contexto " que daria aos símbolos seu significado.
Searle concorda que esse pano de fundo existe, mas não concorda que possa ser embutido em programas. Hubert Dreyfus também criticou a ideia de que o "fundo" pode ser representado simbolicamente.

A cada uma dessas sugestões, a resposta de Searle é a mesma: não importa quanto conhecimento esteja escrito no programa e não importa como o programa esteja conectado ao mundo, ele ainda está na sala manipulando símbolos de acordo com regras. Suas ações são sintáticas e isso nunca pode explicar a ele o que os símbolos representam. Searle escreve "a sintaxe é insuficiente para a semântica."

Porém, para quem aceita que as ações de Searle simulam uma mente, separada da sua, a questão importante não é o que os símbolos significam para Searle , o que importa é o que significam para a mente virtual. Enquanto Searle está preso na sala, a mente virtual não está: ela está conectada ao mundo exterior por meio dos falantes de chinês com quem fala, por meio dos programadores que lhe deram conhecimento do mundo e por meio de câmeras e outros sensores que os roboticistas podem fornecer.

Simulação cerebral e respostas conexionistas: redesenhando a sala

Esses argumentos são todas as versões da resposta do sistema que identificam um tipo particular de sistema como sendo importante; eles identificam alguma tecnologia especial que criaria compreensão consciente em uma máquina. (As respostas de "robô" e "conhecimento de senso comum" acima também especificam um certo tipo de sistema como sendo importante.)

Resposta do simulador de cérebro

Suponha que o programa simule em detalhes a ação de cada neurônio no cérebro de um falante de chinês. Isso fortalece a intuição de que não haveria diferença significativa entre a operação do programa e a operação de um cérebro humano vivo.
Searle responde que tal simulação não reproduz as características importantes do cérebro - seus estados causal e intencional. Searle é inflexível quanto ao fato de que "os fenômenos mentais humanos [são] dependentes das propriedades físico-químicas reais dos cérebros humanos reais". Além disso, ele argumenta:

[Eu] imaginei que, em vez de um homem monolíngue em uma sala embaralhando símbolos, temos o homem operando um elaborado conjunto de canos de água com válvulas conectando-os. Quando o homem recebe os símbolos chineses, ele consulta no programa, escrito em inglês, quais válvulas deve ligar e desligar. Cada conexão de água corresponde a uma sinapse no cérebro chinês, e todo o sistema é manipulado para que, depois de fazer todos os disparos corretos, ou seja, depois de abrir todas as torneiras corretas, as respostas chinesas surgem na saída final da série de tubos. Agora, onde está o entendimento neste sistema? Ele recebe o chinês como entrada, simula a estrutura formal das sinapses do cérebro chinês e fornece o chinês como saída. Mas o homem certamente não entende chinês, e nem os canos de água, e se ficarmos tentados a adotar o que considero a visão absurda de que de alguma forma a conjunção homem e canos de água entende, lembre-se que em princípio o homem pode internalizar a estrutura formal dos canos de água e faz todos os "disparos de neurônios" em sua imaginação.

Duas variações na resposta do simulador de cérebro são o cérebro da China e o cenário de substituição do cérebro.
Cérebro chinês
E se pedirmos a cada cidadão da China que simule um neurônio, usando o sistema telefônico para simular as conexões entre axônios e dendritos ? Nesta versão, parece óbvio que nenhum indivíduo teria qualquer compreensão do que o cérebro pode estar dizendo. Também é óbvio que esse sistema seria funcionalmente equivalente a um cérebro; portanto, se a consciência for uma função, esse sistema seria consciente.
Cenário de substituição do cérebro
Nisso, somos solicitados a imaginar que os engenheiros inventaram um minúsculo computador que simula a ação de um neurônio individual. O que aconteceria se substituíssemos um neurônio por vez? Substituir um claramente não faria nada para mudar a percepção consciente. Substituir todos eles criaria um computador digital que simula um cérebro. Se Searle estiver certo, a percepção consciente deve desaparecer durante o procedimento (gradualmente ou de uma vez). Os críticos de Searle argumentam que não haveria nenhum ponto durante o procedimento em que ele pudesse alegar que a percepção consciente termina e a simulação irracional começa. Searle prevê que, ao passar pela prótese cerebral, "você descobre, para seu espanto total, que está realmente perdendo o controle de seu comportamento externo. Você descobre, por exemplo, que quando os médicos testam sua visão, você os ouve dizer 'Nós estão segurando um objeto vermelho na sua frente; por favor, diga-nos o que você vê. ' Você quer gritar 'Não consigo ver nada. Estou ficando totalmente cego'. Mas você ouve sua voz dizendo de uma forma que está completamente fora do seu controle: 'Vejo um objeto vermelho na minha frente'. [...] [Y] nossa experiência consciente lentamente se reduz a nada, enquanto seu comportamento externamente observável permanece o mesmo. " (Veja Nave de Teseu para um experimento mental semelhante.)

Respostas de conexionistas

Intimamente relacionado à resposta do simulador de cérebro, este afirma que uma arquitetura conexionista maciçamente paralela seria capaz de compreender.

Resposta combinada

Essa resposta combina a resposta do robô com a resposta da simulação do cérebro, argumentando que uma simulação do cérebro conectada ao mundo por meio de um corpo de robô poderia ter uma mente.

Muitas mansões / espere até o próximo ano responder

Uma tecnologia melhor no futuro permitirá que os computadores entendam. Searle concorda que isso é possível, mas considera esse ponto irrelevante. Searle concorda que pode haver projetos que fariam com que uma máquina tivesse compreensão consciente.

Esses argumentos (e as respostas do robô ou do conhecimento de senso comum) identificam alguma tecnologia especial que ajudaria a criar uma compreensão consciente em uma máquina. Eles podem ser interpretados de duas maneiras: ou eles afirmam (1) esta tecnologia é necessária para a consciência, a sala chinesa não implementa ou não pode implementar esta tecnologia e, portanto, a sala chinesa não pode passar no teste de Turing ou (mesmo se passou) não teria compreensão consciente. Ou eles podem estar alegando que (2) é mais fácil ver que a sala chinesa tem uma mente se visualizarmos essa tecnologia como sendo usada para criá-la.

No primeiro caso, onde recursos como um corpo de robô ou uma arquitetura conexionista são necessários, Searle afirma que a IA forte (como ele a entende) foi abandonada. A sala chinesa possui todos os elementos de uma máquina completa de Turing e, portanto, é capaz de simular qualquer computação digital. Se a sala de Searle não passar no teste de Turing, então não há outra tecnologia digital que possa passar no teste de Turing. Se a sala de Searle poderia passar no teste de Turing, mas ainda não tem uma mente, então o teste de Turing não é suficiente para determinar se o quarto tem uma "mente". De qualquer forma, nega uma ou outra das posições que Searle pensa como "IA forte", comprovando seu argumento.

Os argumentos do cérebro, em particular, negam a IA forte se presumem que não há maneira mais simples de descrever a mente do que criar um programa tão misterioso quanto o cérebro. Ele escreve "Achei que toda a ideia da IA ​​forte era que não precisamos saber como o cérebro funciona para saber como a mente funciona." Se a computação não fornece uma explicação da mente humana, então a IA forte falhou, de acordo com Searle.

Outros críticos sustentam que a sala como Searle a descreveu tem, de fato, uma mente, no entanto, eles argumentam que é difícil ver - a descrição de Searle é correta, mas enganosa. Ao redesenhar a sala de forma mais realista, eles esperam tornar isso mais óbvio. Nesse caso, esses argumentos estão sendo usados ​​como apelos à intuição (consulte a próxima seção).

Na verdade, a sala pode ser redesenhada com a mesma facilidade para enfraquecer nossas intuições. O argumento Blockhead de Ned Block sugere que o programa poderia, em teoria, ser reescrito em uma tabela de regras de pesquisa simples da forma "se o usuário escrever S , responda com P e vá para X". Pelo menos em princípio, qualquer programa pode ser reescrito (ou " refatorado ") nesta forma, até mesmo uma simulação do cérebro. No cenário de cabeça-dura, todo o estado mental está oculto na letra X, que representa um endereço de memória - um número associado à próxima regra. É difícil visualizar que um instante da experiência consciente de alguém pode ser capturado em um único grande número, mas é exatamente isso que a "IA forte" afirma. Por outro lado, tal tabela de pesquisa seria ridiculamente grande (ao ponto de ser fisicamente impossível) e os estados poderiam, portanto, ser extremamente específicos.

Searle argumenta que, independentemente do modo como o programa é escrito ou como a máquina está conectada ao mundo, a mente está sendo simulada por uma simples máquina (ou máquinas) digital passo a passo. Essas máquinas são sempre iguais ao homem na sala: elas não entendem nada e não falam chinês. Eles estão apenas manipulando símbolos sem saber o que eles significam. Searle escreve: "Posso ter qualquer programa formal que você goste, mas ainda não entendo nada."

Velocidade e complexidade: apela à intuição

Os argumentos a seguir (e as interpretações intuitivas dos argumentos acima) não explicam diretamente como uma mente falante de chinês poderia existir no quarto de Searle, ou como os símbolos que ele manipula poderiam se tornar significativos. Porém, ao levantar dúvidas sobre as intuições de Searle, eles apóiam outras posições, como o sistema e as respostas do robô. Esses argumentos, se aceitos, impedem Searle de afirmar que sua conclusão é óbvia, ao minar as intuições que sua certeza exige.

Vários críticos acreditam que o argumento de Searle se baseia inteiramente em intuições. Ned Block escreve "O argumento de Searle depende para sua força em intuições de que certas entidades não pensam." Daniel Dennett descreve o argumento do quarto chinês como uma " bomba de intuição " enganosa e escreve: "O experimento mental de Searle depende, ilicitamente, de você imaginar um caso muito simples, um caso irrelevante, e tirar a conclusão 'óbvia' dele."

Alguns dos argumentos acima também funcionam como apelos à intuição, especialmente aqueles que pretendem tornar mais plausível que a sala chinesa contenha uma mente, que pode incluir o robô, o conhecimento do senso comum, a simulação do cérebro e as respostas conexionistas. Várias das respostas acima também abordam a questão específica da complexidade. A resposta conexionista enfatiza que um sistema funcional de inteligência artificial teria de ser tão complexo e interconectado quanto o cérebro humano. A resposta de conhecimento de senso comum enfatiza que qualquer programa que passou em um teste de Turing teria que ser "um sistema extraordinariamente flexível, sofisticado e de várias camadas, repleto de 'conhecimento do mundo' e meta-conhecimento e meta-metaconhecimento", como explica Daniel Dennett .

Respostas de velocidade e complexidade

A velocidade com que o cérebro humano processa as informações é (segundo algumas estimativas) de 100 bilhões de operações por segundo. Vários críticos apontam que o homem na sala provavelmente levaria milhões de anos para responder a uma pergunta simples e exigiria "arquivos" de proporções astronômicas. Isso coloca em dúvida a clareza da intuição de Searle.

Uma versão especialmente vívida da resposta de velocidade e complexidade vem de Paul e Patricia Churchland . Eles propõem este experimento de pensamento análogo:

Sala luminosa de Churchland

"Considere uma sala escura contendo um homem segurando uma barra magnética ou um objeto carregado. Se o homem bombeia o ímã para cima e para baixo, então, de acordo com a teoria de luminância artificial (AL) de Maxwell , ele iniciará um círculo de propagação de ondas eletromagnéticas e assim será luminoso. Mas como todos nós que brincamos com ímãs ou bolas carregadas bem sabemos, suas forças (ou quaisquer outras forças), mesmo quando colocadas em movimento, não produzem luminância alguma. É inconcebível que você pode constituir luminância real apenas movendo forças ao redor! " O problema é que ele teria que mover o ímã para cima e para baixo algo como 450 trilhões de vezes por segundo para ver alguma coisa.

Stevan Harnad critica a velocidade e a complexidade das respostas quando elas vão além de nossas intuições. Ele escreve "Alguns cultuaram a velocidade e o tempo, sustentando que, quando acelerado para a velocidade certa, o computacional pode fazer uma transição de fase para o mental. Deve ficar claro que não é um contra-argumento, mas apenas uma especulação ad hoc ( assim como a visão de que tudo é apenas uma questão de aumentar o grau certo de 'complexidade'.) "

Searle argumenta que seus críticos também se baseiam em intuições, mas as intuições de seus oponentes não têm base empírica. Ele escreve que, para considerar a "resposta do sistema" como remotamente plausível, uma pessoa deve estar "sob o domínio de uma ideologia". A resposta do sistema só faz sentido (para Searle) se assumirmos que qualquer "sistema" pode ter consciência, apenas em virtude de ser um sistema com o comportamento correto e as partes funcionais. Essa suposição, ele argumenta, não é sustentável, dada nossa experiência de consciência.

Outras mentes e zumbis: falta de sentido

Várias respostas argumentam que o argumento de Searle é irrelevante porque suas suposições sobre a mente e a consciência são errôneas. Searle acredita que os seres humanos experimentam diretamente sua consciência, intencionalidade e a natureza da mente todos os dias, e que essa experiência de consciência não está aberta a questionamentos. Ele escreve que devemos “pressupor a realidade e a cognoscibilidade do mental”. Essas respostas questionam se Searle tem justificativa para usar sua própria experiência de consciência para determinar que isso é mais do que processamento mecânico de símbolos. Em particular, a resposta de outras mentes argumenta que não podemos usar nossa experiência de consciência para responder a perguntas sobre outras mentes (mesmo a mente de um computador), e a resposta de epifenômenos argumenta que a consciência de Searle não "existe" no sentido que Searle pensa ele faz.

Outras mentes respondem
Essa resposta indica que o argumento de Searle é uma versão do problema de outras mentes , aplicada às máquinas. Não há como determinar se a experiência subjetiva de outras pessoas é igual à nossa. Podemos apenas estudar seu comportamento (ou seja, aplicando-lhes nosso próprio teste de Turing ). Os críticos de Searle argumentam que ele considera a sala chinesa um padrão mais elevado do que consideraríamos uma pessoa comum.

Nils Nilsson escreve "Se um programa se comportasse como se estivesse se multiplicando, a maioria de nós diria que ele está, na verdade, se multiplicando. Pelo que sei, Searle pode estar se comportando apenas como se estivesse pensando profundamente sobre esses assuntos. Mas, mesmo que eu discorde dele, sua simulação é muito boa, então estou disposto a creditar a ele o pensamento real. "

Alan Turing antecipou a linha de argumento de Searle (que ele chamou de "O Argumento da Consciência") em 1950 e faz as outras mentes responderem. Ele observou que as pessoas nunca consideram o problema das outras mentes quando lidam umas com as outras. Ele escreve que "em vez de discutir continuamente sobre esse ponto, é comum ter a convenção polida de que todos pensam". O teste de Turing simplesmente estende essa "convenção educada" às máquinas. Ele não pretende resolver o problema de outras mentes (para máquinas ou pessoas) e ele acha que não precisamos.

Resposta de materialismo eliminativo
Vários filósofos argumentam que a consciência, como Searle a descreve, não existe. Essa posição é às vezes chamada de materialismo eliminativo : a visão de que a consciência é uma propriedade que pode ser reduzida a uma descrição estritamente mecânica e que nossa experiência da consciência é, como Daniel Dennett a descreve, uma " ilusão do usuário ". Outras propriedades mentais, como a intencionalidade original (também chamada de “significado”, “conteúdo” e “caráter semântico”), também são comumente consideradas como algo especial sobre crenças e outras atitudes proposicionais. O materialismo eliminativo afirma que não existem atitudes proposicionais, como crenças e desejos, entre outros estados mentais intencionais que têm conteúdo. Se o materialismo eliminativo é a explicação científica correta da cognição humana, então a suposição do argumento da sala chinesa de que "mentes têm conteúdos mentais ( semântica )" deve ser rejeitada.

Stuart Russell e Peter Norvig argumentam que, se aceitarmos a descrição de Searle da intencionalidade, da consciência e da mente, somos forçados a aceitar que a consciência é epifenomenal : que "não projeta sombra", que é indetectável no mundo exterior. Eles argumentam que Searle deve estar enganado sobre a "cognoscibilidade do mental" e em sua crença de que existem "propriedades causais" em nossos neurônios que dão origem à mente. Eles apontam que, pela própria descrição de Searle, essas propriedades causais não podem ser detectadas por ninguém fora da mente, caso contrário, a Sala Chinesa não poderia passar no teste de Turing - as pessoas de fora seriam capazes de dizer que não havia um chinês alto-falante na sala, detectando suas propriedades causais. Visto que eles não podem detectar propriedades causais, eles não podem detectar a existência do mental. Em suma, as "propriedades causais" de Searle e a própria consciência são indetectáveis, e tudo o que não pode ser detectado não existe ou não importa.

Daniel Dennett fornece essa extensão para o argumento dos "epifenômenos".

A resposta de Dennett da seleção natural
Suponha que, por alguma mutação, nasça um ser humano que não tenha as "propriedades causais" de Searle, mas, mesmo assim, aja exatamente como um ser humano. (Este tipo de animal é chamado de " zumbi " em experimentos mentais na filosofia da mente ). Este novo animal se reproduziria como qualquer outro ser humano e, eventualmente, haveria mais desses zumbis. A seleção natural favoreceria os zumbis, já que seu design é (poderíamos supor) um pouco mais simples. Eventualmente, os humanos morreriam. Portanto, se Searle estiver certo, é mais provável que os seres humanos (como os vemos hoje) sejam na verdade "zumbis", que mesmo assim insistem que estão conscientes. É impossível saber se somos todos zumbis ou não. Mesmo se fôssemos todos zumbis, ainda assim acreditaríamos que não somos.

Searle discorda dessa análise e argumenta que "o estudo da mente começa com fatos como os humanos têm crenças, enquanto termostatos, telefones e máquinas de somar não ... o que queríamos saber é o que distingue a mente dos termostatos e fígados. " Ele toma como óbvio que podemos detectar a presença de consciência e descarta essas respostas como errôneas.

Resposta da espada flamejante do laser de Newton
Mike Alder argumenta que todo o argumento é frívolo, porque não é verificacionista : não apenas a distinção entre simular uma mente e ter uma mente é mal definida, mas também é irrelevante porque nenhum experimento foi, ou mesmo pode ser, proposto para distinguir entre os dois.

Resposta em inglês

Margaret Boden forneceu essa resposta em seu artigo "Escaping from the Chinese Room". Nele, ela sugere que, mesmo que a pessoa na sala não entenda os chineses, isso não significa que não haja compreensão na sala. A pessoa na sala pelo menos entende o livro de regras usado para fornecer respostas de saída.

Na cultura popular

O argumento do quarto chinês é um conceito central nos romances de Peter Watts Blindsight e (em menor grau) Echopraxia . É também um tema central no videogame Virtue's Last Reward e está relacionado à narrativa do jogo. Na quarta temporada do drama policial americano Numb3rs, há uma breve referência ao quarto chinês.

The Chinese Room também é o nome de um estúdio britânico independente de desenvolvimento de videogames, mais conhecido por trabalhar em jogos experimentais em primeira pessoa, como Everybody's Gone to the Rapture ou Dear Esther .

No videogame de 2016 O Teste de Turing , o experimento mental da Sala Chinesa é explicado ao jogador por uma IA.

Veja também

Notas

Citações

Referências

Os números de página acima referem-se a uma impressão PDF padrão do artigo.
Os números de página acima referem-se a uma impressão PDF padrão do artigo.
Os números de página acima referem-se a uma impressão PDF padrão do artigo.
Os números de página acima referem-se a uma impressão PDF padrão do artigo.
Os números de página acima referem-se a uma impressão PDF padrão do artigo. Veja também o rascunho original de Searle .
Os números de página acima referem-se a uma impressão PDF padrão do artigo.
Os números das páginas acima e o conteúdo do diagrama referem-se à impressão em PDF do artigo no Lyceum .

Leitura adicional