Superinteligência: caminhos, perigos, estratégias -Superintelligence: Paths, Dangers, Strategies

Superinteligência:
caminhos, perigos, estratégias
Superintelligence.jpg
Primeira edição
Autor Nick Bostrom
País Reino Unido
Língua inglês
Sujeito Inteligência artificial
Gênero Filosofia , ciência popular
Editor imprensa da Universidade de Oxford
Data de publicação
3 de julho de 2014 (Reino Unido)
1 de setembro de 2014 (EUA)
Tipo de mídia Impressão, e-book, audiolivro
Páginas 352 pp.
ISBN 978-0199678112
Precedido por Riscos catastróficos globais 

Superinteligência: Caminhos, Perigos, Estratégias é um livro de 2014 do filósofo sueco Nick Bostrom, da Universidade de Oxford . Argumenta que, se os cérebros das máquinas ultrapassarem os cérebros humanos em inteligência geral, essa nova superinteligência poderá substituir os humanos como a forma de vida dominante na Terra. Máquinas suficientemente inteligentes podem melhorar suas próprias capacidades mais rapidamente do que os cientistas da computação humanos, e o resultado pode ser uma catástrofe existencial para os humanos.

O livro de Bostrom foi traduzido para vários idiomas.

Sinopse

Não se sabe se a inteligência artificial de nível humano chegará em questão de anos, no final deste século, ou não até séculos futuros. Independentemente da escala de tempo inicial, uma vez que a inteligência da máquina de nível humano é desenvolvida, um sistema "superinteligente" que "excede em muito o desempenho cognitivo dos humanos em virtualmente todos os domínios de interesse" seria, provavelmente, surpreendentemente rápido. Essa superinteligência seria muito difícil de controlar ou restringir.

Embora os objetivos finais das superinteligências possam variar muito, uma superinteligência funcional irá gerar espontaneamente, como subobjetivos naturais, " objetivos instrumentais ", como autopreservação e integridade do conteúdo do objetivo, aprimoramento cognitivo e aquisição de recursos. Por exemplo, um agente cujo único objetivo final é resolver a hipótese de Riemann (uma famosa conjectura matemática não resolvida ) poderia criar e agir sobre um subobjetivo de transformar toda a Terra em alguma forma de computronium (material hipotético otimizado para computação) para ajudar em o cálculo. A superinteligência resistiria proativamente a quaisquer tentativas externas de desligá-la ou de outra forma impedir sua conclusão de subobjetivo. Para evitar tal catástrofe existencial , é necessário resolver com sucesso o " problema de controle da IA " para a primeira superinteligência. A solução pode envolver incutir na superinteligência metas compatíveis com a sobrevivência e o bem-estar humanos. Resolver o problema de controle é surpreendentemente difícil porque a maioria das metas, quando traduzida em código implementável por máquina, leva a consequências imprevistas e indesejáveis.

A coruja na capa do livro alude a uma analogia que Bostrom chama de "Fábula Inacabada dos Pardais". Um grupo de pardais decide encontrar um filhote de coruja e criá-lo como seu servo. Eles imaginam ansiosamente "como a vida seria fácil" se eles tivessem uma coruja para ajudar a construir seus ninhos, para defender os pardais e libertá-los para uma vida de lazer. Os pardais iniciam a difícil busca por um ovo de coruja; apenas "Scronkfinkle", um "pardal caolho de temperamento rabugento", sugere pensar na complicada questão de como domar a coruja antes de trazê-la "para o nosso meio". Os outros pardais protestam; a busca por um ovo de coruja já será bastante difícil por si só: "Por que não pegar a coruja primeiro e resolver os detalhes depois?" Bostrom afirma que “não se sabe como termina a história”, mas dedica seu livro a Scronkfinkle.

Recepção

O livro ficou em 17º lugar na lista do The New York Times dos livros de ciência mais vendidos em agosto de 2014. No mesmo mês, o magnata Elon Musk ganhou as manchetes ao concordar com o livro que a inteligência artificial é potencialmente mais perigosa do que as armas nucleares. O trabalho de Bostrom sobre a superinteligência também influenciou a preocupação de Bill Gates com os riscos existenciais que a humanidade enfrenta no próximo século. Em uma entrevista de março de 2015 pelo CEO do Baidu , Robin Li , Gates disse que "recomendaria fortemente" a Superinteligência . Segundo o New Yorker , os filósofos Peter Singer e Derek Parfit "receberam-no como uma obra de importância".

O editor de ciência do Financial Times descobriu que a escrita de Bostrom "às vezes se desvia para uma linguagem opaca que trai sua formação como professor de filosofia", mas demonstra de forma convincente que o risco da superinteligência é grande o suficiente para que a sociedade comece a pensar agora em maneiras de dotar a inteligência da máquina no futuro com valores positivos. Uma revisão no The Guardian apontou que "mesmo as máquinas mais sofisticadas criadas até agora são inteligentes apenas em um sentido limitado" e que "as expectativas de que a IA em breve superaria a inteligência humana foram frustradas pela primeira vez na década de 1960", mas encontra terreno comum com Bostrom ao aconselhar que "seria imprudente descartar totalmente a possibilidade".

Alguns dos colegas de Bostrom sugerem que a guerra nuclear representa uma ameaça maior para a humanidade do que a superinteligência, assim como a perspectiva futura da nanotecnologia e biotecnologia como arma . The Economist afirmou que "Bostrom é forçado a gastar grande parte do livro discutindo especulações baseadas em conjecturas plausíveis ... mas o livro é valioso. As implicações de introduzir uma segunda espécie inteligente na Terra são de longo alcance o suficiente para merecer uma reflexão profunda, mesmo que a perspectiva de realmente fazer isso pareça remota. " Ronald Bailey escreveu no libertário Reason que Bostrom defende fortemente que resolver o problema de controle de IA é a "tarefa essencial de nossa era". De acordo com Tom Chivers do The Daily Telegraph , o livro é difícil de ler, mas mesmo assim gratificante. Um revisor do Journal of Experimental & Theoretical Artificial Intelligence rompeu com outros afirmando que o livro "o estilo de escrita é claro" e elogiou o livro por evitar "jargão excessivamente técnico". Um revisor de Filosofia considerou a Superinteligência "mais realista" do que The Singularity Is Near, de Ray Kurzweil .

Veja também

Referências