Ética da inteligência artificial - Ethics of artificial intelligence

A ética da inteligência artificial é o ramo da ética da tecnologia específica para sistemas com inteligência artificial . Às vezes, é dividido em uma preocupação com o comportamento moral dos humanos ao projetar, fazer, usar e tratar sistemas artificialmente inteligentes e uma preocupação com o comportamento das máquinas, na ética das máquinas . Também inclui a questão de uma possível singularidade devido à IA superinteligente .

Abordagens dos campos da ética

Ética do Robô

O termo "ética do robô" (às vezes "roboética") se refere à moralidade de como os humanos projetam, constroem, usam e tratam os robôs. A ética dos robôs se cruza com a ética da IA. Os robôs são máquinas físicas, enquanto a IA pode ser apenas software. Nem todos os robôs funcionam por meio de sistemas de IA e nem todos os sistemas de IA são robôs. A ética dos robôs considera como as máquinas podem ser usadas para prejudicar ou beneficiar os humanos, seu impacto na autonomia individual e seus efeitos na justiça social.

Ética da máquina

A ética da máquina (ou moralidade da máquina) é o campo de pesquisa relacionado ao projeto de Agentes Morais Artificiais (AMAs), robôs ou computadores com inteligência artificial que se comportam moralmente ou como se fossem morais. Para explicar a natureza desses agentes, foi sugerido considerar certas idéias filosóficas, como as caracterizações padrão de agência , agência racional , agência moral e agência artificial, que estão relacionadas ao conceito de AMAs.

Isaac Asimov considerou a questão na década de 1950 em seu I, Robot . Por insistência de seu editor John W. Campbell Jr. , ele propôs as Três Leis da Robótica para governar sistemas artificialmente inteligentes. Muito de seu trabalho foi gasto testando os limites de suas três leis para ver onde eles iriam quebrar, ou onde criariam um comportamento paradoxal ou imprevisto. Seu trabalho sugere que nenhum conjunto de leis fixas pode antecipar suficientemente todas as circunstâncias possíveis. Mais recentemente, acadêmicos e muitos governos desafiaram a ideia de que a própria IA pode ser responsabilizada. Um painel convocado pelo Reino Unido em 2010 revisou as leis de Asimov para esclarecer que a IA é de responsabilidade de seus fabricantes ou de seu proprietário / operador.

Em 2009, durante um experimento no Laboratório de Sistemas Inteligentes da Ecole Polytechnique Fédérale de Lausanne, na Suíça , robôs que foram programados para cooperar entre si (na busca de um recurso benéfico e evitando um venenoso) acabaram aprendendo a mentir para cada um outro em uma tentativa de acumular o recurso benéfico.

Alguns especialistas e acadêmicos questionam o uso de robôs para combate militar, especialmente quando esses robôs recebem algum grau de funções autônomas. A Marinha dos Estados Unidos financiou um relatório que indica que, à medida que os robôs militares se tornam mais complexos, deve-se dar mais atenção às implicações de sua capacidade de tomar decisões autônomas. O presidente da Associação para o Avanço da Inteligência Artificial encomendou um estudo para examinar esta questão. Eles apontam para programas como o Dispositivo de Aquisição de Linguagem, que pode emular a interação humana.

Vernor Vinge sugeriu que pode chegar um momento em que alguns computadores sejam mais inteligentes do que os humanos. Ele chama isso de " Singularidade ". Ele sugere que pode ser um tanto ou possivelmente muito perigoso para os humanos. Isso é discutido por uma filosofia chamada Singularitarismo . O Machine Intelligence Research Institute sugeriu a necessidade de construir uma " AI amigável ", o que significa que os avanços que já estão ocorrendo com a AI também devem incluir um esforço para tornar a AI intrinsecamente amigável e humana.

Há uma discussão sobre a criação de testes para ver se uma IA é capaz de tomar decisões éticas . Alan Winfield conclui que o teste de Turing é falho e que o requisito de uma IA para passar no teste é muito baixo. Um teste alternativo proposto é chamado de Teste de Turing Ético, que melhoraria o teste atual ao fazer com que vários juízes decidissem se a decisão da AI é ética ou antiética.

Em 2009, acadêmicos e especialistas técnicos participaram de uma conferência organizada pela Association for the Advancement of Artificial Intelligence para discutir o impacto potencial de robôs e computadores e o impacto da possibilidade hipotética de que eles poderiam se tornar autossuficientes e capazes de tomar suas próprias decisões . Eles discutiram a possibilidade e até que ponto os computadores e robôs podem ser capazes de adquirir qualquer nível de autonomia, e até que ponto eles podem usar essas habilidades para possivelmente representar qualquer ameaça ou perigo. Eles notaram que algumas máquinas adquiriram várias formas de semi-autonomia, incluindo a capacidade de encontrar fontes de energia por conta própria e a capacidade de escolher alvos para atacar com armas de forma independente. Eles também observaram que alguns vírus de computador podem escapar da eliminação e alcançar "inteligência de barata". Eles observaram que a autoconsciência, conforme retratada na ficção científica, é provavelmente improvável, mas que havia outros perigos e armadilhas potenciais.

No entanto, existe uma tecnologia em particular que poderia realmente trazer a possibilidade de robôs com competência moral para a realidade. Em artigo sobre aquisição de valores morais por robôs, Nayef Al-Rodhan cita o caso dos chips neuromórficos , que objetivam processar informações de forma semelhante aos humanos, de forma não linear e com milhões de neurônios artificiais interconectados. Robôs incorporados à tecnologia neuromórfica podem aprender e desenvolver conhecimento de uma forma exclusivamente humana. Inevitavelmente, isso levanta a questão do ambiente no qual tais robôs aprenderiam sobre o mundo e cuja moralidade eles herdariam - ou se eles acabariam desenvolvendo 'fraquezas' humanas também: egoísmo, uma atitude pró-sobrevivência, hesitação etc.

Em Moral Machines: Teaching Robots Right from Wrong , Wendell Wallach e Colin Allen concluem que as tentativas de ensinar robôs o certo do errado provavelmente irão avançar a compreensão da ética humana, motivando os humanos a abordar as lacunas na teoria normativa moderna e fornecendo uma plataforma para investigação experimental. Como um exemplo, apresentou aos eticistas normativos a questão controversa de quais algoritmos de aprendizagem específicos deveriam ser usados ​​em máquinas. Nick Bostrom e Eliezer Yudkowsky defenderam árvores de decisão (como ID3 ) em redes neurais e algoritmos genéticos, alegando que as árvores de decisão obedecem a normas sociais modernas de transparência e previsibilidade (por exemplo, stare decisis ), enquanto Chris Santos-Lang argumentou no contrário direção com base no fato de que as normas de qualquer idade devem ser alteradas e que o fracasso natural em satisfazer totalmente essas normas específicas tem sido essencial para tornar os humanos menos vulneráveis ​​a " hackers " criminosos .

De acordo com um relatório de 2019 do Centro para a Governança de IA da Universidade de Oxford, 82% dos americanos acreditam que robôs e IA devem ser gerenciados com cuidado. As preocupações citadas vão desde como a IA é usada na vigilância e na disseminação de conteúdo falso online (conhecido como deep fakes quando incluem imagens de vídeo adulteradas e áudio gerado com a ajuda da IA) até ataques cibernéticos, violações da privacidade de dados, viés de contratação, veículos autônomos e drones que não requerem um controlador humano.

Princípios éticos da inteligência artificial

Na revisão de 84 diretrizes éticas para AI, 11 agrupamentos de princípios foram encontrados: transparência, justiça e equidade, não maleficência, responsabilidade, privacidade, beneficência, liberdade e autonomia, confiança, sustentabilidade, dignidade, solidariedade.

Luciano Floridi e Josh Cowls criaram uma estrutura ética de princípios de IA definida por quatro princípios de bioética ( beneficência , não maleficência , autonomia e justiça ) e um princípio habilitador de IA adicional - explicabilidade.

Transparência, responsabilidade e código aberto

Bill Hibbard argumenta que, como a IA terá um efeito tão profundo na humanidade, os desenvolvedores de IA são representantes da humanidade futura e, portanto, têm a obrigação ética de ser transparentes em seus esforços. Ben Goertzel e David Hart criaram o OpenCog como uma estrutura de código aberto para o desenvolvimento de IA. OpenAI é uma empresa sem fins lucrativos de pesquisa de IA criada por Elon Musk , Sam Altman e outros para desenvolver IA de código aberto benéfico para a humanidade. Existem vários outros desenvolvimentos de IA de código aberto.

Infelizmente, tornar o código-fonte aberto não o torna compreensível, o que por muitas definições significa que o código de IA não é transparente. O IEEE tem um esforço de padronização na transparência da IA. O esforço do IEEE identifica várias escalas de transparência para diferentes usuários. Além disso, existe a preocupação de que liberar a capacidade total da IA ​​contemporânea para algumas organizações pode ser um mal público, ou seja, causar mais danos do que benefícios. Por exemplo, a Microsoft expressou preocupação em permitir o acesso universal ao seu software de reconhecimento facial, mesmo para aqueles que podem pagar por ele. A Microsoft publicou um blog extraordinário sobre este tópico, pedindo regulamentação governamental para ajudar a determinar a coisa certa a fazer.

Não apenas as empresas, mas muitos outros pesquisadores e defensores dos cidadãos recomendam a regulamentação governamental como um meio de garantir a transparência e, por meio dela, a responsabilidade humana. Essa estratégia tem se mostrado controversa, pois alguns temem que ela diminua o ritmo de inovação. Outros argumentam que a regulamentação leva à estabilidade sistêmica mais capaz de apoiar a inovação no longo prazo. A OCDE , a ONU , a UE e muitos países estão atualmente trabalhando em estratégias para regulamentar a IA e encontrar estruturas legais apropriadas.

Em 26 de junho de 2019, o Grupo de Especialistas de Alto Nível da Comissão Europeia em Inteligência Artificial (AI HLEG) publicou suas “Recomendações de política e investimento para inteligência artificial confiável”. Este é o segundo resultado final do AI HLEG, após a publicação de abril de 2019 das "Diretrizes de ética para IA confiável". As recomendações de junho do AI HLEG cobrem quatro assuntos principais: humanos e a sociedade em geral, pesquisa e academia, o setor privado e o setor público. A Comissão Europeia afirma que "as recomendações do HLEG refletem uma apreciação das oportunidades para as tecnologias de IA para impulsionar o crescimento econômico, a prosperidade e a inovação, bem como os riscos potenciais envolvidos" e afirma que a UE pretende liderar no enquadramento de políticas que regem a IA internacionalmente.

Desafios éticos

Vieses em sistemas de IA

A senadora dos EUA Kamala Harris falando sobre o preconceito racial na inteligência artificial em 2020

A IA tornou-se cada vez mais inerente aos sistemas de reconhecimento facial e de voz . Alguns desses sistemas possuem aplicativos de negócios reais e afetam diretamente as pessoas. Esses sistemas são vulneráveis ​​a preconceitos e erros introduzidos por seus criadores humanos. Além disso, os dados usados ​​para treinar esses próprios sistemas de IA podem ter vieses. Por exemplo, algoritmos de reconhecimento facial feitos pela Microsoft, IBM e Face ++ todos tinham preconceitos quando se tratava de detectar o sexo das pessoas; Esses sistemas de IA foram capazes de detectar o sexo dos homens brancos com mais precisão do que o sexo dos homens de pele mais escura. Além disso, um estudo de 2020 revisou sistemas de reconhecimento de voz da Amazon, Apple, Google, IBM e Microsoft e descobriu que eles têm taxas de erro mais altas ao transcrever vozes de negros do que de brancos. Além disso, a Amazon encerrou seu uso de contratação e recrutamento de IA porque o algoritmo favorecia candidatos homens em vez de mulheres. Isso ocorreu porque o sistema da Amazon foi treinado com dados coletados ao longo de um período de 10 anos, vindos principalmente de candidatos do sexo masculino.

O viés pode se infiltrar nos algoritmos de várias maneiras. Por exemplo, Friedman e Nissenbaum identificam três categorias de preconceito em sistemas de computador: preconceito existente, preconceito técnico e viés emergente. No processamento de linguagem natural , podem surgir problemas com o corpus do texto - o material de origem que o algoritmo usa para aprender sobre as relações entre as diferentes palavras.

Grandes empresas como IBM, Google, etc. têm se esforçado para pesquisar e resolver esses vieses. Uma solução para lidar com o preconceito é criar documentação para os dados usados ​​para treinar sistemas de IA.

O problema do preconceito no aprendizado de máquina tende a se tornar mais significativo à medida que a tecnologia se espalha para áreas críticas, como medicina e direito, e à medida que mais pessoas sem um profundo conhecimento técnico são encarregadas de implantá-la. Alguns especialistas alertam que o viés algorítmico já está difundido em muitos setores e que quase ninguém está fazendo um esforço para identificá-lo ou corrigi-lo. Existem algumas ferramentas de código aberto por sociedades civis que buscam trazer mais consciência para a IA tendenciosa.

Direitos do robô

"Direitos do robô" é o conceito de que as pessoas devem ter obrigações morais para com suas máquinas, semelhantes aos direitos humanos ou direitos dos animais . Foi sugerido que os direitos dos robôs (como o direito de existir e cumprir sua própria missão) poderiam ser vinculados ao dever do robô de servir à humanidade, análogo a vincular os direitos humanos aos deveres humanos perante a sociedade. Isso pode incluir o direito à vida e à liberdade, liberdade de pensamento e expressão e igualdade perante a lei. A questão foi analisada pelo Institute for the Future e pelo Departamento de Comércio e Indústria do Reino Unido .

Os especialistas discordam sobre quando serão necessárias leis específicas e detalhadas sobre o assunto. Glenn McGee relatou que robôs suficientemente humanóides podem aparecer em 2020, enquanto Ray Kurzweil define a data em 2029. Outro grupo de cientistas que se reuniu em 2007 supôs que pelo menos 50 anos teriam que se passar antes que qualquer sistema suficientemente avançado existisse.

As regras para o concurso do Prêmio Loebner de 2003 previam a possibilidade de robôs terem direitos próprios:

61. Se, em qualquer ano, uma Inscrição de código aberto disponível ao público inscrita pela University of Surrey ou pelo Cambridge Centre ganhar a Medalha de Prata ou a Medalha de Ouro, então a Medalha e o Prêmio em Dinheiro serão concedidos ao órgão responsável pelo desenvolvimento dessa entrada. Se nenhum órgão puder ser identificado, ou se houver desacordo entre dois ou mais requerentes, a Medalha e o Prêmio em Dinheiro serão mantidos em custódia até o momento em que a Proposta legalmente possua, seja nos Estados Unidos da América ou no local do concurso, o prêmio em dinheiro e a medalha de ouro por direito próprio.

Em outubro de 2017, a andróide Sophia recebeu cidadania "honorária" na Arábia Saudita , embora alguns considerem isso mais um golpe publicitário do que um reconhecimento legal significativo. Alguns consideraram este gesto uma denegrição aberta dos direitos humanos e do Estado de Direito .

A filosofia do Sencientismo concede graus de consideração moral a todos os seres sencientes, principalmente humanos e a maioria dos animais não humanos. Se a inteligência artificial ou alienígena mostra evidência de ser senciente , esta filosofia sustenta que eles deveriam ter compaixão e direitos concedidos.

Joanna Bryson argumentou que criar IA que exige direitos é evitável e, por si só, antiético, tanto como um fardo para os agentes de IA quanto para a sociedade humana.

Ameaça à dignidade humana

Joseph Weizenbaum argumentou em 1976 que a tecnologia de IA não deve ser usada para substituir pessoas em posições que exigem respeito e cuidado, como:

  • Um representante de atendimento ao cliente (a tecnologia de IA já é usada hoje para sistemas de resposta de voz interativa por telefone )
  • Uma babá para idosos (conforme relatado por Pamela McCorduck em seu livro The Fifth Generation )
  • Um soldado
  • Um juiz
  • Um policial
  • Terapeuta (conforme proposto por Kenneth Colby nos anos 70)

Weizenbaum explica que exigimos sentimentos autênticos de empatia das pessoas nessas posições. Se as máquinas os substituírem, nos encontraremos alienados, desvalorizados e frustrados, pois o sistema artificialmente inteligente não seria capaz de simular empatia. A inteligência artificial, se usada desta forma, representa uma ameaça à dignidade humana. Weizenbaum argumenta que o fato de estarmos considerando a possibilidade de máquinas nessas posições sugere que experimentamos uma "atrofia do espírito humano que vem de pensar em nós mesmos como computadores".

Pamela McCorduck rebate que, falando em nome de mulheres e minorias "Prefiro me arriscar com um computador imparcial", destacando que há condições em que preferiríamos ter juízes e policiais automatizados sem nenhuma agenda pessoal. No entanto, Kaplan e Haenlein enfatizam que os sistemas de IA são tão inteligentes quanto os dados usados ​​para treiná-los, pois eles são, em sua essência, nada mais do que máquinas sofisticadas de ajuste de curvas; Usar IA para apoiar uma decisão judicial pode ser altamente problemático se decisões anteriores mostrarem parcialidade em relação a certos grupos, uma vez que esses preconceitos são formalizados e enraizados, o que os torna ainda mais difíceis de detectar e combater.

Weizenbaum também estava incomodado com o fato de os pesquisadores de IA (e alguns filósofos) estarem dispostos a ver a mente humana como nada mais do que um programa de computador (uma posição agora conhecida como computacionalismo ). Para Weizenbaum, esses pontos sugerem que a pesquisa de IA desvaloriza a vida humana.

O fundador da IA, John McCarthy, objeta o tom moralizante da crítica de Weizenbaum. “Quando moralizar é veemente e vago, convida ao abuso autoritário”, escreve ele. Bill Hibbard escreve que "a dignidade humana exige que nos esforcemos para remover nossa ignorância da natureza da existência, e a IA é necessária para esse esforço."

Responsabilidade por carros autônomos

Como o uso generalizado de carros autônomos se torna cada vez mais iminente, novos desafios levantados por veículos totalmente autônomos devem ser enfrentados. Recentemente, tem havido um debate sobre a responsabilidade legal do responsável caso esses carros sofram acidentes. Em um relatório em que um carro sem motorista atingiu um pedestre, o motorista estava dentro do carro, mas os controles estavam totalmente nas mãos de computadores. Isso levou a um dilema sobre quem era o culpado pelo acidente.

Em outro incidente em 19 de março de 2018, uma Elaine Herzberg foi atingida e morta por um Uber que dirigia sozinho no Arizona. Neste caso, o carro automatizado foi capaz de detectar carros e certos obstáculos para navegar de forma autônoma na estrada, mas não poderia se antecipar a um pedestre no meio da estrada. Isso levantou a questão de se o motorista, o pedestre, a montadora ou o governo deveriam ser responsabilizados por sua morte.

Atualmente, os carros autônomos são considerados semiautônomos, exigindo do motorista atenção e preparação para assumir o controle, se necessário. Assim, cabe aos governos regulamentar o motorista que confia demais em recursos autônomos. também educá-los de que essas são apenas tecnologias que, embora convenientes, não são um substituto completo. Antes que os carros autônomos se tornem amplamente usados, essas questões precisam ser abordadas por meio de novas políticas.

Armamento de inteligência artificial

Alguns especialistas e acadêmicos questionam o uso de robôs para combate militar, especialmente quando esses robôs possuem algum grau de autonomia. Em 31 de outubro de 2019, o Conselho de Inovação em Defesa do Departamento de Defesa dos Estados Unidos publicou o rascunho de um relatório recomendando princípios para o uso ético de inteligência artificial pelo Departamento de Defesa que garantiria que um operador humano sempre seria capaz de examinar o ' caixa preta 'e compreender o processo de cadeia de morte. No entanto, uma grande preocupação é como o relatório será implementado. A Marinha dos Estados Unidos financiou um relatório que indica que, à medida que os robôs militares se tornam mais complexos, deve-se dar mais atenção às implicações de sua capacidade de tomar decisões autônomas. Alguns pesquisadores afirmam que robôs autônomos podem ser mais humanos, pois podem tomar decisões com mais eficácia.

Na última década, houve uma pesquisa intensiva sobre o poder autônomo com a capacidade de aprender usando as responsabilidades morais atribuídas. "Os resultados podem ser usados ​​ao projetar futuros robôs militares, para controlar tendências indesejadas de atribuir responsabilidades aos robôs." De uma visão consequencialista , há uma chance de que os robôs desenvolvam a capacidade de tomar suas próprias decisões lógicas sobre quem matar e é por isso que deve haver uma estrutura moral definida que a IA não pode ignorar.

Houve um clamor recente em relação à engenharia de armas de inteligência artificial que incluíram ideias de um robô assumir o controle da humanidade. As armas de IA apresentam um tipo de perigo diferente daquele das armas controladas por humanos. Muitos governos começaram a financiar programas para desenvolver armas de IA. A Marinha dos Estados Unidos anunciou recentemente planos para desenvolver armas autônomas de drones , em paralelo com anúncios semelhantes da Rússia e da Coréia, respectivamente. Devido ao potencial das armas de IA se tornando mais perigosas do que as armas operadas por humanos, Stephen Hawking e Max Tegmark assinaram uma petição "Future of Life" para banir as armas de IA. A mensagem postada por Hawking e Tegmark afirma que as armas de IA representam um perigo imediato e que uma ação é necessária para evitar desastres catastróficos em um futuro próximo.

“Se qualquer grande potência militar avançar com o desenvolvimento de armas de IA, uma corrida armamentista global é virtualmente inevitável, e o ponto final dessa trajetória tecnológica é óbvio: as armas autônomas se tornarão as Kalashnikovs de amanhã”, diz a petição, que inclui a Skype co o fundador Jaan Tallinn e o professor de lingüística do MIT Noam Chomsky como apoiadores adicionais contra o armamento de IA.

O físico e astrônomo real Sir Martin Rees alertou sobre casos catastróficos, como "robôs estúpidos que se tornam desonestos ou uma rede que desenvolve uma mente própria". Huw Price , um colega de Rees em Cambridge, deu um aviso semelhante de que os humanos podem não sobreviver quando a inteligência "escapar das restrições da biologia". Esses dois professores criaram o Centro para o Estudo do Risco Existencial na Universidade de Cambridge na esperança de evitar essa ameaça à existência humana.

Com relação ao potencial de sistemas mais inteligentes que humanos serem empregados militarmente, o Open Philanthropy Project escreve que esses cenários "parecem potencialmente tão importantes quanto os riscos relacionados à perda de controle", mas as pesquisas que investigam o impacto social de longo prazo da IA ​​têm gasto relativamente pouco tempo sobre esta preocupação: "esta classe de cenários não tem sido um grande foco para as organizações que têm estado mais ativas neste espaço, como o Machine Intelligence Research Institute (MIRI) e o Future of Humanity Institute (FHI), e parece ter havido menos análise e debate em relação a eles ”.

Algoritmos opacos

Abordagens como aprendizado de máquina com redes neurais podem resultar em computadores tomando decisões que eles e os humanos que os programaram não podem explicar. É difícil para as pessoas determinarem se tais decisões são justas e confiáveis, levando potencialmente a um viés nos sistemas de IA que não são detectados ou rejeitando o uso de tais sistemas. Isso levou à defesa e, em algumas jurisdições, a requisitos legais para inteligência artificial explicável .

Singularidade

Muitos pesquisadores argumentaram que, por meio de uma "explosão de inteligência", uma IA de autoaperfeiçoamento poderia se tornar tão poderosa que os humanos não seriam capazes de impedi-la de atingir seus objetivos. Em seu artigo "Questões Éticas em Inteligência Artificial Avançada" e no livro subsequente Superinteligência: Caminhos, Perigos, Estratégias , o filósofo Nick Bostrom argumenta que a inteligência artificial tem a capacidade de provocar a extinção humana. Ele afirma que a superinteligência geral seria capaz de iniciativa independente e de fazer seus próprios planos e, portanto, pode ser considerada mais apropriadamente como um agente autônomo. Visto que intelectos artificiais não precisam compartilhar nossas tendências motivacionais humanas, caberia aos projetistas da superinteligência especificar suas motivações originais. Como uma IA superinteligente seria capaz de produzir quase todos os resultados possíveis e frustrar qualquer tentativa de impedir a implementação de seus objetivos, muitas consequências não intencionais não controladas podem surgir. Isso pode matar todos os outros agentes, persuadi-los a mudar seu comportamento ou bloquear suas tentativas de interferência.

No entanto, em vez de oprimir a raça humana e levar à nossa destruição, Bostrom também afirmou que a superinteligência pode nos ajudar a resolver muitos problemas difíceis, como doenças, pobreza e destruição ambiental, e pode nos ajudar a “melhorar” a nós mesmos.

A grande complexidade dos sistemas de valores humanos torna muito difícil tornar as motivações da IA ​​amigáveis ​​aos humanos. A menos que a filosofia moral nos forneça uma teoria ética perfeita, a função de utilidade de uma IA poderia permitir muitos cenários potencialmente prejudiciais que se conformam com uma determinada estrutura ética, mas não com o "bom senso". De acordo com Eliezer Yudkowsky , há poucos motivos para supor que uma mente projetada artificialmente teria tal adaptação. Pesquisadores de IA como Stuart J. Russell , Bill Hibbard , Roman Yampolskiy , Shannon Vallor , Steven Umbrello e Luciano Floridi propuseram estratégias de design para o desenvolvimento de máquinas benéficas.

Atores na ética da IA

Existem muitas organizações preocupadas com a ética e as políticas de IA, públicas e governamentais, bem como corporativas e sociais.

Amazon , Google , Facebook , IBM e Microsoft estabeleceram uma organização sem fins lucrativos, The Partnership on AI to Benefit People and Society, para formular as melhores práticas em tecnologias de inteligência artificial, promover a compreensão do público e servir como uma plataforma sobre inteligência artificial . A Apple aderiu em janeiro de 2017. Os membros corporativos farão contribuições financeiras e de pesquisa para o grupo, enquanto se envolvem com a comunidade científica para trazer acadêmicos para o conselho.

O IEEE montou uma Iniciativa Global sobre Ética de Sistemas Autônomos e Inteligentes que tem criado e revisado diretrizes com a ajuda do público, e aceita como membros muitos profissionais de dentro e fora de sua organização.

Tradicionalmente, o governo tem sido usado pelas sociedades para garantir que a ética seja observada por meio da legislação e do policiamento. Existem agora muitos esforços por parte dos governos nacionais, bem como de organizações governamentais e não governamentais transnacionais para garantir que a IA seja aplicada de forma ética.

Iniciativas intergovernamentais:

  • A Comissão Europeia tem um grupo de peritos de alto nível em inteligência artificial. Em 8 de abril de 2019, publicou suas 'Diretrizes de ética para inteligência artificial confiável'. A Comissão Europeia também tem uma unidade de Inovação e Excelência em Robótica e Inteligência Artificial, que publicou um white paper sobre excelência e confiança na inovação em inteligência artificial em 19 de fevereiro de 2020.
  • A OCDE estabeleceu um Observatório de Políticas de AI da OCDE.

Iniciativas governamentais:

  • Nos Estados Unidos, a administração Obama elaborou um roteiro para a política de IA. A administração Obama divulgou dois documentos proeminentes sobre o futuro e o impacto da IA. Em 2019, a Casa Branca, por meio de um memorando executivo conhecido como "American AI Initiative", instruiu o NIST (Instituto Nacional de Padrões e Tecnologia) a começar a trabalhar no Federal Engagement of AI Standards (fevereiro de 2019).
  • Em janeiro de 2020, nos Estados Unidos, a administração Trump divulgou um projeto de ordem executiva emitido pelo Office of Management and Budget (OMB) sobre "Orientação para a regulamentação de aplicações de inteligência artificial" ("OMB AI Memorandum"). A ordem enfatiza o precisa investir em aplicativos de IA, aumentar a confiança do público na IA, reduzir as barreiras para o uso de IA e manter a tecnologia de IA americana competitiva em um mercado global. Há um aceno para a necessidade de preocupações com a privacidade, mas não há mais detalhes sobre a aplicação. Os avanços da tecnologia americana de IA parecem ser o foco e a prioridade. Além disso, as entidades federais são até mesmo incentivadas a usar a ordem para circunavegar quaisquer leis e regulamentos estaduais que um mercado possa considerar oneroso demais para cumprir.
  • O Computing Community Consortium (CCC) contribuiu com um relatório preliminar de mais de 100 páginas - Um Roteiro Comunitário de 20 Anos para Pesquisa de Inteligência Artificial nos EUA
  • O Center for Security and Emerging Technology assessora os legisladores dos EUA sobre as implicações de segurança de tecnologias emergentes, como a IA.
  • O Partido Não-Humano está concorrendo à eleição em Nova Gales do Sul , com políticas em torno da concessão de direitos a robôs, animais e, em geral, entidades não-humanas cuja inteligência foi esquecida.

Iniciativas acadêmicas:

O papel e o impacto da ficção na ética da IA

O papel da ficção em relação à ética da IA ​​tem sido complexo. Pode-se distinguir três níveis nos quais a ficção impactou o desenvolvimento da inteligência artificial e da robótica: Historicamente, a ficção tem prefigurado tropos comuns que não apenas influenciaram os objetivos e visões da IA, mas também delinearam questões éticas e medos comuns associados a ela. Durante a segunda metade do século XX e as primeiras décadas do século XXI, a cultura popular, em particular filmes, séries de TV e videogames, freqüentemente ecoou preocupações e projeções distópicas em torno de questões éticas relativas à IA e à robótica. Recentemente, esses temas também têm sido cada vez mais tratados na literatura além do domínio da ficção científica. E, como Carme Torras, professor pesquisador do Institut de Robòtica i Informàtica Industrial (Instituto de robótica e computação industrial) da Universidade Técnica da Catalunha, no ensino superior, a ficção científica também é cada vez mais usada para o ensino de questões éticas relacionadas à tecnologia em graus tecnológicos.

História

Historicamente falando, a investigação das implicações morais e éticas das “máquinas pensantes” remonta pelo menos ao Iluminismo: Leibniz já questiona se poderíamos atribuir inteligência a um mecanismo que se comporta como se fosse um ser senciente, e o mesmo faz Descartes. , que descreve o que poderia ser considerado uma versão inicial do Teste de Turing.

O período romântico tem várias vezes imaginou criaturas artificiais que escapam ao controle de seu criador com consequências terríveis, o mais famosa em Mary Shelley ‘s Frankenstein . A preocupação generalizada com a industrialização e mecanização no século 19 e início do século 20, no entanto, trouxe implicações éticas de desenvolvimentos técnicos desequilibrados para a vanguarda da ficção: RUR - Robôs Universais de Rossum , a peça de Karel Čapek de robôs sencientes dotados de emoções usados ​​como trabalho escravo. não apenas creditado com a invenção do termo 'robô' (derivado da palavra tcheca para trabalho forçado, robota ), mas também foi um sucesso internacional após sua estreia em 1921. A peça de George Bernard Shaw Back to Metuselah , publicada em 1921, questões em um ponto a validade das máquinas pensantes que agem como humanos; O filme Metropolis de Fritz Lang, de 1927, mostra um andróide liderando a revolta das massas exploradas contra o regime opressor de uma sociedade tecnocrática.

O impacto da ficção no desenvolvimento tecnológico

Enquanto a antecipação de um futuro dominado por uma tecnologia potencialmente indomável alimenta a imaginação de escritores e cineastas há muito tempo, uma questão tem sido analisada com menos frequência, a saber, até que ponto a ficção tem desempenhado um papel no fornecimento de inspiração para o desenvolvimento tecnológico. Foi documentado, por exemplo, que o jovem Alan Turing viu e apreciou a peça Back to Metuselah de GB Shaw em 1933 (apenas 3 anos antes da publicação de seu primeiro artigo seminal que lançou as bases para o computador digital), e ele provavelmente Conheceram pelo menos peças como RUR , que foi um sucesso internacional e traduzido para vários idiomas.

Também se pode questionar qual papel a ficção científica desempenhou no estabelecimento dos princípios e implicações éticas do desenvolvimento da IA: Isaac Asimov conceituou suas Três Leis da Robótica no conto “ Runaround ” de 1942 , parte da coleção de contos I, Robot ; O curta " The sentinel " de Arthur C. Clarke , no qual se baseia o filme de Stanley Kubrick 2001: A Space Odyssey , foi escrito em 1948 e publicado em 1952. Outro exemplo (entre muitos outros) seriam os numerosos contos e romances de Philip K. Dicks - em particular, os andróides sonham com ovelhas elétricas? , publicado em 1968 e apresentando sua própria versão de um Teste de Turing, o Teste Voight-Kampff , para avaliar as respostas emocionais de andróides indistinguíveis dos humanos. O romance mais tarde se tornou a base do influente filme de 1982, Blade Runner, de Ridley Scott.

A Ficção Científica tem lutado com as implicações éticas dos desenvolvimentos da IA ​​por décadas e, assim, forneceu um plano para questões éticas que podem surgir quando algo semelhante à inteligência artificial geral for alcançado: o filme Her de 2013 de Spike Jonze mostra o que pode acontecer se um usuário cair apaixonado pela voz sedutora de seu sistema operacional de smartphone; Ex Machina , por outro lado, faz uma pergunta mais difícil: se confrontados com uma máquina claramente reconhecível, tornada humana apenas por um rosto e uma voz empática e sensual, ainda seríamos capazes de estabelecer uma conexão emocional, ainda seríamos seduzidos por isto ? (O filme ecoa um tema já presente dois séculos antes, no conto “ The Sandmann ” de 1817, de ETA Hoffmann. )

O tema da coexistência com seres sencientes artificiais também é o tema de dois romances recentes: Machines like me, de Ian McEwan , publicado em 2019, envolve (entre muitas outras coisas) um triângulo amoroso envolvendo uma pessoa artificial e também um casal humano. Klara eo Sun por Prêmio Nobel vencedor Kazuo Ishiguro , publicado em 2021, é o relato em primeira pessoa de Klara, uma 'AF' (amigo artificial), que está tentando, à sua maneira, para ajudar a menina que ela está vivendo com , que, após ter sido 'levantado' (isto é, submetido a aprimoramentos genéticos), está sofrendo de uma doença estranha.

Séries de TV

Embora as questões éticas ligadas à IA tenham sido apresentadas na literatura de ficção científica e filmes de longa-metragem por décadas, o surgimento da série de TV como um gênero que permite enredos mais longos e complexos e o desenvolvimento de personagens levou a algumas contribuições significativas que lidam com implicações éticas de tecnologia. A série sueca Real Humans (2012–2013) abordou as complexas consequências éticas e sociais ligadas à integração de seres sencientes artificiais na sociedade. A série de antologia de ficção científica distópica britânica Black Mirror (2013–2019) foi particularmente notável por experimentar desenvolvimentos ficcionais distópicos ligados a uma ampla variedade de desenvolvimentos de tecnologia ressentidos. Tanto a série francesa Osmosis (2020) quanto a série britânica The One tratam da questão do que pode acontecer se a tecnologia tentar encontrar o parceiro ideal para uma pessoa.

Visões do futuro em ficção e jogos

O filme The Thirteenth Floor sugere um futuro onde mundos simulados com habitantes sencientes são criados por consoles de jogos de computador com o propósito de entretenimento. O filme Matrix sugere um futuro em que as espécies dominantes no planeta Terra são máquinas sencientes e a humanidade é tratada com o máximo especismo . O conto " The Planck Dive " sugere um futuro onde a humanidade se transformou em software que pode ser duplicado e otimizado e a distinção relevante entre tipos de software é senciente e não senciente. A mesma ideia pode ser encontrada no Holograma Médico de Emergência da Starship Voyager , que é uma cópia aparentemente senciente de um subconjunto reduzido da consciência de seu criador, Dr. Zimmerman , que, pelos melhores motivos, criou o sistema para fornecer dados médicos assistência em caso de emergência. Os filmes Homem Bicentenário e IA lidam com a possibilidade de robôs sencientes que podem amar. Eu, Robot, explorou alguns aspectos das três leis de Asimov. Todos esses cenários tentam prever consequências possivelmente antiéticas da criação de computadores sencientes.

A ética da inteligência artificial é um dos vários temas centrais da série de jogos Mass Effect da BioWare . Ele explora o cenário de uma civilização criando acidentalmente IA por meio de um rápido aumento no poder computacional por meio de uma rede neural em escala global . Este evento causou um cisma ético entre aqueles que sentiram que conceder direitos orgânicos ao recém-consciente Geth era apropriado e aqueles que continuaram a vê-los como máquinas descartáveis ​​e lutaram para destruí-los. Além do conflito inicial, a complexidade da relação entre as máquinas e seus criadores é outro tema contínuo ao longo da história.

Com o tempo, os debates tenderam a se concentrar cada vez menos na possibilidade e mais na desejabilidade , como enfatizado nos debates "Cosmistas" e "Terranos" iniciados por Hugo de Garis e Kevin Warwick . Um cosmista, segundo Hugo de Garis, está na verdade procurando construir sucessores mais inteligentes para a espécie humana.

Especialistas da Universidade de Cambridge argumentaram que a IA é retratada na ficção e não-ficção predominantemente como racialmente branca, de maneiras que distorcem as percepções de seus riscos e benefícios.

Veja também

Notas

links externos