Instituto Futuro da Vida - Future of Life Institute
Coordenadas : 42,3736158 ° N 71,1097335 ° W 42 ° 22′25 ″ N 71 ° 06′35 ″ W /
Abreviação | FLI |
---|---|
Formação | Março de 2014 |
Fundadores |
|
Modelo | Instituto de pesquisa sem fins lucrativos |
47-1052538 | |
Status legal | Ativo |
Propósito | Redução do risco existencial , principalmente de inteligência artificial avançada |
Localização | |
Presidente |
Max Tegmark |
Local na rede Internet | futureoflife.org |
O Future of Life Institute ( FLI ) é uma organização sem fins lucrativos que trabalha para reduzir os riscos catastróficos e existenciais globais que a humanidade enfrenta, particularmente o risco existencial de inteligência artificial avançada (IA). O trabalho do Instituto é composto de três vertentes principais: concessão de doações para redução de riscos, divulgação educacional e defesa dentro das Nações Unidas, governo dos Estados Unidos e instituições da União Europeia. Seus fundadores incluem o cosmologista do MIT Max Tegmark e o cofundador do Skype Jaan Tallinn , e seu conselho consultivo inclui o empresário Elon Musk .
Missão
A missão da FLI é reduzir o risco catastrófico e existencial global de tecnologias poderosas. O FLI está particularmente focado nos riscos potenciais para a humanidade do desenvolvimento de inteligência artificial geral (AGI) em nível humano ou superinteligente , mas também trabalha com riscos de biotecnologia, armas nucleares e mudanças climáticas. O trabalho do Instituto consiste em doações para redução de riscos, divulgação educacional e defesa dentro das Nações Unidas, do governo dos Estados Unidos e de instituições da União Europeia.
Pessoas chave
O Instituto foi fundado em março de 2014 pelo cosmologista do MIT Max Tegmark , cofundador do Skype Jaan Tallinn , pesquisador da DeepMind , Viktoriya Krakovna, estudioso de pós-doutorado da Tufts University Meia Chita-Tegmark e físico da UCSC Anthony Aguirre . O Conselho Consultivo Científico do Instituto, com 14 pessoas, inclui os cientistas da computação Stuart J. Russell e Francesca Rossi , o biólogo George Church , o cosmólogo Saul Perlmutter , a astrofísica Sandra Faber , o físico teórico Frank Wilczek , o empresário Elon Musk e atores e comunicadores científicos Alan Alda e Morgan Freeman (bem como o cosmologista Stephen Hawking antes de sua morte em 2018).
Conferências
Em 2014, o Future of Life Institute realizou seu evento de abertura no MIT : um painel de discussão sobre "O Futuro da Tecnologia: Benefícios e Riscos", moderado por Alan Alda . Os painelistas foram o biólogo sintético George Church , o geneticista Ting Wu , o economista Andrew McAfee , o físico e ganhador do Nobel Frank Wilczek e o cofundador do Skype Jaan Tallinn .
Desde 2015, o FLI organiza conferências semestrais que reúnem os principais construtores de IA da academia e da indústria. Até o momento, as seguintes conferências ocorreram:
- Conferência "O Futuro da IA: Oportunidades e Desafios" em Porto Rico (2015). O objetivo era identificar direções de pesquisa promissoras que podem ajudar a maximizar os benefícios futuros da IA. Na conferência, o Instituto distribuiu uma carta aberta sobre segurança em IA que foi posteriormente assinada por Stephen Hawking , Elon Musk e muitos especialistas em inteligência artificial.
- A conferência Benéfica da IA em Asilomar, Califórnia (2017), uma reunião privada do que o The New York Times chamou de "pesos pesados da IA" (incluindo Yann LeCun , Elon Musk e Nick Bostrom ). O instituto lançou um conjunto de princípios para o desenvolvimento de IA responsável que saiu da discussão na conferência, assinado por Yoshua Bengio , Yann LeCun e muitos outros pesquisadores de IA. Esses princípios influenciaram a regulamentação da inteligência artificial e iniciativas subsequentes, como os Princípios da OCDE sobre Inteligência Artificial.
- A benéfica conferência AGI em Porto Rico (2019). Esta reunião se concentrou em questões de longo prazo para garantir que a Inteligência Artificial Geral seja benéfica para a humanidade.
Programa de pesquisa global
O programa de pesquisa FLI começou em 2015 com uma doação inicial de $ 10 milhões de Elon Musk. Ao contrário da pesquisa típica de IA, este programa é focado em tornar a IA mais segura ou mais benéfica para a sociedade, ao invés de apenas mais poderosa. Nesta rodada inicial, um total de US $ 7 milhões foi concedido a 37 projetos de pesquisa. Em julho de 2021, o FLI anunciou que lançaria um novo programa de subsídios de US $ 25 milhões com financiamento do programador russo-canadense Vitalik Buterin .
Na mídia
- "A luta para definir quando a IA é de 'alto risco'" na Wired .
- “Existem armas autônomas letais; elas devem ser banidas” no espectro IEEE .
- "Estados Unidos e Aliados protestam contra negociações da ONU para banir as armas nucleares" no The New York Times .
- "A Inteligência Artificial é uma Ameaça?" em The Chronicle of Higher Education , incluindo entrevistas com os fundadores do FLI Max Tegmark , Jaan Tallinn e Viktoriya Krakovna.
- "Mas o que o fim da humanidade significaria para mim?", Uma entrevista com Max Tegmark sobre as ideias por trás do FLI no The Atlantic .
- Michael del Castillo (15 de janeiro de 2015). "A marca da startup não esconde os tons apocalípticos da carta assinada por Elon Musk" . Upstart Business Journal .
Veja também
- Instituto Futuro da Humanidade
- Centro de Estudos de Risco Existencial
- Risco catastrófico global
- Centro Leverhulme para o Futuro da Inteligência
- Instituto de pesquisa de inteligência de máquina
- O Precipício: Risco Existencial e o Futuro da Humanidade