Elon Musk e Steve Wozniak estão entre as centenas de tecnólogos, empresários e pesquisadores que solicitam aos laboratórios de IA que cessem imediatamente o desenvolvimento de sistemas avançados de inteligência artificial. Eles pedem que os desenvolvedores evitem a “corrida desenfreada” para implantar sistemas cada vez mais sofisticados enquanto avaliamos melhor os riscos que a IA avançada representa para a humanidade.
A carta afirma que qualquer pausa deve ser “pública e verificável” e incluir todos os principais atores. Os recentes avanços no campo da IA ressaltam a necessidade de ação drástica, já que os “laboratórios estão envolvidos em uma corrida desenfreada” para desenvolver e implantar sistemas cada vez mais poderosos que ninguém – incluindo seus criadores – pode entender, prever ou controlar.
A carta pede que laboratórios e especialistas independentes usem a pausa para desenvolver um conjunto de protocolos de segurança compartilhados, auditados e supervisionados por especialistas externos, garantindo que os sistemas de IA “estejam seguros além de qualquer dúvida razoável”.
Os signatários incluem cientistas da computação renomados como Yoshua Bengio e Stuart Russell, pesquisadores acadêmicos de prestígio e indústrias como Oxford, Cambridge, Stanford, Caltech, Columbia, Google, Microsoft e Amazon. Além disso, empreendedores proeminentes no campo da tecnologia, como o cofundador do Skype, Jaan Tallinn, o cofundador do Pinterest, Evan Sharp, e o cofundador da Ripple, Chris Larsen, também assinaram a carta.
A lista de signatários, que inclui o autor Yuval Noah Harari e o político Andrew Yang, deve ser tratada com certo ceticismo, já que as pessoas são convidadas a acrescentar seus próprios nomes à carta. O Verge relatou que o presidente da OpenAI, Sam Altman, aparentemente tratou o documento como uma piada.
O enorme sucesso do ChatGPT, um chatbot de inteligência artificial criado pela OpenAI, sediada nos EUA, desencadeou uma corrida frenética para lançar novos produtos de IA no mercado. As maiores empresas de tecnologia e inúmeras startups lutam para manter ou conquistar espaço no mercado emergente, que pode moldar o futuro de todo o setor. Os laboratórios estão trabalhando para desenvolver produtos cada vez mais capazes.
No curto prazo, especialistas alertam que os sistemas de IA correm o risco de agravar os vieses e desigualdades existentes, promover desinformação, interromper a política e a economia, e até mesmo auxiliar hackers. A longo prazo, alguns especialistas alertam que a IA pode representar um risco existencial para a humanidade e até mesmo nos exterminar. Eles argumentam que a perspectiva de IA superinteligente deve ser abordada antes de ser desenvolvida e garantir que os sistemas sejam seguros deve ser um fator-chave no desenvolvimento atual.
A carta aberta conclui de maneira otimista, destacando que a humanidade pode desfrutar de um futuro próspero com a IA, desde que sejam tomadas medidas de segurança e protocolos adequados para garantir que os sistemas de IA estejam seguros.
Principais trechos da carta
Planejamento e gerenciamento
“Os sistemas de IA com inteligência competitiva humana podem representar riscos profundos para a sociedade e a humanidade, conforme demonstrado por extensa pesquisa e reconhecido pelos principais laboratórios de IA. Conforme declarado nos amplamente endossados Princípios de IA de Asilomar , a IA avançada pode representar uma mudança profunda na história da vida na Terra e deve ser planejada e gerenciada com cuidados e recursos proporcionais. Infelizmente, esse nível de planejamento e gerenciamento não está acontecendo, embora os últimos meses tenham visto laboratórios de IA travados em uma corrida descontrolada para desenvolver e implantar mentes digitais cada vez mais poderosas que ninguém – nem mesmo seus criadores – pode entender, prever ou controlar de forma confiável.”
Competição com humanos
“Os sistemas contemporâneos de IA estão se tornando competitivos para humanos em tarefas gerais e devemos nos perguntar: podemos deixar que as máquinas inundem nossos canais de informação com propaganda e falsidade? Devemos automatizar todos os trabalhos, incluindo os satisfatórios? Deveríamos desenvolver mentes não-humanas que eventualmente nos superassem em número, fossem mais espertas, obsoletas e nos substituíssem? Devemos arriscar perder o controle de nossa civilização? Tais decisões não devem ser delegadas a líderes tecnológicos não eleitos. Sistemas poderosos de IA devem ser desenvolvidos apenas quando estivermos confiantes de que seus efeitos serão positivos e seus riscos serão administráveis. Essa confiança deve ser bem justificada e aumentar com a magnitude dos efeitos potenciais de um sistema”
Por que pausar e como proceder?
“Laboratórios de IA e especialistas independentes devem usar essa pausa para desenvolver e implementar em conjunto um conjunto de protocolos de segurança compartilhados para design e desenvolvimento avançados de IA que são rigorosamente auditados e supervisionados por especialistas externos independentes. Esses protocolos devem garantir que os sistemas que aderem a eles sejam seguros além de qualquer dúvida razoável. Isso não significa uma pausa no desenvolvimento da IA em geral, apenas um retrocesso na corrida perigosa para modelos de caixa preta cada vez maiores e imprevisíveis com capacidades emergentes. A pesquisa e o desenvolvimento de IA devem ser reorientados para tornar os sistemas avançados e poderosos de hoje mais precisos, seguros, interpretáveis, transparentes, robustos, alinhados, confiáveis e leais.”
Governança, transparência e ética
“Paralelamente, os desenvolvedores de IA devem trabalhar com os formuladores de políticas para acelerar drasticamente o desenvolvimento de sistemas robustos de governança de IA. Estes devem incluir, no mínimo: autoridades reguladoras novas e capazes dedicadas à IA; supervisão e rastreamento de sistemas de IA altamente capazes e grandes conjuntos de capacidade computacional; sistemas de proveniência e marca d’água para ajudar a distinguir o real do sintético e rastrear vazamentos de modelos; um ecossistema robusto de auditoria e certificação; responsabilidade por danos causados pela IA; financiamento público robusto para pesquisa técnica de segurança de IA; e instituições com bons recursos para lidar com as dramáticas perturbações econômicas e políticas (especialmente para a democracia) que a IA causará.”
Conclusão
Em conclusão, a carta aberta assinada por Elon Musk, Steve Wozniak e outros centenas de tecnólogos, empresários e pesquisadores destaca a necessidade de uma pausa no desenvolvimento de sistemas avançados de IA, a fim de avaliar os riscos que eles representam para a humanidade. Embora alguns possam argumentar que essa pausa pode atrasar o progresso, a implementação de protocolos de segurança compartilhados pode garantir que os sistemas de IA sejam seguros além de qualquer dúvida razoável. Como Bill Gates, um grande investidor em IA, observou, a tecnologia tem o potencial de transformar positivamente a sociedade se for usada de maneira justa e equitativa. É importante que os desenvolvedores trabalhem com responsabilidade e transparência para garantir que a IA seja usada para o bem da humanidade, em vez de representar uma ameaça existencial.