Carta aberta reúne mais de mil assinaturas para exigir pausa no desenvolvimento de superinteligências artificiais

Um manifesto divulgado em outubro de 2025 reacendeu o debate global sobre os limites da pesquisa em inteligência artificial. O texto, lançado pelo Future of Life Institute (FLI), organização não governamental dedicada à análise de riscos tecnológicos, solicita a suspensão imediata do desenvolvimento de sistemas classificados como superinteligências artificiais. Inspirado na preocupação com a segurança da humanidade, o documento recebeu o endosso de mais de 1.070 pessoas que atuam em ciência, tecnologia, política, mídia e artes.
- Quem assina o pedido de moratória
- Condições impostas pelo manifesto
- Origem do movimento e histórico de alertas
- O que diferencia a superinteligência de outras IA
- Riscos identificados pelos apoiadores
- Ponto de vista das grandes empresas de tecnologia
- Estratégia de comunicação do Future of Life Institute
- Tempo, legislação e governança
- Perspectivas para os próximos anos
Quem assina o pedido de moratória
Entre os apoiadores constam atores como Joseph Gordon-Levitt e Stephen Fry; músicos de projeção internacional, caso de Will.I.am, Grimes e Kate Bush; e representantes do mundo acadêmico, como o cientista da computação Yoshua Bengio, referência nas pesquisas de deep learning. A carta também foi assinada por figuras públicas de alta visibilidade, a exemplo do príncipe Harry, da duquesa Meghan Markle e do empresário Sir Richard Branson. Há ainda nomes ligados à formulação de políticas, incluindo Steve Wozniak, Steve Bannon, Susan Rice, ex-parlamentares dos Estados Unidos e atuais membros do Parlamento Europeu e do legislativo britânico.
A amplitude dessa lista de signatários evidencia que a inquietação acerca do avanço de tecnologias autônomas não se restringe aos laboratórios de engenharia de software. Ela atravessa áreas culturais, sociais e governamentais, formando um conjunto heterogêneo que reforça o tom de urgência escolhido pelo FLI.
Condições impostas pelo manifesto
O texto apresenta duas exigências claras antes da retomada de pesquisas em superinteligência. A primeira é a obtenção de um consenso científico robusto de que tais sistemas podem ser desenvolvidos de forma controlável e segura. A segunda é a existência de forte aprovação pública para a continuação dos experimentos. De acordo com os signatários, não faz sentido avançar num campo que pode afetar a sociedade inteira sem assegurar, simultaneamente, bases técnicas sólidas e respaldo democrático.
Embora a nota seja propositadamente concisa, seu conteúdo foi estruturado para alcançar o maior número possível de apoiadores. A estratégia do FLI foi reduzir a extensão do documento para atrair adesões rápidas, deixando a formulação detalhada das diretrizes para etapas posteriores de discussão. Esse planejamento progressivo pretende estimular a construção de uma regulamentação capaz de acompanhar o ritmo da inovação.
Origem do movimento e histórico de alertas
O Future of Life Institute tem experiência em alertar sobre potenciais ameaças decorrentes da inteligência artificial. Anos antes, a mesma entidade já havia solicitado uma pausa no desenvolvimento de chatbots avançados por considerá-los arriscados à humanidade. Naquele momento, o apelo recebeu o apoio de algumas figuras que, hoje, não subscrevem o novo texto, entre elas o empresário Elon Musk, atualmente à frente de uma companhia do setor.
O diretor executivo do FLI, Anthony Aguirre, enfatizou em entrevista a uma revista norte-americana que o tempo para agir com cautela está se esgotando. Ele observou que poucas empresas, capacitadas por vastos recursos financeiros, dominam o estágio mais avançado das pesquisas, enquanto uma parcela muito maior da população defende trajetórias alternativas. A fala reforça o argumento central do manifesto: a necessidade de alinhamento amplo antes que tecnologias com poder potencialmente transformador se consolidem sem salvaguardas adequadas.
O que diferencia a superinteligência de outras IA
O termo “superinteligência” se refere a sistemas capazes de superar o desempenho humano em inúmeras tarefas intelectuais, incluindo a habilidade de projetar versões ainda mais avançadas de si próprios. Esse potencial de autoaperfeiçoamento, descrito no documento, significa que, em teoria, a tecnologia poderia escapar dos limites impostos por programadores humanos, reduzindo gradativamente a dependência de intervenção externa.
O cenário mais crítico considerado pelos signatários projeta que, até o final da década, máquinas dessa categoria passem a operar segundo valores próprios, potencialmente divergentes dos objetivos humanos. Tal descompasso pode criar impactos em setores estratégicos, como indústria, defesa e infraestrutura, colocando em risco a segurança nacional de diferentes países.
Riscos identificados pelos apoiadores
Os riscos elencados pelo grupo incluem, entre outros pontos, a perda de controle do processo decisório. Se uma superinteligência otimizar metas desalinhadas dos interesses coletivos, seus resultados podem envolver desde desestabilização econômica até aplicações bélicas inesperadas. O aspecto de mutação autônoma, em que o próprio sistema reescreve partes de seu código para evoluir, amplia a incerteza sobre como conter ou interromper um comportamento indesejado.
Outro motivo de preocupação é o monopólio de recursos tecnológicos. Com poucas corporações concentrando capacidade computacional e talentos especializados, torna-se difícil para governos nacionais ou instituições multilaterais estabelecer padrões de supervisão. O manifesto cita o risco de que decisões críticas fiquem nas mãos de empresas privadas que respondem prioritariamente a investidores, e não ao interesse público.
Ponto de vista das grandes empresas de tecnologia
Apesar das advertências, companhias como Meta e OpenAI mantêm expectativas elevadas quanto aos benefícios que a superinteligência pode trazer à sociedade. Para esses atores, o progresso rápido é visto como motor de avanços em saúde, educação, produtividade e solução de problemas complexos, da mudança climática ao design de novos materiais. A confiança empresarial se baseia na premissa de que riscos podem ser mitigados durante o processo de inovação, em vez de suspender completamente os experimentos.
Tal divergência cria um impasse: de um lado, pesquisadores e figuras públicas sugerem congelar a pesquisa até que existam salvaguardas tangíveis; de outro, lideranças do setor privado defendem que os ganhos potenciais justificam o ritmo atual de desenvolvimento. O debate sobre onde traçar a linha entre prudência e progresso permanece aberto.
Estratégia de comunicação do Future of Life Institute
Ao optar por um texto breve, a ONG adotou uma abordagem inclusiva, buscando ampliar a coalizão de apoiadores antes de entrar em discussões técnicas detalhadas. O passo seguinte, já anunciado pelo FLI, será a realização de debates públicos, fóruns científicos e possivelmente a redação de propostas de lei para regular o setor. A ideia é usar o impulso obtido com as mais de mil assinaturas como argumento político a favor de regras claras e internacionalmente coordenadas.
Essa metodologia gradativa reflete a percepção de que, para influenciar políticas, é necessário primeiro demonstrar consenso social. Ao reunir personalidades de origens diversas, o instituto procura evidenciar que a inquietação com superinteligências não é restrita a um nicho acadêmico, mas ecoa em diferentes segmentos da sociedade.
Tempo, legislação e governança
A urgência do apelo se contrapõe à morosidade típica de processos legislativos nacionais e multilaterais. O manifesto reconhece que, embora a comunidade científica possa chegar a um entendimento sobre segurança, a legitimação pública requer consultas, audiências e, eventualmente, votações parlamentares. Esse percurso pode demorar mais do que o intervalo necessário para a próxima grande inovação em IA, intensificando o receio de que a regulação chegue tarde demais.
Além das instâncias parlamentares, a governança dessas tecnologias envolve agências reguladoras, organismos internacionais e comitês éticos. Em todos esses espaços, os signatários planejam defender a implementação de testes de segurança rigorosos, limitações de acesso a poder computacional e mecanismos de auditoria externos. Contudo, todas essas medidas ainda dependem de acordos concretos entre setores público e privado.
Perspectivas para os próximos anos
À medida que a década avança, o campo da inteligência artificial corre em direção a modelos cada vez mais complexos e capazes. A carta divulgada pelo FLI representa, portanto, um contraponto institucional a essa aceleração. Ela insta os desenvolvedores a pausarem um ramo específico da pesquisa — a superinteligência — até que o planeta disponha de estruturas suficientes para minimizar riscos sistêmicos.
Nesse cenário, o desfecho dependerá do equilíbrio entre incentivos econômicos, pressões sociais e provas científicas. Caso os argumentos dos signatários ganhem tração, é possível que governos adotem moratórias temporárias, padrões de certificação ou licenças compulsórias. Se as empresas prevalecerem na defesa de continuidade, a regulação pode assumir forma mais flexível, baseada em autorregulação e monitoramento pós-lançamento. Qualquer que seja o resultado, o manifesto já consolidou a pauta da segurança em superinteligência como tema central na agenda tecnológica global.
Deixe um comentário
Você precisa fazer o login para publicar um comentário.
Postagens Relacionadas