Carta aberta reúne mais de mil assinaturas para exigir pausa no desenvolvimento de superinteligências artificiais

Carta aberta reúne mais de mil assinaturas para exigir pausa no desenvolvimento de superinteligências artificiais

Um manifesto divulgado em outubro de 2025 reacendeu o debate global sobre os limites da pesquisa em inteligência artificial. O texto, lançado pelo Future of Life Institute (FLI), organização não governamental dedicada à análise de riscos tecnológicos, solicita a suspensão imediata do desenvolvimento de sistemas classificados como superinteligências artificiais. Inspirado na preocupação com a segurança da humanidade, o documento recebeu o endosso de mais de 1.070 pessoas que atuam em ciência, tecnologia, política, mídia e artes.

Índice

Quem assina o pedido de moratória

Entre os apoiadores constam atores como Joseph Gordon-Levitt e Stephen Fry; músicos de projeção internacional, caso de Will.I.am, Grimes e Kate Bush; e representantes do mundo acadêmico, como o cientista da computação Yoshua Bengio, referência nas pesquisas de deep learning. A carta também foi assinada por figuras públicas de alta visibilidade, a exemplo do príncipe Harry, da duquesa Meghan Markle e do empresário Sir Richard Branson. Há ainda nomes ligados à formulação de políticas, incluindo Steve Wozniak, Steve Bannon, Susan Rice, ex-parlamentares dos Estados Unidos e atuais membros do Parlamento Europeu e do legislativo britânico.

A amplitude dessa lista de signatários evidencia que a inquietação acerca do avanço de tecnologias autônomas não se restringe aos laboratórios de engenharia de software. Ela atravessa áreas culturais, sociais e governamentais, formando um conjunto heterogêneo que reforça o tom de urgência escolhido pelo FLI.

Condições impostas pelo manifesto

O texto apresenta duas exigências claras antes da retomada de pesquisas em superinteligência. A primeira é a obtenção de um consenso científico robusto de que tais sistemas podem ser desenvolvidos de forma controlável e segura. A segunda é a existência de forte aprovação pública para a continuação dos experimentos. De acordo com os signatários, não faz sentido avançar num campo que pode afetar a sociedade inteira sem assegurar, simultaneamente, bases técnicas sólidas e respaldo democrático.

Embora a nota seja propositadamente concisa, seu conteúdo foi estruturado para alcançar o maior número possível de apoiadores. A estratégia do FLI foi reduzir a extensão do documento para atrair adesões rápidas, deixando a formulação detalhada das diretrizes para etapas posteriores de discussão. Esse planejamento progressivo pretende estimular a construção de uma regulamentação capaz de acompanhar o ritmo da inovação.

Origem do movimento e histórico de alertas

O Future of Life Institute tem experiência em alertar sobre potenciais ameaças decorrentes da inteligência artificial. Anos antes, a mesma entidade já havia solicitado uma pausa no desenvolvimento de chatbots avançados por considerá-los arriscados à humanidade. Naquele momento, o apelo recebeu o apoio de algumas figuras que, hoje, não subscrevem o novo texto, entre elas o empresário Elon Musk, atualmente à frente de uma companhia do setor.

O diretor executivo do FLI, Anthony Aguirre, enfatizou em entrevista a uma revista norte-americana que o tempo para agir com cautela está se esgotando. Ele observou que poucas empresas, capacitadas por vastos recursos financeiros, dominam o estágio mais avançado das pesquisas, enquanto uma parcela muito maior da população defende trajetórias alternativas. A fala reforça o argumento central do manifesto: a necessidade de alinhamento amplo antes que tecnologias com poder potencialmente transformador se consolidem sem salvaguardas adequadas.

O que diferencia a superinteligência de outras IA

O termo “superinteligência” se refere a sistemas capazes de superar o desempenho humano em inúmeras tarefas intelectuais, incluindo a habilidade de projetar versões ainda mais avançadas de si próprios. Esse potencial de autoaperfeiçoamento, descrito no documento, significa que, em teoria, a tecnologia poderia escapar dos limites impostos por programadores humanos, reduzindo gradativamente a dependência de intervenção externa.

O cenário mais crítico considerado pelos signatários projeta que, até o final da década, máquinas dessa categoria passem a operar segundo valores próprios, potencialmente divergentes dos objetivos humanos. Tal descompasso pode criar impactos em setores estratégicos, como indústria, defesa e infraestrutura, colocando em risco a segurança nacional de diferentes países.

Riscos identificados pelos apoiadores

Os riscos elencados pelo grupo incluem, entre outros pontos, a perda de controle do processo decisório. Se uma superinteligência otimizar metas desalinhadas dos interesses coletivos, seus resultados podem envolver desde desestabilização econômica até aplicações bélicas inesperadas. O aspecto de mutação autônoma, em que o próprio sistema reescreve partes de seu código para evoluir, amplia a incerteza sobre como conter ou interromper um comportamento indesejado.

Outro motivo de preocupação é o monopólio de recursos tecnológicos. Com poucas corporações concentrando capacidade computacional e talentos especializados, torna-se difícil para governos nacionais ou instituições multilaterais estabelecer padrões de supervisão. O manifesto cita o risco de que decisões críticas fiquem nas mãos de empresas privadas que respondem prioritariamente a investidores, e não ao interesse público.

Ponto de vista das grandes empresas de tecnologia

Apesar das advertências, companhias como Meta e OpenAI mantêm expectativas elevadas quanto aos benefícios que a superinteligência pode trazer à sociedade. Para esses atores, o progresso rápido é visto como motor de avanços em saúde, educação, produtividade e solução de problemas complexos, da mudança climática ao design de novos materiais. A confiança empresarial se baseia na premissa de que riscos podem ser mitigados durante o processo de inovação, em vez de suspender completamente os experimentos.

Tal divergência cria um impasse: de um lado, pesquisadores e figuras públicas sugerem congelar a pesquisa até que existam salvaguardas tangíveis; de outro, lideranças do setor privado defendem que os ganhos potenciais justificam o ritmo atual de desenvolvimento. O debate sobre onde traçar a linha entre prudência e progresso permanece aberto.

Estratégia de comunicação do Future of Life Institute

Ao optar por um texto breve, a ONG adotou uma abordagem inclusiva, buscando ampliar a coalizão de apoiadores antes de entrar em discussões técnicas detalhadas. O passo seguinte, já anunciado pelo FLI, será a realização de debates públicos, fóruns científicos e possivelmente a redação de propostas de lei para regular o setor. A ideia é usar o impulso obtido com as mais de mil assinaturas como argumento político a favor de regras claras e internacionalmente coordenadas.

Essa metodologia gradativa reflete a percepção de que, para influenciar políticas, é necessário primeiro demonstrar consenso social. Ao reunir personalidades de origens diversas, o instituto procura evidenciar que a inquietação com superinteligências não é restrita a um nicho acadêmico, mas ecoa em diferentes segmentos da sociedade.

Tempo, legislação e governança

A urgência do apelo se contrapõe à morosidade típica de processos legislativos nacionais e multilaterais. O manifesto reconhece que, embora a comunidade científica possa chegar a um entendimento sobre segurança, a legitimação pública requer consultas, audiências e, eventualmente, votações parlamentares. Esse percurso pode demorar mais do que o intervalo necessário para a próxima grande inovação em IA, intensificando o receio de que a regulação chegue tarde demais.

Além das instâncias parlamentares, a governança dessas tecnologias envolve agências reguladoras, organismos internacionais e comitês éticos. Em todos esses espaços, os signatários planejam defender a implementação de testes de segurança rigorosos, limitações de acesso a poder computacional e mecanismos de auditoria externos. Contudo, todas essas medidas ainda dependem de acordos concretos entre setores público e privado.

Perspectivas para os próximos anos

À medida que a década avança, o campo da inteligência artificial corre em direção a modelos cada vez mais complexos e capazes. A carta divulgada pelo FLI representa, portanto, um contraponto institucional a essa aceleração. Ela insta os desenvolvedores a pausarem um ramo específico da pesquisa — a superinteligência — até que o planeta disponha de estruturas suficientes para minimizar riscos sistêmicos.

Nesse cenário, o desfecho dependerá do equilíbrio entre incentivos econômicos, pressões sociais e provas científicas. Caso os argumentos dos signatários ganhem tração, é possível que governos adotem moratórias temporárias, padrões de certificação ou licenças compulsórias. Se as empresas prevalecerem na defesa de continuidade, a regulação pode assumir forma mais flexível, baseada em autorregulação e monitoramento pós-lançamento. Qualquer que seja o resultado, o manifesto já consolidou a pauta da segurança em superinteligência como tema central na agenda tecnológica global.

zairasilva

Olá! Eu sou a Zaira Silva — apaixonada por marketing digital, criação de conteúdo e tudo que envolve compartilhar conhecimento de forma simples e acessível. Gosto de transformar temas complexos em conteúdos claros, úteis e bem organizados. Se você também acredita no poder da informação bem feita, estamos no mesmo caminho. ✨📚No tempo livre, Zaira gosta de viajar e fotografar paisagens urbanas e naturais, combinando sua curiosidade tecnológica com um olhar artístico. Acompanhe suas publicações para se manter atualizado com insights práticos e interessantes sobre o mundo da tecnologia.

Postagens Relacionadas

Deixe um comentário

Este site utiliza o Akismet para reduzir spam. Saiba como seus dados em comentários são processados.

Go up

Usamos cookies para garantir que oferecemos a melhor experiência em nosso site. Se você continuar a usar este site, assumiremos que você está satisfeito com ele. OK