Especialistas antecipam integração da IA em armas nucleares e alertam para riscos
Vários especialistas em segurança nuclear consideram inevitável a inclusão de sistemas de inteligência artificial generativa no controlo de arsenais atómicos, alerta lançado durante uma conferência realizada na Universidade de Chicago, nos Estados Unidos. O encontro reuniu cientistas, laureados com o Prémio Nobel, militares e antigos responsáveis governamentais, que analisaram o impacto crescente da IA no domínio militar.
Porquê a IA no sector nuclear preocupa os especialistas
As forças armadas de diferentes países já utilizam algoritmos para análise de dados de inteligência e para reforçar mecanismos de alerta antecipado. De acordo com os participantes, o próximo passo consistirá em transferir a tomada de decisão para plataformas capazes de aprender e agir de forma autónoma, inclusive no contexto nuclear.
Os especialistas referiram três argumentos que, do ponto de vista operacional, impulsionam essa transição:
- Velocidade de decisão: em cenários de grande urgência, a IA processa informação e emite recomendações em segundos.
- Deteção aprimorada: algoritmos avançados elevam a capacidade de identificar lançamentos, movimentações e ameaças antes de sensores tradicionais.
- Automatização de resposta: sistemas alimentados por IA podem acionar defesas sem intervenção humana, reduzindo eventuais atrasos.
Apesar destas vantagens, o grupo destacou riscos elevados caso o software interprete mal dados de satélite, comunicações interceptadas ou sinais de radar. Um erro pode desencadear um contra-ataque nuclear injustificado.
Falhas históricas reforçam necessidade de supervisão humana
O professor Herb Lin, da Universidade de Stanford, recordou o incidente de 1983 em que o tenente-coronel soviético Stanislav Petrov decidiu ignorar um alerta automático que indicava um ataque nuclear dos Estados Unidos. A decisão humana impediu uma escalada atómica. Para Lin, sistemas baseados em IA “não conseguem questionar os próprios dados de treino”, aumentando a probabilidade de repetir enganos que, no passado, foram detetados por operadores experientes.
Recomendações urgentes dirigidas aos governos
No final da reunião, os participantes divulgaram uma declaração com medidas consideradas essenciais para reduzir o risco nuclear:
– Proibir testes nucleares em todos os países;
– Condenar a proliferação de armas atómicas por qualquer nação;
– Renovar os acordos de redução entre Rússia e Estados Unidos, substituindo o tratado que expira em breve;
– Solicitar maior transparência à China sobre o seu arsenal.
Os signatários salientaram que o contexto geopolítico actual, marcado pela guerra na Ucrânia, por tensões no Médio Oriente e pelo avanço do programa norte-coreano, aumenta a probabilidade de erro de cálculo. O cruzamento entre IA e desinformação é visto como factor adicional de instabilidade, pois pode gerar falsos alertas ou manipular decisões políticas.
Corrida tecnológica em curso
Embora não tenham sido divulgados detalhes sobre projectos específicos, fontes presentes no evento referiram indícios de uma competição acelerada entre potências nucleares para integrar IA em sistemas de comando, controlo e comunicações. A procura por superioridade em tempo de resposta está a levar laboratórios governamentais e contratantes privados a desenvolver modelos que aprendem continuamente a partir de dados de vigilância global.
Os especialistas concordam que, à medida que a tecnologia se torna mais acessível, outros actores poderão tentar replicar essas soluções, aumentando o risco de proliferação tecnológica para estados com menor experiência em gestão nuclear.
Contexto histórico reforça o alerta
O debate ocorreu dias antes do 80.º aniversário dos bombardeamentos de Hiroshima e Nagasaki, que causaram mais de 200 mil mortes entre 6 e 9 de Agosto de 1945. Para os presentes, a efeméride recorda o impacto humano de decisões tomadas em momentos de conflito e sublinha a necessidade de manter “o dedo humano no gatilho” sempre que a destruição em massa é uma possibilidade.
Os participantes concluíram que apenas um quadro internacional robusto conseguirá equilibrar os benefícios da IA militar com a segurança colectiva. Até lá, consideram “apenas uma questão de tempo” até que sistemas nucleares passem a depender de algoritmos que, se falharem, poderão desencadear consequências irreversíveis.

Imagem: Getty Images via tecmundo.com.br