Malwares impulsionados por IA revelam nova fase de ataques cibernéticos, alerta Google

Palavra-chave principal: malwares com IA
- O que o Google identificou
- Quem está no centro do relatório
- Quando e onde a mudança entrou em cena
- Como os malwares se tornam autônomos
- Principais famílias identificadas
- Por que a evolução preocupa
- Caminhos adotados por grupos patrocinados por Estados
- Mercado clandestino de IA
- Comparação entre códigos estáticos e dinâmicos
- Consequências projetadas pelo Google
- Riscos amplificados para organizações
- Elementos que permanecem constantes
- Visão geral consolidada
O que o Google identificou
Pesquisa publicada pelo Google Threat Intelligence Group (GTIG) em 5 de novembro de 2025 detalha a primeira ocorrência confirmada de malwares que utilizam inteligência artificial generativa para modificar seu próprio código durante a execução de ataques. O levantamento aprofunda dados apresentados pela companhia no início do ano e consolida a constatação de que modelos de linguagem de grande escala, como o Gemini, já estão sendo aplicados diretamente em campanhas maliciosas.
Quem está no centro do relatório
Os protagonistas do documento são, de um lado, os pesquisadores do GTIG, responsáveis por mapear o cenário de ameaças, e, de outro, os desenvolvedores de novas famílias de softwares maliciosos – grupos associados ao cibercrime tradicional e a ameaças patrocinadas por Estados. Segundo o Google, hackers vinculados a Coreia do Norte, Irã e China figuram entre os usuários mais ativos do recurso, buscando vantagem operacional em cada estágio de suas investidas.
Quando e onde a mudança entrou em cena
O marco temporal apontado pelo GTIG é o segundo semestre de 2025, período em que o uso de IA generativa deixou de ser apenas experimental e passou a se manifestar em atividades ofensivas observáveis em ambientes reais. O Gemini, modelo de linguagem mantido pela própria Google, aparece como ferramenta central. Embora o serviço possua barreiras contra usos indevidos, técnicas de engenharia social – nas quais criminosos se fazem passar por pesquisadores ou estudantes – permitiram contornar restrições e tirar proveito dos recursos mais avançados do modelo.
Como os malwares se tornam autônomos
Os analistas descrevem o conceito de automodificação just-in-time. Nessa abordagem, o código malicioso abandona a forma estática e passa a se reescrever conforme o contexto, valendo-se de prompts enviados ao modelo de linguagem. A cada novo alvo, o binário pode:
• Regerar trechos inteiros do script para alterar assinaturas e escapar de antivírus.
• Inserir rotinas sob demanda, ampliando o conjunto de funcionalidades maliciosas.
• Ofuscar instruções antes de cada execução, encurtando a janela de detecção.
Principais famílias identificadas
O relatório destaca cinco programas que ilustram a tendência.
PromptFlux
Detectado alterando o próprio código com o auxílio do Gemini, o PromptFlux reescreve funções críticas a cada fase do ataque. Esse comportamento dinâmico garante camadas extras de furtividade e dificulta a criação de assinaturas de bloqueio.
PromptSteal
Voltado à extração de dados, o PromptSteal utiliza IA para aumentar técnicas de ofuscação e adaptar módulos de coleta conforme o ambiente da vítima, maximizando a obtenção de credenciais sensíveis.
FruitShell
Com foco em escapar de mecanismos baseados em IA, o FruitShell emprega adversarial prompts que confundem modelos defensivos e reduzem a eficácia de classificadores automáticos de malware.
PromptLock
Descrito como variante experimental de ransomware, o PromptLock gera e executa scripts maliciosos em ciclos sucessivos, ajustando a carga útil para manter a criptografia de arquivos operante mesmo após tentativas de mitigação.
QuietVault
Especializado no roubo de credenciais, o QuietVault amplia a busca por dados no dispositivo infectado, vasculhando repositórios como GitHub e NPM. A integração com IA permite identificar informações valiosas além das credenciais de desenvolvedor originalmente visadas.
Por que a evolução preocupa
Segundo o GTIG, a combinação de capacidade autodidata com adaptação em tempo real traz consequências diretas para o ecossistema de segurança:
Maior imprevisibilidade: a cada execução, o código sofre alterações, reduzindo a repetibilidade de amostras usadas em análises laboratoriais.
Detecção retardada: mecanismos tradicionais, que dependem de assinaturas fixas, tornam-se menos eficazes contra variantes geradas “na hora”.
Barreira de entrada reduzida: fóruns clandestinos já disponibilizam ferramentas de IA como serviço, permitindo que operadores com pouca bagagem técnica implementem rotinas avançadas de ofuscação e phishing.
Caminhos adotados por grupos patrocinados por Estados
O documento aponta que coletivos associados a governos adversários exploram o Gemini para otimizar diversas etapas de suas campanhas, incluindo:
• Produção de e-mails de phishing mais convincentes e segmentados.
• Automatização da pesquisa de vulnerabilidades em infraestrutura crítica.
• Geração de relatórios falsos ou mensagens que induzem a vítima a revelar credenciais.
A motivação central é ganhar escala sem incrementar custos operacionais, beneficiando operações já consolidadas de espionagem e sabotagem digital.
Mercado clandestino de IA
O GTIG registrou expansão do comércio de recursos de IA em fóruns especializados. Entre os itens ofertados estão prompts prontos, modelos ajustados para burlar filtros e pacotes de código que integram APIs de linguagem em kits de malware. O fenômeno democratiza o acesso a capacidades antes restritas a atores de alto nível, alimentando um ciclo de inovação criminosa.
Comparação entre códigos estáticos e dinâmicos
No paradigma tradicional, um vírus ou trojan é compilado com um conjunto fixo de instruções e, uma vez distribuído, mantém a mesma estrutura até ser atualizado manualmente. Com a adoção de IA, cada instância torna-se um organismo em mutação. O ciclo envolve:
1. Coleta de contexto – O malware analisa o ambiente local, identificando sistema operacional, softwares instalados e privilégios.
2. Envio de prompt – As informações coletadas são repassadas ao modelo de linguagem, que retorna código personalizado.
3. Incorporação – O programa injeta as rotinas geradas, substituindo partes antigas ou anexando novos módulos.
4. Execução – A versão recém-criada realiza a ação maliciosa, como exfiltrar dados ou cifrar arquivos.
Esse fluxo se repete, criando uma cadeia de versões que compartilha apenas objetivos, não necessariamente a mesma assinatura binária.
Consequências projetadas pelo Google
O GTIG indica que o uso de IA no cibercrime deve se tornar tendência dominante nos próximos anos. A previsão baseia-se na facilidade com que:
• Modelos de linguagem produzem código funcional mesmo a partir de descrições simples.
• Hackers empregam engenharia social para acessar serviços que, em teoria, bloqueiam usos maliciosos.
• Recursos de defesa atuais ainda dependem de detecção baseada em padrão e comportamento repetitivo, pouco eficaz diante de ameaças fluidas.
Riscos amplificados para organizações
Empresas, governos e usuários domésticos enfrentam agora ameaças que podem reconfigurar-se depois de implantadas. A cada tentativa de erradicação, o malware pode gerar novo código, evitando rotinas de remoção automatizadas e tornando a resposta a incidentes mais complexa.
Elementos que permanecem constantes
Apesar das inovações, algumas premissas históricas continuam válidas:
• A engenharia social permanece como vetor de entrada predominante, seja para obter acesso a modelos de IA, seja para convencer vítimas a executar arquivos.
• O objetivo principal ainda é monetização ou espionagem, traduzido em roubo de dados, extorsão ou obtenção de propriedade intelectual.
• Boas práticas de segurança – atualizações, backups e educação dos usuários – mantêm relevância, embora exijam reforço diante da nova variável que é a automodificação orientada por IA.
Visão geral consolidada
O relatório do GTIG sinaliza um ponto de inflexão na história do cibercrime. Com a chegada de malwares capazes de dialogar com modelos de linguagem e se aprimorar em tempo real, defensores precisam repensar métodos de detecção, investindo em abordagens que considerem variabilidade constante e geração automática de código. A capacidade humana de investigação, combinada a modelos de IA defensivos, emerge como contraponto necessário para acompanhar a curva de evolução das ameaças descritas.
Deixe um comentário
Você precisa fazer o login para publicar um comentário.

Conteúdo Relacionado