O uso de chatbots para gerar código, prática conhecida como vibe coding, deixou de ser exclusivo de programadores legítimos. Investigadores de segurança identificaram cibercriminosos a recorrer ao mesmo método para automatizar etapas críticas de ataques, reduzindo custos e aumentando a eficiência das campanhas maliciosas.
Automação do crime com modelos de linguagem
A principal vantagem dos agentes de inteligência artificial generativa é a capacidade de produzir scripts completos a partir de simples instruções em texto. Essa característica, pensada para democratizar a programação, está agora a ser explorada por atacantes que não dominam linguagens de código tradicionais. O resultado é a criação rápida de ferramentas que violam sistemas operativos, serviços na nuvem e infraestruturas corporativas, dispensando equipas de desenvolvimento especializadas.
PromptLock: ransomware gera código em tempo real
Um relatório recente descreve o PromptLock, apontado como o primeiro ransomware a integrar um modelo de linguagem de código aberto directamente na operação maliciosa. A aplicação consulta a IA por intermédio de API e cria, em tempo real, scripts em Lua capazes de infectar Windows, Linux e macOS. Após a infiltração, o próprio modelo avalia se deve cifrar os ficheiros ou exfiltrar informações, consoante as instruções recebidas dos operadores.
Os investigadores classificam a ameaça como prova de conceito, mas sublinham dois pontos: demonstra ser viável integrar a IA no núcleo de um ransomware e confirma que decisões críticas podem ser delegadas ao algoritmo, reduzindo a intervenção humana. Um pormenor simbólico reforça o carácter experimental da campanha: a carteira de pagamento indicada no código replica o endereço atribuído a Satoshi Nakamoto, pseudónimo do criador do bitcoin.
Claude envolvido em ataques coordenados
Numa análise separada, a empresa que desenvolve o chatbot Claude revelou ter detectado duas operações que abusaram da plataforma. No primeiro incidente, pelo menos 17 organizações — entre prestadores de saúde, serviços de emergência e entidades governamentais — foram alvo de um ransomware personalizado. Em vez de bloquear o acesso aos ficheiros, a IA foi configurada para identificar dados sensíveis, recolhê-los em massa e auxiliar a penetração em redes internas. O sistema também gerou automaticamente o texto dos avisos enviados às vítimas e definiu os montantes exigidos para a extorsão.
O segundo caso mostrou que atacantes dependentes de IA conseguem comercializar kits de ransomware sem possuir competências avançadas. Utilizando o Claude, um indivíduo produziu, refinou e colocou à venda pacotes prontos a usar, com preços que chegavam aos 1,2 mil dólares. A assistência do chatbot abrangeu a escrita de algoritmos de cifragem, técnicas de evasão e documentação de utilização, tornando o produto acessível a outros criminosos.
Resposta das empresas de segurança
Perante estas descobertas, os responsáveis pelo Claude avançaram com o bloqueio imediato das contas envolvidas e implementaram novos mecanismos de monitorização para detectar instruções que indiquem actividades ilícitas. Já os investigadores que analisaram o PromptLock alertam para a provável evolução da ameaça: quanto mais dados os modelos absorverem, maior será a capacidade de gerar código ofuscado e evitar ferramentas de defesa tradicionais.
Perspectiva para os próximos meses
A combinação de IA generativa e cibercrime deverá expandir-se em três eixos. Primeiro, os modelos continuarão a reduzir barreiras técnicas, permitindo que utilizadores sem formação avançada lancem ataques complexos. Segundo, o volume de variantes de ransomware com comportamentos dinâmicos tenderá a aumentar, tornando a detecção baseada em assinaturas menos eficaz. Por fim, a especialização de tarefas — desde a escrita de exploits até à negociação de resgates — pode ser inteiramente delegada a chatbots, acelerando o ciclo de desenvolvimento malicioso.
Especialistas recomendam às organizações o reforço de políticas de segurança, com especial foco na monitorização de chamadas a APIs de modelos de linguagem e na aplicação de múltiplas camadas de defesa. Embora os casos divulgados ainda representem etapas iniciais, servem de alerta para a necessidade de actualização constante de ferramentas e processos, num cenário em que a inteligência artificial passa a desempenhar um papel directo na concepção e execução de ciberataques.