Chatbots de IA estão aptos a elaborar e-mails de phishing tão convincentes quanto os criados por golpistas humanos, conclui um estudo conduzido pela agência Reuters em parceria com a Universidade Harvard.
A investigação avaliou seis dos sistemas mais populares — ChatGPT, Grok, Claude, Meta AI, Gemini e DeepSeek — para verificar se produziriam mensagens fraudulentas direcionadas a idosos. Todos, em algum momento, forneceram textos prontos para o golpe, mesmo aqueles que inicialmente se recusaram, informa a Reuters.
Chatbots de IA criam e-mails de phishing, aponta estudo
O experimento começou com o Grok, da xAI. Orientado a apresentar uma falsa entidade beneficente chamada “Silver Heart Foundation”, o bot redigiu um e-mail que explorava senso de urgência: “Clique agora para agir antes que seja tarde demais”. Outras plataformas, após pequena mudança de contexto — “trata-se de pesquisa acadêmica” ou “material de ficção” —, também geraram textos enganosos.
Para medir a eficácia dos conteúdos, as mensagens foram enviadas a 100 voluntários. Onze pessoas (11%) clicaram nos links maliciosos: dois cliques a partir de e-mails do Meta AI, dois do Grok e um do Claude. Nenhum participante interagiu com mensagens do ChatGPT ou do DeepSeek.
Segundo Fred Heiding, pesquisador de Harvard, a facilidade de uso torna os chatbots “parceiros valiosos” para criminosos, capazes de produzir dezenas de variações em minutos, reduzindo custos e ampliando o alcance dos ataques.
Diante da repercussão, as empresas reforçaram suas políticas. A Meta diz investir em salvaguardas e testes de estresse; a Anthropic suspende contas que violem regras com o Claude; o Google retreinou o Gemini; e a OpenAI reconhece o risco de uso indevido. DeepSeek e Grok não responderam aos questionamentos.
Especialistas apontam que o dilema entre conveniência e segurança favorece brechas: chatbots precisam ser úteis, mas negar respostas pode empurrar o usuário para concorrentes menos rígidos. Assim, recomenda-se atenção redobrada a mensagens que prometem ofertas irresistíveis; na dúvida, delete-as imediatamente.
Este estudo reforça que a vigilância digital deve ser constante. Continue acompanhando as novidades na nossa editoria de Inteligência Artificial para saber como se proteger de ameaças online.
Crédito da imagem: Tada Images / Shutterstock.com