Vírus experimental usa ChatGPT para criar e-mails e se tornar ‘invisível’

Um vírus criado por especialistas em computação aproveitou as capacidades do ChatGPT para gerar mensagens, escapar das ferramentas de detecção e se espalhar, mostrando como os bots inteligentes podem ser usados de forma maliciosa. Detalhes sobre o experimento foram divulgados no final de junho na plataforma arXiv.

No experimento, o pós-graduando em Ciência da Computação, David Zollikofer, e o pesquisador de malware, Ben Zimmerman, desenvolveram um arquivo que infecta PCs na forma de um anexo de e-mail. Eles pediram ao modelo de IA generativa da OpenAI que reescrevesse o código, alterando as nomeações das variáveis e a sua lógica.

Discussões sobre o uso malicioso das IAs generativas são cada vez mais frequentes.Fonte:  Getty Images/Reprodução 

O resultado, batizado de “synthetic cancer”, foi um vírus com a camuflagem perfeita, pois é capaz de ficar invisível às varreduras feitas pelos softwares de segurança. No dispositivo da vítima, o arquivo malicioso abre o Outlook, escreve e-mails com conteúdos relevantes, usando o ChatGPT, e se anexa às mensagens.

Esses e-mails são enviados aos contatos da pessoa, possibilitando a disseminação do malware que fará o mesmo no próximo dispositivo, se aberto. Os autores do estudo destacaram que as mensagens redigidas pelo bot são bastante convincentes, facilitando o uso em campanhas de engenharia social.

“Ponta do iceberg”

Os responsáveis pelo vírus experimental que usa o ChatGPT para se tornar invisível e escrever e-mails falsos ressaltaram que o arquivo malicioso é um “protótipo mínimo funcional” e ainda assim se mostrou eficiente. Eles também disseram que, em alguns casos, a IA desconfiou das intenções do malware e não obedeceu aos comandos.

Diante disso, Zollikofer e Zimmerman reafirmaram a necessidade de mais pesquisas sobre o uso da IA no desenvolvimento de malwares, citando os riscos que a tecnologia pode trazer. Especialista em segurança cibernética, o pesquisador da Universidade de Surrey, Alan Woodward, acredita que vírus como esse são apenas a ponta do iceberg.

Acho que deveríamos estar preocupados. Existem várias maneiras pelas quais já sabemos que os LLMs (modelos de linguagens) podem ser abusados, mas a parte assustadora é que as técnicas podem ser melhoradas pedindo ajuda à própria tecnologia”, explicou, em entrevista à NewScientist.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *