Por Josemir Constantino Bispo
Relatórios recentes do Google Threat Intelligence Group (GTIG) confirmaram algo que profissionais de segurança da informação já vinham observando com atenção: a inteligência artificial deixou de ser apenas uma ferramenta de produtividade ou inovação e passou a integrar, de forma operacional, o arsenal de ataques cibernéticos.
Em 5 de novembro de 2025, o GTIG tornou pública a identificação de novas famílias de malware capazes de utilizar modelos de linguagem em tempo real para reescrever, adaptar e ofuscar seu próprio código durante a execução. É a primeira confirmação documentada de ataques ativos que integram LLMs de forma dinâmica, no momento do ataque.
Não estamos mais lidando apenas com códigos maliciosos estáticos, que podem ser catalogados, assinados e bloqueados por padrões conhecidos. Estamos diante de softwares maliciosos que aprendem, testam e se adaptam em tempo real.
O que está acontecendo, de fato
Entre os exemplos analisados, destaca-se o PROMPTFLUX, que chegou a consultar a API do Google Gemini para gerar versões ofuscadas de si mesmo. Outras famílias, como QUIETVAULT, PromptSteal e PromptLock, utilizam IA para furtar credenciais, publicar segredos sensíveis ou gerar payloads sob demanda, conforme o ambiente atacado.
Esses malwares fazem chamadas diretas a modelos de linguagem, locais ou em nuvem, por meio de prompts previamente programados. O código retornado pelo modelo é incorporado imediatamente à execução do malware, dificultando de forma significativa a detecção por sistemas tradicionais baseados em assinaturas estáticas.
Esse ponto é central: o tempo de adaptação do ataque passou a ser menor do que o tempo de análise da defesa.
Por que a segurança digital precisa evoluir com a inteligência artificial
É importante deixar claro: não há, até o momento, evidência pública de malware totalmente autônomo, autoconsciente ou em ampla propagação massiva. Os casos documentados ainda são considerados isolados e direcionados.
No entanto, isso não reduz a gravidade do cenário.
O que muda é a lógica da ameaça. O uso operacional de modelos de linguagem em ataques reais inaugura uma nova fase da segurança cibernética, na qual o adversário não apenas executa um código, mas aprende durante a própria ofensiva.
O impacto para o setor público
Para organizações públicas, o alerta é ainda mais sensível. Infraestruturas governamentais concentram dados estratégicos, serviços essenciais e informações de milhões de cidadãos. Não se trata apenas de proteger sistemas, mas de garantir continuidade de serviços, confiança institucional e soberania digital.
Esse novo contexto exige:
- abandonar a dependência exclusiva de defesas baseadas em assinatura;
- investir em detecção comportamental e análise de anomalias;
- fortalecer governança de dados e segurança;
- e, sobretudo, compreender que modelos de linguagem são agora parte do cenário de risco.
A mesma tecnologia que ataca também defende
A resposta não está no medo nem na negação. Assim como a inteligência artificial passou a ser usada no ataque, ela será fundamental na defesa: para prever comportamentos, correlacionar eventos, automatizar respostas e elevar o nível de resiliência digital.
A questão central não é se a IA deve ser considerada na segurança da informação, mas como e com que maturidade.
A tecnologia evoluiu. A ameaça também.
Cabe às instituições públicas evoluírem na mesma velocidade, com estratégia, governança e responsabilidade.
– – – – –
Josemir Constantino Bispo é diretor de Tecnologia, Inteligência Artificial e Projetos Especiais da Educativa MS. Com mais de 20 anos de experiência em tecnologia, contribui com reflexões sobre segurança digital, inteligência artificial e transformação digital no setor público.
Deixe um comentário