Editorial

Quando o malware aprende: a segurança digital diante de uma nova realidade

Compartilhar
Compartilhar

Por Josemir Constantino Bispo

Relatórios recentes do Google Threat Intelligence Group (GTIG) confirmaram algo que profissionais de segurança da informação já vinham observando com atenção: a inteligência artificial deixou de ser apenas uma ferramenta de produtividade ou inovação e passou a integrar, de forma operacional, o arsenal de ataques cibernéticos.

Em 5 de novembro de 2025, o GTIG tornou pública a identificação de novas famílias de malware capazes de utilizar modelos de linguagem em tempo real para reescrever, adaptar e ofuscar seu próprio código durante a execução. É a primeira confirmação documentada de ataques ativos que integram LLMs de forma dinâmica, no momento do ataque.

Não estamos mais lidando apenas com códigos maliciosos estáticos, que podem ser catalogados, assinados e bloqueados por padrões conhecidos. Estamos diante de softwares maliciosos que aprendem, testam e se adaptam em tempo real.

O que está acontecendo, de fato

Entre os exemplos analisados, destaca-se o PROMPTFLUX, que chegou a consultar a API do Google Gemini para gerar versões ofuscadas de si mesmo. Outras famílias, como QUIETVAULT, PromptSteal e PromptLock, utilizam IA para furtar credenciais, publicar segredos sensíveis ou gerar payloads sob demanda, conforme o ambiente atacado.

Esses malwares fazem chamadas diretas a modelos de linguagem, locais ou em nuvem, por meio de prompts previamente programados. O código retornado pelo modelo é incorporado imediatamente à execução do malware, dificultando de forma significativa a detecção por sistemas tradicionais baseados em assinaturas estáticas.

Esse ponto é central: o tempo de adaptação do ataque passou a ser menor do que o tempo de análise da defesa.

Por que a segurança digital precisa evoluir com a inteligência artificial

É importante deixar claro: não há, até o momento, evidência pública de malware totalmente autônomo, autoconsciente ou em ampla propagação massiva. Os casos documentados ainda são considerados isolados e direcionados.

No entanto, isso não reduz a gravidade do cenário.

O que muda é a lógica da ameaça. O uso operacional de modelos de linguagem em ataques reais inaugura uma nova fase da segurança cibernética, na qual o adversário não apenas executa um código, mas aprende durante a própria ofensiva.

O impacto para o setor público

Para organizações públicas, o alerta é ainda mais sensível. Infraestruturas governamentais concentram dados estratégicos, serviços essenciais e informações de milhões de cidadãos. Não se trata apenas de proteger sistemas, mas de garantir continuidade de serviços, confiança institucional e soberania digital.

Esse novo contexto exige:

  • abandonar a dependência exclusiva de defesas baseadas em assinatura;
  • investir em detecção comportamental e análise de anomalias;
  • fortalecer governança de dados e segurança;
  • e, sobretudo, compreender que modelos de linguagem são agora parte do cenário de risco.

A mesma tecnologia que ataca também defende

A resposta não está no medo nem na negação. Assim como a inteligência artificial passou a ser usada no ataque, ela será fundamental na defesa: para prever comportamentos, correlacionar eventos, automatizar respostas e elevar o nível de resiliência digital.

A questão central não é se a IA deve ser considerada na segurança da informação, mas como e com que maturidade.

A tecnologia evoluiu. A ameaça também.
Cabe às instituições públicas evoluírem na mesma velocidade, com estratégia, governança e responsabilidade.

– – – – –

Josemir Constantino Bispo é diretor de Tecnologia, Inteligência Artificial e Projetos Especiais da Educativa MS. Com mais de 20 anos de experiência em tecnologia, contribui com reflexões sobre segurança digital, inteligência artificial e transformação digital no setor público.

Compartilhar

Deixe um comentário

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *