Mythos: Robô futurista analisando código em tela holográfica, representando inteligência artificial identificando vulnerabilidades em sistemas de cibersegurança.

O Claude Mythos tem dado o que falar. Esse modelo da Anthropic não é voltado especificamente para cibersegurança, mas teria conseguido identificar e encadear vulnerabilidades, construir exploits funcionais e automatizar ataques, operando com baixíssima intervenção humana.

A Anthropic afirmou que o Mythos encontrou vulnerabilidades críticas nos principais sistemas operacionais e o OpenBSD, tão aclamado por alguns fãs por conta da sua segurança, teve uma falha de 27 anos identificada.

No caso de navegadores, a situação não foi muito diferente. O Mythos teria gerado
271 exploits funcionais para vulnerabilidades no Firefox, que foram corrigidas na
versão 150 lançada recentemente.

O que surpreende é que a velocidade e o volume de descobertas são muito maiores
do que temos visto no mercado. Por conta do elevado poder ofensivo do modelo, a
Anthropic declarou que não lançará ao público e tomou a iniciativa de abrir o Projeto Glasswing.

A assimetria que nenhuma lista de parceiros resolve

O Glasswing trata da liberação restrita do Mythos apenas para um “clube” fechado de empresas com foco em antecipar correções antes que a capacidade do modelo seja difundida entre cibercriminosos. Entre os participantes divulgados, estão presentes AWS, Apple, Broadcom, Cisco, Crowdstrike, Google, JPMorgan, Linux Foundation, Microsoft, Nvidia, Palo Alto. A iniciativa, ainda que louvável, não cobre nem de longe toda a superfície de ataque mundial. Essa assimetria é claramente um risco ao mercado. A pergunta que fica é: o “clube” está protegendo o mercado ou só está olhando para o próprio umbigo?

Há também uma assimetria clara entre a segurança defensiva e a ofensiva. A
inteligência artificial vai reduzir o custo e a habilidade necessária para identificar
vulnerabilidades, mas o lado defensivo continua dependendo de inventário, janela de
mudança, testes, priorização, dependência de fornecedores e equipes limitadas. Aliás,
a tecnologia de ponta pode morrer na praia quando encontra a realidade dos legados:
de nada serve uma falha detectada em segundos se o sistema afetado é um mamute
monolito de 30 anos que ninguém tem coragem sequer de reiniciar.

A OpenAI respondeu ao mesmo desafio com GPT-5.4-Cyber, mas usou uma
estratégia diferente: ao invés de restringir o acesso a um grupo de empresas, optou
por ampliar o acesso de forma controlada a especialistas da área. O GPT-5.4-Cyber,
lançado dias depois do Mythos, está sendo disponibilizado para profissionais
verificados via programa de acesso supervisionado através do site

O lançamento da OpenAI trata-se de um modelo voltado para workflows defensivos com capacidades avançadas de revisão de código, engenharia reversa e pesquisa de vulnerabilidades. Fatalmente, nasce um laboratório mundial de engenharia reversa onde dados e inputs de análises defensivas poderiam acabar contribuindo para treinar a capacidade ofensiva do modelo. Outra questão que surge: será que existe o risco de gray/black hats serem “verificados”, receberem o acesso a ferramenta e utilizarem para fins maliciosos?

Por falar em riscos: a Anthropic, recentemente abriu investigação após identificar
acessos não autorizados ao Mythos por conta de vulnerabilidades em fornecedores
terceirizados. O caso confirma o que a arquitetura do Glasswing já sinalizava: controlar
o acesso a um grupo fechado de parceiros não elimina o risco, apenas o desloca para
os elos mais fracos da cadeia.

Riscos à parte, talvez este avanço traga mais facilidade na execução do security by design de forma mais automatizada e contínua. Contudo, ainda assim, a defesa continuará em desvantagem até porque este processo depende de disciplina organizacional e governança. Para o atacante, basta encontrar uma única brecha.

Velocidade, resiliência e governança como vantagem competitiva

Se o cibercrime passa a usar inteligência artificial para disparar ataques em escala, a defesa precisa responder na mesma moeda. Isso não significa apenas adotar ferramentas de IA, mas sim reposicionar a IA como camada operacional em funções críticas, por exemplo:

  • Revisão de código: identificação contínua de padrões vulneráveis antes do deploy, sem depender exclusivamente de ciclos de auditoria manual;
  • Gestão de vulnerabilidades: priorização dinâmica baseada em contexto de negócio e de exploração real, não apenas em CVSS e EPSS estático;
  • Penetration tests e red teaming: simulação contínua de adversários, sem aguardar janelas semestrais ou anuais de avaliação;
  • Automação de GRC: monitoramento contínuo de conformidade e redução de lag entre controle implementado e evidência auditável;
  • Threat hunting e triagem de incidentes: compressão do tempo entre detecção e contenção, que é exatamente onde o atacante tem mais vantagem hoje.

As métricas tradicionais de segurança também precisam ser revistas. Indicadores como tempo de implantação de patch crítico ou MTTR devem ser calibrados para um ritmo acelerado de descoberta de fragilidades. Em um cenário onde falhas críticas são identificadas em volume e velocidade por modelos de IA, o intervalo entre disclosure e exploração pode colapsar de dias para horas. Isso exige que métricas como cobertura de inventário, percentual de sistemas com MFA resistente a phishing e segmentação de ativos deixem de ser acompanhadas como fotos e passem a ser indicadores monitorados em tempo quase real, com gatilhos automáticos de resposta quando os thresholds são violados.

É muito provável que lado defensivo continue sem conseguir correção para todas as vulnerabilidades. Porém, o grande desafio passa a ser reduzir drasticamente o tempo entre descoberta, correção, contenção e recuperação. No cenário em que estamos, com modelos de IA encontrando falhas críticas em minutos, a revisão de código, a gestão das vulnerabilidades, a automação de testes e de resposta a incidentes precisarão operar em outra velocidade. 

Empresas realmente preparadas serão aquelas capazes de se antecipar ao máximo e de responder rapidamente a incidentes, usando IA para acelerar sua própria defesa. No fim, talvez a vantagem competitiva não esteja em quem possui a IA mais poderosa, mas em quem consegue transformar velocidade em parte permanente do próprio modelo de operação e governança.

Nota: Este artigo reflete exclusivamente minha visão pessoal sobre o tema abordado. Exemplos, situações e reflexões aqui apresentados não se referem e nem estão vinculados a projetos, atividades ou contextos específicos dos meus empregadores, atuais ou anteriores, e tampouco derivam de quaisquer informações confidenciais ou internas.

Siga o Itshow no LinkedIn e assine a nossa News para ficar por dentro de todas as notícias do setor de TI e Cibersegurança!