Uma mulher forte em um ambiente tecnológico futurista, com elementos digitais e símbolos de cibersegurança, sendo ameaçada por distorções digitais representando deepfakes. A cena transmite um conflito entre resistência e ameaça no setor de TI.

Um relatório publicado em 30 de abril de 2026 pela ONU Mulheres, em parceria com a Universidade City St George’s de Londres e o laboratório forense digital TheNerve, revela que ataques coordenados com deepfakes e inteligência artificial estão silenciando mulheres jornalistas, ativistas e defensoras de direitos humanos ao redor do mundo. O estudo ouviu 641 profissionais de 119 países e expõe uma crise global de violência de gênero digital com consequências diretas para empresas de tecnologia, plataformas digitais e equipes de cibersegurança.

A inteligência artificial chegou a um ponto de inflexão perigoso. Um novo relatório da ONU Mulheres, divulgado em 30 de abril de 2026, documenta como deepfakes e ferramentas de IA estão sendo usados de forma deliberada e coordenada para atacar mulheres na vida pública. O estudo tem um nome preciso: Tipping Point: Online violence impacts, manifestations and redress in the AI age.

Os números são difíceis de ignorar. Mais de 70% das mulheres que atuam publicamente já sofreram algum tipo de violência online, segundo a própria ONU Mulheres. Mulheres são 27 vezes mais propensas que homens a serem alvo de conteúdos sexualizados. E os deepfakes estão no centro dessa escalada: vídeos manipulados eram 550% mais prevalentes em 2023 do que em 2019.

O que os dados do relatório revelam sobre a crise

A pesquisa ouviu 641 jornalistas, trabalhadoras de mídia, ativistas e defensoras de direitos humanos de 119 países no final de 2025. Os resultados traçam um padrão claro de dano sistemático.

41% das respondentes admitiram ter se autocensurado nas redes sociais para evitar novos ataques. Outras 19% recuaram em se manifestar profissionalmente por causa da violência sofrida. O silêncio, portanto, não é espontâneo. É uma consequência direta de ataques calculados.

As consequências para a saúde mental são igualmente graves. 24% desenvolveram ansiedade e depressão vinculadas à violência online. 13% receberam diagnóstico de Transtorno de Estresse Pós-Traumático. São profissionais afastadas de suas funções não por escolha, mas por coerção digital.

Quanto aos deepfakes especificamente: 6% das mulheres foram alvo direto de imagens e vídeos manipulados. Para ter dimensão do problema, a pornografia deepfake representava 98% de todos os vídeos deepfake online em 2023, e 99% desse conteúdo retratava mulheres.

Impacto direto para TI, cibersegurança e compliance

Para executivos de tecnologia, o relatório não é apenas um documento de direitos humanos. É um mapa de riscos regulatórios, operacionais e reputacionais que o setor de TI precisa começar a endereçar agora.

O primeiro ponto é a responsabilidade das plataformas. Empresas de tecnologia enfrentam pressão crescente para implementar monitoramento proativo e remoção de conteúdo abusivo gerado por IA dentro de prazos obrigatórios. A tolerância regulatória está chegando ao fim. Sanções financeiras reais estão na mesa em múltiplas jurisdições.

O segundo ponto é a forense digital. A presença da empresa TheNerve, fundada pela jornalista e Nobel da Paz Maria Ressa, como parceira do próprio relatório da ONU é um sinal de mercado. A demanda por capacidades forenses para identificar deepfakes, preservar evidências e apoiar processos judiciais vai crescer de forma acelerada. Empresas que já desenvolvem essa expertise saem na frente.

O terceiro ponto é a detecção de mídia sintética. Ferramentas como watermarking digital e os chamados Content Credentials ganham urgência. O mercado de autenticação de mídia ainda é incipiente, mas o contexto regulatório e os dados do relatório da ONU apontam para uma janela de oportunidade clara para fornecedores de segurança.

O quarto ponto é a governança algorítmica. O relatório é explícito: algoritmos de redes sociais amplificam discurso de ódio misógino por design. Isso pressiona empresas de TI a revisar sistemas de recomendação e moderação de conteúdo. Para líderes de produto e segurança, isso significa auditorias algorítmicas que antes eram opcionais passando a ser esperadas por reguladores e parceiros corporativos.

Lacunas legais criam demanda por profissionais de segurança digital

O quadro legislativo global ainda está muito atrás da realidade tecnológica. Menos da metade dos países possuem leis que tratam do abuso online. Ainda menos têm legislação específica para conteúdo deepfake gerado por IA.

Essa lacuna tem consequências práticas para o setor privado. Quando a lei não chega, as vítimas buscam alternativas. 25% das mulheres do estudo reportaram os incidentes à polícia, mas apenas 15% chegaram a tomar medidas legais. E 24% das que acionaram a polícia relataram ter sido culpabilizadas pelos agentes.

Autoridades frequentemente orientam as vítimas a se afastar das redes sociais ou de cargos visíveis, em vez de responsabilizar os agressores. Essa falha sistêmica cria uma demanda real por soluções privadas: empresas de cibersegurança, plataformas de proteção de identidade digital e consultorias de compliance jurídico-tecnológico são chamadas a preencher o vácuo deixado pelo Estado.

Para gestores de TI em grandes organizações, o risco também é interno. 27% das mulheres relataram ter recebido avanços sexuais não solicitados via mensagens diretas, incluindo cyberflashing e sexting não consensual. Ambientes corporativos que usam plataformas de comunicação digital precisam avaliar sua exposição a esses vetores de assédio e as responsabilidades legais associadas.

O que líderes de TI precisam fazer agora

O relatório da ONU Mulheres é, na prática, um catalisador. Ele formaliza, com dados de escala global, uma realidade que o setor de tecnologia já conhecia de forma fragmentada. A pergunta para executivos de TI não é mais se deepfakes representam um risco corporativo e regulatório. A pergunta é quando a sua organização vai colocar isso na agenda de segurança.

Três movimentos são imediatos. Primeiro, avaliar se os sistemas internos de comunicação e as plataformas usadas pela empresa possuem controles contra conteúdo manipulado e abuso digital. Segundo, mapear a exposição regulatória da organização frente às legislações emergentes sobre IA generativa e abuso online. Terceiro, considerar investimentos em ferramentas de detecção de mídia sintética e em capacitação de equipes de segurança para identificar e responder a incidentes envolvendo deepfakes.

A tecnologia que cria o problema é a mesma que pode conter seus efeitos. O setor de TI tem a responsabilidade e a oportunidade de liderar essa resposta.

Siga o Itshow no LinkedIn e assine a nossa News para ficar por dentro de todas as notícias do setor de TI e Cibersegurança!