Imagem realista mostra funcionários em escritório corporativo sob monitoramento digital da Meta para treinar IA, em cenário tecnológico e investigativo.

A Meta está instalando um software de monitoramento chamado Model Capability Initiative (MCI) nos computadores de funcionários nos Estados Unidos para capturar cliques, movimentos do mouse, teclas digitadas e capturas de tela ocasionais. A medida, revelada em memorando interno do Meta Superintelligence Labs em abril de 2026, tem como objetivo declarado treinar modelos de inteligência artificial em tarefas de interação humano-computador que a tecnologia ainda não consegue replicar com eficiência. A iniciativa levanta alertas imediatos sobre privacidade corporativa, vigilância no ambiente de trabalho e o futuro da força de trabalho em TI.

A Meta deu um passo que poucos esperavam, pelo menos de forma tão explícita. A empresa anunciou internamente a implantação do Model Capability Initiative (MCI), um software instalado nos computadores de funcionários nos Estados Unidos capaz de registrar cliques, movimentos do mouse, teclas digitadas e capturas de tela periódicas. O objetivo declarado é usar esses dados comportamentais para treinar modelos de inteligência artificial. Para líderes de TI e Cibersegurança, o sinal não poderia ser mais direto, o monitoramento de funcionários para treinar IA está deixando de ser especulação e se tornando política corporativa real.

O que é o MCI e como ele funciona na prática

O MCI opera de forma contínua enquanto o funcionário realiza suas tarefas diárias. Não é necessária nenhuma ação específica, a simples interação com aplicativos e sites relacionados ao trabalho já alimenta o sistema. Isso inclui ações como navegar em menus suspensos, usar atalhos de teclado e executar fluxos de trabalho rotineiros.

O porta-voz Andy Stone foi categórico ao afirmar que os dados coletados serão usados exclusivamente para treinamento de IA, e não para avaliação de desempenho individual. No entanto, a distinção entre as duas finalidades é difícil de auditar na prática e essa ambiguidade já preocupa especialistas.

A iniciativa foi divulgada por meio de memorando interno do Meta Superintelligence Labs e integra uma reestruturação mais ampla da empresa. A Meta planeja investir cerca de 140 bilhões de dólares em IA em 2026, e o MCI se encaixa em sua estratégia de desenvolver agentes autônomos capazes de operar computadores com a mesma fluência que um humano experiente.

Por que isso importa para executivos de TI e Cibersegurança

Para diretores de tecnologia e líderes de segurança da informação, a iniciativa da Meta levanta questões que vão além da ética interna de uma empresa concorrente. Ela sinaliza uma tendência que pode se disseminar rapidamente pelo setor.

Primeiro, há o risco de normalização. Se a Meta, uma das empresas mais observadas do mundo, institucionaliza o monitoramento de funcionários para treinar IA sem enfrentar consequências imediatas, outras organizações podem seguir o mesmo caminho, inclusive dentro do Brasil e da Europa.

Segundo, há o impacto direto na postura de segurança corporativa. Ferramentas que capturam keystrokes e screenshots em escala representam superfícies de ataque consideráveis. Um comprometimento desse sistema poderia expor padrões de comportamento de centenas ou milhares de funcionários, informação valiosa para adversários sofisticados.

Terceiro, o equilíbrio de poder muda com o simples conhecimento de estar sendo monitorado. O professor Valerio De Stefano, da York University, alertou que a consciência da vigilância altera o comportamento dos trabalhadores de forma estrutural, um fenômeno com raízes no conceito do panóptico e que, no ambiente corporativo, pode afetar criatividade, comunicação e bem-estar.

Demissões em massa e a corrida por dados comportamentais

O contexto em que o MCI surge não é neutro. A Meta planeja demitir cerca de 10% de sua força de trabalho global a partir de maio de 2026. Já foram desligados aproximadamente 2.000 funcionários em 2026, e as vagas abertas caíram de cerca de 800 para apenas 7 em março. A empresa está, ao mesmo tempo, coletando dados comportamentais de seus funcionários e reduzindo ativamente o quadro humano.

A leitura que especialistas fazem dessa combinação é direta: a Meta usa os trabalhadores como fonte de dados para construir os sistemas que, em parte, justificarão futuras substituições. Não se trata de ficção científica, é uma decisão estratégica com implicações imediatas para o mercado de trabalho em TI.

Além disso, a empresa quase adquiriu a Scale AI por mais de 14 bilhões de dólares em 2025, o que demonstra o quanto está disposta a pagar por dados de qualidade para treinamento de modelos. O MCI pode ser visto como uma alternativa interna a esse tipo de aquisição, mais barata e com dados ainda mais contextualizados.

Regulação: o que mudaria se isso acontecesse na Europa

Especialistas em proteção de dados foram unânimes: a prática provavelmente seria ilegal em países europeus sob o GDPR. A coleta sistemática de keystrokes e capturas de tela sem uma base legal robusta, e sem que o consentimento seja verdadeiramente livre em uma relação de emprego, conflita com princípios centrais da regulação europeia.

No Brasil, a discussão é igualmente relevante. A LGPD exige que o tratamento de dados pessoais de funcionários tenha finalidade legítima, necessidade comprovada e transparência adequada. A afirmação de que os dados não serão usados para avaliação de desempenho, feita apenas por um porta-voz, dificilmente satisfaria os requisitos de uma política de privacidade audível e documentada.

Para CISOs e DPOs brasileiros, o caso Meta serve como ponto de referência prático: antes de cogitar iniciativas semelhantes, seja para treinar IA interna ou para fins de produtividade, o caminho jurídico precisa estar completamente pavimentado.

O que líderes de tecnologia devem observar agora

A iniciativa da Meta não é um evento isolado. É parte de uma corrida por dados comportamentais de alta qualidade que as grandes empresas de tecnologia estão travando. Dados de interação humano-computador coletados em ambiente real são escassos no mercado público — e imensamente valiosos para treinar agentes de IA autônomos.

Para executivos de TI, o momento pede atenção em três frentes: revisar as políticas internas de monitoramento à luz da legislação vigente; preparar as equipes para o debate inevitável com RH e Jurídico sobre os limites do uso de dados de colaboradores; e acompanhar como reguladores em diferentes jurisdições vão responder a esse tipo de prática nas próximas semanas.

O monitoramento de funcionários para treinar IA chegou ao mainstream corporativo. A questão agora não é se outras empresas vão considerar algo semelhante, é quando e com quais salvaguardas.

Siga o Itshow no LinkedIn e assine a nossa News para ficar por dentro de todas as notícias do setor de TI e Cibersegurança!