
Microsoft, Google e xAI firmaram acordos com o governo dos Estados Unidos para fornecer acesso antecipado a seus modelos de inteligência artificial, antes do lançamento público, para que o Centro de Padrões e Inovação em IA (CAISI), do Departamento de Comércio, avalie riscos à segurança nacional. O anúncio, feito em maio de 2026, representa uma virada histórica na governança de IA e impõe um novo paradigma regulatório para todo o setor de tecnologia global.
Big Techs cedem acesso inédito ao governo dos EUA
O mercado de inteligência artificial acaba de cruzar uma linha sem volta. Microsoft, Google e xAI concordaram em entregar ao governo dos Estados Unidos versões de seus modelos de IA com salvaguardas de segurança removidas ou reduzidas, antes mesmo de qualquer lançamento público. O objetivo declarado é viabilizar a avaliação de modelos de IA pelo CAISI, o Centro de Padrões e Inovação em IA do Departamento de Comércio americano.
O Governo passa a ter visibilidade sobre capacidades ofensivas potenciais dos modelos antes que o mercado corporativo sequer saiba da existência deles. Isso muda o jogo regulatório, e operacional, para qualquer organização que dependa dessas plataformas.
O que o CAISI vai avaliar, e por que isso importa para CISOs
O CAISI já concluiu mais de 40 avaliações de modelos de IA, incluindo versões ainda fora do mercado. Com os novos acordos, a agência passa a investigar comportamentos inesperados, capacidades de exploração de vulnerabilidades e potencial de uso em ataques cibernéticos sofisticados.
A Microsoft afirmou que trabalhará diretamente com cientistas do governo para testar seus sistemas de IA, além de desenvolver datasets e fluxos de trabalho compartilhados. O Google e a xAI seguem linha semelhante. Juntas, as três empresas representam uma fatia dominante dos modelos de fronteira disponíveis no mercado corporativo.
Os modelos entregues terão salvaguardas reduzidas ou completamente removidas. Isso significa que o governo avaliará versões mais próximas do potencial bruto dessas IAs, incluindo capacidades que normalmente são bloqueadas para o usuário final. O risco de vazamento ou uso indevido dessas versões ainda não foi abordado publicamente pelas partes.

Pentágono, contratos bilionários e a exclusão da Anthropic
O Pentágono anunciou acordos com sete empresas de IA — Google, Microsoft, Amazon Web Services, Nvidia, OpenAI, Reflection e SpaceX, para implantar capacidades avançadas em redes classificadas do Departamento de Defesa. A iniciativa aprofunda a militarização da IA como vetor estratégico dos EUA.
Os contratos têm peso financeiro expressivo. OpenAI, Anthropic, Google e xAI receberam cada uma contratos de US$ 200 milhões com o governo americano em 2025. A xAI, de Elon Musk, já havia firmado contrato no mesmo valor pelo programa Grok for Government ainda em 2025.
Um nome, porém, ficou de fora do anúncio do Pentágono, a Anthropic. A empresa não foi incluída por conta de um conflito sobre restrições ao uso militar de suas ferramentas, uma decisão que revela a tensão crescente entre princípios éticos corporativos e demandas do Estado. A Anthropic e a OpenAI, que já tinham parcerias de avaliação de modelos de IA com o CAISI desde 2024, renegociaram seus acordos para alinhamento com o Plano de Ação de IA da administração Trump.
Inversão de política: de Biden a Trump
O acordo representa uma mudança significativa, e paradoxal, na trajetória regulatória americana. Em seu primeiro dia de mandato, o governo Trump revogou uma ordem executiva de Biden, de 2023, que já exigia que desenvolvedores de IA compartilhassem resultados de testes de segurança com o governo. Na época, a revogação foi lida como sinal de desregulamentação.
Agora, a administração Trump cumpre uma promessa feita em julho de 2025, estabelecer parcerias formais com empresas de tecnologia para avaliar modelos de IA quanto a riscos de segurança nacional. O resultado prático é uma forma de regulação mais estreita e menos transparente, conduzida dentro do aparato governamental, longe do escrutínio público.
Para o setor corporativo, isso significa operar em um ambiente onde os modelos de IA que chegam ao mercado já terão passado por uma triagem governamental cujos critérios não são totalmente públicos.
Impacto direto para TI corporativa e cibersegurança
O novo paradigma tem dois lados para quem lidera TI em grandes organizações. O primeiro é positivo: modelos com riscos identificados e mitigados antes do lançamento tendem a chegar ao mercado com menos vetores de ataque desconhecidos. A avaliação de modelos de IA prévia pode reduzir o tempo de resposta a vulnerabilidades críticas em ambientes produtivos.
O segundo lado é mais complexo. A ausência de supervisão humana em aplicações autônomas militares, a falta de transparência sobre os critérios de avaliação e a pressão crescente sobre empresas como a Anthropic, que resistem a ceder salvaguardas, criam um cenário de incerteza regulatória que afeta diretamente decisões de procurement e gestão de risco.
No mercado financeiro, a reação foi discreta mas simbólica: ações da Microsoft caíram 0,6% após o anúncio, enquanto as da Alphabet (Google) subiram 1,3%. O consenso dos analistas ainda está se formando sobre o impacto de longo prazo.
Assine a nossa News e siga o Itshow em nossas redes sociais para ficar por dentro de todas as notícias do setor de TI e Cibersegurança!