Resumo
  • O GitHub usará dados de interação de usuários para treinar modelos de IA a partir de 24 de abril de 2026.
  • Dados coletados incluem resultados aceitos ou modificados, entradas fornecidas à IA, contexto do código, comentários e feedback de usuários.
  • Quem não quiser, pode desativar a coleta de dados navegando até “/settings/copilot/features” e desmarcando a opção.

O GitHub anunciou que vai utilizar dados de interação dos usuários para treinar e aprimorar os modelos de inteligência artificial do GitHub Copilot a partir de 24 de abril de 2026. A mudança afeta a base global de programadores que assinam os planos Free, Pro e Pro+ e vai operar no formato de exclusão voluntária — ou seja, quem não quiser compartilhar suas informações terá que desativar a opção manualmente.

Em comunicado oficial no blog da companhia, o diretor de produtos do GitHub, Mario Rodriguez, afirmou que a medida visa ajudar a IA a entender os fluxos de trabalho reais, fornecer sugestões mais seguras e detectar possíveis falhas com mais precisão e rapidez.

Quais dados serão coletados?

A lista de informações que o GitHub passará a extrair durante as sessões de programação inclui:

  • Resultados gerados pelo modelo que foram aceitos ou modificados pelo usuário;
  • Entradas fornecidas à IA, englobando os trechos de código exibidos na tela;
  • O contexto do código ao redor da posição do cursor;
  • Comentários e documentações redigidos durante o desenvolvimento;
  • Nomes de arquivos, estrutura de diretórios do repositório e padrões de navegação;
  • Histórico de interações com os recursos do Copilot, como conversas no chat;
  • Feedback direto do usuário sobre as sugestões (avaliações de “gostei” ou “não gostei”).

O conteúdo será compartilhado com empresas afiliadas ao grupo corporativo do GitHub, o que engloba a dona do serviço, a Microsoft. Contudo, a empresa garante que não repassará os dados a fornecedores terceirizados de IA ou provedores independentes.

Para justificar a atualização, a plataforma aponta que outras empresas do setor, como a Anthropic, adotam políticas semelhantes de telemetria. Segundo Rodriguez, testes internos demonstraram melhorias na taxa de aceitação de sugestões de código após o treinamento com dados de uso. O GitHub acrescentou que também iniciará a coleta de informações dos próprios funcionários para esse fim.

A coleta de dados em repositórios privados vai ocorrer exclusivamente enquanto o usuário estiver interagindo com o Copilot no ambiente de desenvolvimento. Isso significa que o sistema processa e armazena os trechos apenas durante o uso em tempo real da assistência de IA. Nesse momento, os dados são capturados e enviados para a base de treinamento.

Essa mecânica, conforme analisado pelo portal The Register, redefine o conceito de privacidade dentro da plataforma. Em tese, repositórios privados eram acessíveis apenas ao proprietário e aos colaboradores explícitos. Com a nova política, a blindagem total só é garantida caso o desenvolvedor bloqueie o uso de seus dados.

Como desativar?

Os usuários que preferem manter seus códigos fora da base de treinamento devem navegar até o caminho “/settings/copilot/features” no painel da plataforma e desativar a opção “Permitir que o GitHub use meus dados para treinamento de modelos de IA”, localizada na seção de Privacidade.

O GitHub ressalta que usuários que já haviam desmarcado essa preferência no passado terão suas escolhas preservadas. Os assinantes dos planos Copilot Business e Copilot Enterprise, além de alunos e professores que acessam as ferramentas educacionais, estão isentos da nova regra.

GitHub vai treinar IA com dados de usuários