Apple enfrenta processo por uso de vídeos do YouTube no treinamento de IA, ilustrado em cenário tecnológico com análise automatizada de conteúdo digital

Três canais do YouTube — h3h3Productions, MrShortGame Golf e Golfholics — entraram com ação coletiva contra a Apple no Tribunal Distrital dos EUA para o Distrito Norte da Califórnia em 3 de abril de 2026, acusando a empresa de raspar milhões de vídeos protegidos por direitos autorais, driblando sistemas anti-scraping da plataforma, para treinar um modelo interno de geração de vídeo com IA chamado ‘Apple AI Video’, em violação ao Digital Millennium Copyright Act (DMCA).

A Apple enfrenta uma ação coletiva movida por criadores de conteúdo do YouTube que acusam a empresa de praticar scraping de vídeos para treinar IA sem qualquer autorização. O processo, protocolado em 3 de abril de 2026 no Tribunal Distrital dos EUA para o Distrito Norte da Califórnia, representa um dos casos mais relevantes sobre propriedade intelectual e desenvolvimento de inteligência artificial dos últimos anos.

Como a Apple teria burlado as proteções do YouTube

Segundo a acusação, a Apple utilizou computadores com IPs rotativos para contornar os sistemas anti-scraping do YouTube e coletar conteúdo em larga escala. O objetivo era alimentar um modelo interno de geração de vídeo chamado ‘Apple AI Video’. A prática, descrita no processo, vai além de uma simples coleta de dados — configura, segundo os autores, uma violação direta ao Digital Millennium Copyright Act, o DMCA.

A prova central apresentada pelos advogados é um artigo científico publicado pelos próprios pesquisadores da Apple, intitulado ‘STIV: Scalable Text and Image Conditioned Video Generation’. No documento, os autores declaram abertamente ter utilizado o dataset Panda-70M como base de treinamento. Esse dataset funciona como um índice de URLs de vídeos do YouTube, segmentados por timestamps e identificadores únicos. Um único vídeo pode ser fracionado em dezenas de clipes, cada um tratado como uma amostra de treinamento independente.

O Panda-70M contém links para aproximadamente 70 milhões de clipes extraídos da plataforma. Os criadores identificaram que o conteúdo de seus próprios canais aparece mais de 500 vezes no material utilizado para treinamento — sem consentimento, sem notificação e sem qualquer remuneração.

Um padrão que vai além da Apple

Este não é o primeiro processo movido por esses criadores. Os mesmos canais já acionaram judicialmente Meta, Nvidia, ByteDance e Snap por acusações similares de uso indevido de vídeos do YouTube no treinamento de modelos de IA. O padrão evidencia uma prática sistemática na indústria: a coleta massiva de conteúdo protegido por direitos autorais sem as devidas autorizações legais.

Uma investigação anterior conduzida pela Proof News reforça esse cenário. O levantamento revelou que legendas de mais de 150.000 vídeos do YouTube, extraídas de mais de 48.000 canais diferentes, foram utilizadas indevidamente por empresas como Anthropic, Nvidia, Apple e Salesforce. Os dados apontam para uma cultura corporativa em que a coleta agressiva de dados é tratada como necessidade operacional, e não como risco legal.

Os autores da ação pedem indenizações máximas previstas em lei, a emissão de liminar permanente para impedir o uso continuado do material, a destruição do conteúdo infrator já coletado e o pagamento de honorários advocatícios. Até o momento, a Apple não emitiu qualquer posicionamento público sobre o processo.

Impacto direto para executivos de TI e Cibersegurança

Para líderes de tecnologia em grandes organizações, o caso traz alertas concretos em três dimensões.

Do ponto de vista jurídico, uma decisão favorável aos criadores pode estabelecer precedentes que redefinam o conceito de ‘uso justo’ (fair use) aplicado ao treinamento de modelos de machine learning. Isso afeta diretamente qualquer empresa que utilize ou desenvolva soluções de IA generativa com dados coletados da internet. Os departamentos jurídicos e de conformidade precisarão revisar contratos, políticas de uso de dados e os próprios pipelines de coleta utilizados em projetos internos.

Na dimensão de cibersegurança, o caso expõe riscos legais associados ao scraping de vídeos para treinar IA em larga escala, especialmente quando esse processo envolve o contorno deliberado de sistemas de proteção de plataformas. O uso de IPs rotativos para burlar mecanismos anti-scraping pode ser interpretado não apenas como violação de termos de serviço, mas como acesso não autorizado a sistemas — o que, dependendo da jurisdição, pode envolver legislações de crimes cibernéticos.

Para times de dados e engenharia de IA, a decisão pode impor restrições significativas sobre quais datasets são legalmente utilizáveis. Isso aumenta o custo e a complexidade do desenvolvimento de modelos de linguagem e vídeo, pressionando empresas a investirem em dados licenciados ou gerados internamente. Quem ainda não auditou a procedência dos dados usados em seus modelos precisa fazê-lo com urgência.

Há também um impacto estratégico para o ecossistema de criadores de conteúdo corporativo. O processo reforça a ausência de mecanismos formais de opt-out nas principais plataformas digitais, algo que já deveria estar no radar de qualquer organização que produza conteúdo público em vídeo. Sem esse controle, qualquer publicação pode se tornar dado de treinamento para concorrentes ou para modelos de terceiros.

O mercado acompanha o caso com atenção. Uma decisão favorável aos youtubers pode obrigar gigantes como Apple, Amazon, Meta e OpenAI a revisarem profundamente suas práticas de aquisição de dados, com reflexos diretos nos prazos e custos de desenvolvimento de novos produtos baseados em IA generativa. Para os CIOs e CISOs que já enfrentam pressão para adotar IA com responsabilidade, este processo chega como um sinal claro: governança de dados não é mais opcional.

Siga o Itshow no LinkedIn e assine a nossa News para ficar por dentro de todas as notícias do setor de TI e Cibersegurança!