menu Menu

Regulação Proativa: como acordos bilionários de IA redefinem direitos autorais e o futuro do licenciamento

Quando US$ 1,5 bilhão viram o marco zero de uma nova economia de conteúdo, a indústria criativa precisa aprender novas regras. Pera, precisa?

Quando US$ 1,5 bilhão viram o marco zero de uma nova economia de conteúdo, a indústria criativa precisa aprender novas regras. Pera, precisa?

Em setembro de 2025, a Anthropic fechou um acordo de US$ 1,5 bilhão com autores e editoras. O maior acordo de direitos autorais da história envolvendo inteligência artificial não foi apenas uma composição jurídica. Foi o primeiro sinal concreto de que a indústria de IA precisa — e vai — pagar pela matéria-prima que alimenta seus modelos: conteúdo humano protegido por direitos autorais.

O caso chegou aos tribunais depois que a escritora Andrea Bartz, autora de thrillers, descobriu que seus livros haviam sido usados para treinar modelos de linguagem sem seu consentimento. Junto com outros dois autores, ela liderou uma ação coletiva que abrangia cerca de 500 mil obras. O acordo prevê aproximadamente US$ 3 mil por livro, divididos entre autor e editora, além da destruição dos datasets obtidos de forma ilícita.

A distinção é sutil, mas essencial: treinar modelos de IA pode ser considerado uso transformador — argumento que empresas como OpenAI e Google usam para justificar o uso de material protegido. Porém, obter esse material via pirataria, scraping não autorizado ou fontes ilícitas não é defensável. E é justamente esse ponto que o acordo da Anthropic estabelece como linha divisória.

Por que isso importa agora e não daqui a cinco anos

A pressão jurídica contra empresas de IA vinha crescendo de forma fragmentada: processos de escritores, artistas visuais, músicos, jornalistas e até criadores de fanfiction. Mas faltava um precedente econômico claro. O acordo da Anthropic cria esse patamar.

Rich Caccappolo, vice-presidente de mídia do grupo que publica o Daily Mail, resume o cenário: “Todos os publishers conseguem ver que os AI Overviews vão desmantelar o tráfego que recebem de buscas, minando um dos pilares fundamentais do modelo de receita digital”. Quando perguntado se a IA poderia colocar sua empresa fora do negócio, ele não hesitou: “Esse é exatamente o medo. E minha preocupação é que isso não vai acontecer em três ou cinco anos — vai acontecer na próxima terça-feira”.

Os números já mostram o estrago. Segundo um estudo abrangente, o recurso AI Overviews do Google já reduziu o tráfego para sites externos em mais de 34%. O CEO da DotDash Meredith — que publica títulos como People e Better Homes & Gardens — afirmou recentemente que a empresa está se preparando para um cenário “Google Zero”. Chatbots como ChatGPT, Claude, Perplexity e Grok já substituíram mecanismos de busca tradicionais para mais de 25% dos americanos.

Para quem produz conteúdo — seja jornalismo investigativo, análise de mercado, livros técnicos ou ficção —, isso significa perder audiência, assinantes e receita publicitária de uma só vez. E não há indicação de que as empresas de IA estejam dispostas a compensar essa perda de forma justa.

O que o acordo muda na prática

O caso Anthropic estabelece três pilares que devem reverberar no setor:

1. Valor de referência para litígios futuros

Pela primeira vez, temos um número concreto: cerca de US$ 3 mil por obra. Ainda que modesto — e alguns argumentem que é uma “palmada no pulso” para uma empresa avaliada em US$ 183 bilhões —, esse valor serve como ponto de partida para negociações e outros processos.

2. Incentivo à destruição de dados obtidos de forma ilícita

O acordo exige que a Anthropic destrua todos os datasets que contenham obras pirateadas. Isso cria um precedente de que empresas de IA não podem simplesmente “lavar” dados ilícitos alegando uso transformador.

3. Espaço para modelos de licenciamento estruturado

O mercado começa a perceber que acordos voluntários podem ser mais vantajosos do que batalhas judiciais prolongadas. Pelo menos 72 acordos de licenciamento entre publishers e empresas de IA foram firmados nos últimos dois anos — incluindo parcerias de veículos como The Atlantic, Associated Press e Axel Springer.

Mas nem tudo é o que parece: os riscos de leitura equivocada

O acordo traz interpretações perigosas que precisam ser desfeitas desde já:

Risco 1: “Se treinar é transformador, vale tudo”

Não. A origem lícita dos dados continua sendo central. O acordo deixa claro que o problema não é o treinamento em si, mas como o material foi obtido.

Risco 2: “É só mais um custo jurídico”

Não. Confiança passa a ser um atributo competitivo do produto de IA. Modelos treinados em dados transparentes e licenciados terão vantagem sobre aqueles que carregam o estigma da pirataria.

Risco 3: “Publishers sempre perderão essa batalha”

Não necessariamente. O que está em jogo agora é a capacidade de organização coletiva de criadores e editoras. Plataformas como Substack e Own já demonstram que é possível construir modelos de negócio onde o creator mantém propriedade, controle e receita direta.

Framework IP-Safe AI: o que creators, publishers e marcas devem fazer

Se você produz, distribui ou depende de conteúdo protegido, há um playbook emergente que vale a pena implementar:

1. Licenciamento ético

Crie catálogos com escopos claros de uso, janelas de tempo e tipos de modelo permitidos. Não venda “direitos perpétuos” — mantenha revisões periódicas.

2. Auditoria de datasets

Exija trilhas verificáveis de origem dos dados usados para treinar modelos de IA. Inclua cláusulas contratuais que obriguem fornecedores a comprovar a licitude do material.

3. Co-criação remunerada

Crie programas que remunerem autores e publishers com participação em receita ou royalties proporcionais ao uso.

4. Transparência operacional

Publique páginas de modelo com disclosure de fontes, políticas de IA e recursos de opt-out. A confiança não é mais opcional — é requisito.

O que muda para cada perfil

Publishers– Implementar licenciamento seletivo por seção de conteúdo
– Publicar páginas de transparência com políticas de IA e formulário de opt-out
– Negociar co-criação remunerada com repartição de receita
Marcas– Exigir “IP-Safe AI” de fornecedores de IA e de mídia
– Incluir métricas de confiança e auditoria nos SLAs de projetos generativos
– Usar selos e relatórios de conformidade como diferenciais de marca
Creators– Definir política própria de licenciamento para IA e contratos-modelo por tipo de uso
– Monitorar uso não autorizado e manter inventário de obras e registros públicos
– Participar de programas de licenciamento coletivo quando d

A virada está acontecendo — e você pode não estar percebendo

Enquanto a discussão pública sobre IA ainda se concentra em “vai roubar meu emprego?” ou “é arte de verdade?”, a verdadeira transformação está acontecendo nos bastidores: a redefinição dos direitos de propriedade intelectual na era digital.

O acordo da Anthropic não é o fim. É o marco zero. Outros processos seguem em andamento — contra OpenAI, Microsoft, Google e Meta. E cada um deles pode redefinir ainda mais os limites do que é permitido, o que é justo e o que é inegociável.

Para quem trabalha com conteúdo, a mensagem é clara: regulação proativa não é uma opção, é uma estratégia de sobrevivência. E quanto antes você começar a implementar controles, auditorias e políticas de licenciamento, melhor será sua posição quando (não se) a próxima onda de litígios e acordos chegar.

Porque, como bem disse Rich Caccappolo: isso não vai acontecer em cinco anos. Vai acontecer na próxima terça-feira.

Quer ler mais sobre o tema? Minha dica é assinar essa seção por e-mail

Anthropic DireitosAutorais EconomiaDigital FuturodaIA GoogleZero IAetica LicenciamentodeConteudo PropriedadeIntelectual PublishersDigitais RegulacaoIA


Previous Next

Leave a Reply

This site uses Akismet to reduce spam. Learn how your comment data is processed.

keyboard_arrow_up