Inovação

Remuneração de treinamento: Estudo esquenta briga entre direito autoral e a inteligência artificial

Ensaio do Reglab vai na linha do argumento do ChatGPT: input não é output

Um estudo do Reglab, centro de pesquisa especializado em regulação e tecnologia, promete esquentar ainda mais o debate sobre a regulação da Inteligência Artificial no Brasil. A partir de entrevistas com profissionais de ciências, matemática e engenharia, a pesquisa aponta ser muito difícil remunerar pelo treinamento de IA, alertando para os obstáculos técnicos e potenciais distorções econômicas de propostas que buscam compensar autores pelo uso de suas obras no treinamento de modelos de Inteligência Artificial Generativa.

O estudo Remuneração por Direitos Autorais em IA: Limites e Desafios de Implementação destaca que a natureza estatística dos sistemas de IA torna inviável rastrear a contribuição individual de cada obra — um desafio central para qualquer modelo de compensação. Para o Reglab, os modelos de IA generativa não operam como bancos de dados tradicionais que armazenam e reproduzem conteúdo.

Em vez disso, eles convertem textos, imagens e outros materiais em representações matemáticas (vetores) que capturam padrões estatísticos sem reter os arquivos originais. “É impossível determinar qual obra específica influenciou uma resposta do modelo. O sistema generaliza padrões, não copia conteúdo”, diz o estudo. Essa limitação técnica inviabiliza mecanismos de remuneração baseados no uso mensurável, como os aplicados em streaming ou direitos autorais tradicionais.

O assunto promete dividir gente grande. Na quinta, 22/5, durante o 5º Congresso Brasileiro de Internet, promovido pela Abranet, em Brasília, o diretor de Relações Institucionais e Regulação do Grupo Globo, Marcelo Bechara, foi categórico ao sustentar que direito de autor tem proteção constitucional. “O Brasil não tem ‘fair use’. Empresas estão construindo patrimônio em cima de propriedade privada, intelectual. Têm que pagar. No mesmo debate, como ao resumir os argumentos vistos nesse estudo, a gerente de Políticas Públicas da OpenAI rebateu: “O ChatGPT não é banco de dados. Input não é output”.

O estudo aponta quatro impactos potenciais de regulações rígidas: a redução da qualidade dos modelos, pois restrições a dados em português podem prejudicar a capacidade da IA de entender contextos locais; a concentração de mercado, já que grandes empresas com acesso a datasets proprietários dominariam o setor, excluindo startups; a fuga de investimentos, pois empresas poderiam migrar o treinamento para países com regras mais flexíveis, como EUA ou Japão; e a inviabilidade operacional, visto que licenciar individualmente milhões de obras seria impraticável e caro. “Se o Brasil adotar regras rígidas, o treinamento simplesmente vai acontecer em servidores no exterior”, afirma o estudo.


A pesquisa critica a desconexão entre o projeto de lei brasileiro (PL 2.338/23) e a realidade técnica. Enquanto o texto propõe licenciamento obrigatório e transparência total dos datasets, o estudo, a partir de entrevistas com especialistas, afirma que essas exigências são incompatíveis com o funcionamento atual da IA generativa.

Botão Voltar ao topo