Na liderança do sucesso de popularidade da inteligência artificial generativa, a OpenAI, dona do ChatGPT, aponta que o projeto de lei para regular Inteligência Artificial no Brasil, o PL 2338/23, como está vai inibir o treinamento dos modelos de linguagem em português – em especial por conta das restrições e cobranças pelo uso de obras de terceiros.
É o que argumenta a gerente de Políticas Públicas da OpenAI, Josiara Diniz, que na quinta, 22/5, participou de debate sobre o tema no 5º Congresso Brasileiro de Internet, promovido pela Abranet em Brasília. Ela destacou que o brasileiro é dos que mais usam a ferramenta no mundo – o terceiro país no mundo que mais usa a versão gratuita – mas o português pode ser desprezado.
“É muito importante que o texto da lei permita o treinamento dos modelos em português, isso está casado com um Plano Brasileiro de Inteligência Artificial que visa treinar modelos em português, com acesso a dados locais e que consiga entender características e diversidades de linguística, sociais e culturais. Hoje, o texto da lei não está caminhando nesse sentido. Nosso objetivo no debate é tentar, enfim, dar luz a esse movimento e a esse incentivo para que isso seja levado em consideração pelos legisladores”, afirmou.
A representante da OpenAI enfatizou que a língua portuguesa representa apenas 0,5% a 2% do conteúdo online global, com o Brasil como principal contribuinte. “Para uma empresa global que treina modelos majoritariamente em inglês, isso é pouco. Mas para o Brasil, perder modelos treinados em português é muito. Não poder usar toda a nossa língua disponível em português é ruim. Isso impede inovação, impede o desenvolvimento de novas tecnologias e impede que novos negócios sejam criados.”
Segundo ela, a OpenAI já oferece mecanismos de opt-out para detentores de direitos autorais que não queiram ter conteúdo usado em treinamentos. “O ChatGPT não é um banco de dados. Se algum detentor de direitos não quer que o seu conteúdo seja utilizado para desenvolver o novo modelo, a gente tem opções de opt-out. Isso já é feito, isso já é naturalizado. Mas a gente vê com uma certa preocupação a possibilidade de não acesso de dados para que a gente possa treinar os modelos.” Assista a entrevista.