As ferramentas de Inteligência Artificial (IA) generativa como ChatGPT, Bard, Dall-E, entre outras, foram todas treinadas em bilhões de artigos, notícias, livros, imagens, vídeos e postagens de blogs extraídos da Internet. Acontece que muito desse conteúdo é protegido por direitos autorais.
Com base nesse argumento, um grupo cada vez maior de artistas, escritores e cineastas nos Estados Unidos entende que essas ferramentas de IA foram treinadas ilegalmente, sem sua permissão ou forma de compensação, o que representa uma grande ameaça legal para as empresas.
De acordo com o portal The Washington Post, na semana passada a comediante Sarah Silverman entrou com uma ação contra a OpenAI e a Meta, alegando que as companhias usaram uma cópia pirata de seu livro em dados de treinamento de IA, já que os chatbots das empresas podem resumir seu livro com precisão.
Os romancistas Mona Awad e Paul Tremblay abriram um processo semelhante contra a OpenAI. Além deles, mais de 5 mil autores assinaram uma petição pedindo às empresas de tecnologia que obtenham consentimento e deem crédito e compensação aos escritores cujos livros foram usados em dados de treinamento.
Por fim, duas ações coletivas foram movidas contra a OpenAI e o Google, ambas alegando que as empresas violaram os direitos de milhões de usuários da Internet usando seus comentários nas redes sociais para treinar IAs conversacionais.
De forma geral, os artistas entendem que os meios de subsistência de milhões de trabalhadores criativos estão em jogo, especialmente porque as ferramentas de IA já estão sendo usadas para substituir alguns trabalhos feitos pelo homem. Além disso, a extração em massa de arte, escrita e filmes da web para treinamento de IA é uma prática que os criadores dizem nunca ter considerado ou consentido.
O que as empresas dizem
Segundo o The Washington Post, em aparições públicas e em respostas a ações judiciais, as empresas de IA argumentaram que o uso de obras protegidas por direitos autorais para treinar IA se enquadra no “uso justo” – um conceito na lei de direitos autorais que cria uma exceção se o material for alterado de maneira “transformadora”.
Andres Sawicki, professor de direito da Universidade de Miami que estuda propriedade intelectual, disse ao “Post” que o uso justo é uma forte defesa para as empresas de IA porque a maioria dos resultados dos modelos de IA não se assemelha explicitamente ao trabalho de humanos específicos.
“Mas se os criadores que processam as empresas de IA puderem mostrar exemplos suficientes de saídas de IA muito semelhantes aos seus próprios trabalhos, eles terão um argumento sólido de que seus direitos autorais estão sendo violados”, afirmou. “As empresas podem evitar isso criando filtros em seus bots para garantir que não exibam nada muito semelhante a uma obra de arte existente”.
Enquanto a polêmica continua, a Federal Trade Comission abriu uma investigação para saber se a OpenAI violou os direitos do consumidor com suas práticas de dados. Além disso, duas audiências para debater a questão já foram realizadas pelo Congresso norte-americano.