No final de março deste ano, uma carta aberta publicada no site do instituto Future of Life e assinada por pesquisadores e empresários de todo o mundo, como os bilionários Steve Wozniak, cofundador da Apple, e Elon Musk, CEO da Tesla e dono do X (antigo Twitter), pediu uma pausa de seis meses nas pesquisas sobre inteligência artificial. O argumento é de que os sistemas “devem ser desenvolvidos apenas quando estivermos confiantes de que seus efeitos serão positivos e os riscos administráveis”.
O comunicado destacou, também, entre outros pontos, que “os desenvolvedores de IA devem trabalhar com os formuladores de políticas para acelerar drasticamente o desenvolvimento de sistemas robustos de governança de IA, que devem incluir autoridades reguladoras novas e capazes dedicadas à IA e um sistema robusto de auditoria e certificação”. Até Sam Altman, CEO da OpenAI, fabricante do ChatGPT, defendeu que, ao mesmo tempo em que a IA tem potencial para resolver os maiores desafios da humanidade, uma regulação por parte do governo é crucial para o futuro da indústria e para evitar danos significativos.
Isso mexeu com o mercado e as perspectivas de crescimento da tecnologia, trazendo à tona alguns questionamentos: qual a melhor forma de estabelecer limites seguros para o uso de IA? A pausa é, realmente, necessária? Como ficam as contribuições – tão importantes – da inteligência artificial? A tecnologia foi recentemente utilizada, por exemplo, em todas as etapas de produção de um medicamento contra fibrose pulmonar idiopática, em fase de testes em humanos. Serviu, ainda, como ferramenta principal para que uma astrofísica brasileira conseguisse, em questão de instantes, simular o funcionamento de um buraco negro a partir de aprendizado de máquina.
“A IA é uma tecnologia desejável, permite escala. Quando empregada para o bem e com segurança, possibilita uma acurácia muito maior e precisa”, afirma Samanta Oliveira, data protection officer (DPO) do Mercado Livre e líder do Comitê de Proteção de Dados do Movimento Inovação Digital (MID).
Os benefícios da IA são inúmeros, porém a desconfiança também é um sentimento em ascensão na sociedade, e deve ser olhado com atenção. A imagem catastrofista hollywoodiana de uma inteligência artificial destruindo frentes de trabalho ou escravizando pessoas surge naturalmente. Há também implicações legais, éticas, sociais e econômicas, bem como polêmicas sobre falta de transparência, discriminação, riscos de segurança e concentração de poder. Nesse cenário, uma lei que controle desde a criação até o uso da inteligência artificial parece inevitável. A questão é entender o que queremos de uma regulação.
Supervisão e normas
Por conta dos potenciais riscos, a regulação da IA mencionada na carta aberta é atualmente um dos pontos mais debatidos entre juristas, pois a tecnologia ganhou tamanha dimensão que requer supervisão e normas para minimizar riscos, mas sem barrar a inovação. De acordo com o relatório AI Index 2023, do Stanford Institute for Human-Centered Artificial Intelligence, nos legislativos de 127 países, 37 projetos de lei sobre IA foram aprovados em 2022.
“Estamos num momento necessário de regulação, tanto do lado de quem desenvolve IA, quanto dos consumidores, para proteger valores caros à sociedade”, ressalta Guilherme Klafke, professor e pesquisador na FGV Direito SP. Na visão de Patrícia Peck Pinheiro, CEO e sócia-fundadora do Peck Advogados, a IA precisa de padrões éticos e de regras claras: “O que tem sido debatido é como fazer a regulação da melhor forma”.
No entanto, os rápidos avanços no tema estão dificultando os esforços dos governos para chegar a um acordo sobre as leis que devem reger o uso da tecnologia. Na prática, cada país ou bloco regional está tratando a questão de forma distinta. A União Europeia, por exemplo, defende uma legislação mais centralizadora e uma regulação que sirva para todos os contextos de aplicação da IA, levando em consideração modelos de riscos. Os legisladores querem a proibição do uso da inteligência artificial na vigilância biométrica e uma legislação que cubra o material protegido por direitos autorais.
Na China, cujo modelo é mais setorial, o governo já anunciou um conjunto de medidas temporárias para gerenciar a indústria de IA generativa, exigindo que os provedores de serviços conduzam avaliações de segurança. Já nos EUA, estados e municípios adotam suas próprias regulações e ainda não há uma lei federal sobre o tema. Em Nova York, inclusive, já está em vigor uma lei que exige “auditorias de viés” em empresas que usam IA para selecionar currículos de candidatos e determinar promoções de funcionários.
Por aqui, as discussões já chegaram ao Congresso Nacional e o projeto de lei mais maduro até o momento é o PL 2338/23, de autoria do senador Rodrigo Pacheco (PSD-MG), presidente do Senado Federal. Em linhas gerais, firma fundamentos, princípios e definições centrais para aplicação da IA, prevê direitos das pessoas afetadas por essas tecnologias, categoriza riscos provenientes de tal uso, estabelece parâmetros para a governança desses sistemas e determina que o Poder Executivo designará autoridade competente para a aplicação da lei.
O PL, porém, não contempla os sistemas de IA generativo nem regras de direito autoral, já que o texto da Comissão de Juristas foi publicado poucos dias antes de o ChatGPT ser ofertado ao público, o que trouxe outras questões relevantes sobre a regulação de sistemas de IA.
Segundo Patricia Peck, apesar de um excelente trabalho de pesquisa, a redação do PL 2338/23 é muito complexa e de alto impacto para os setores envolvidos. “Não sei se o Brasil está preparado para ter uma lei neste nível, com mais uma autoridade técnica, sem ter sequer conseguido completar o ciclo da Lei Geral de Proteção de Dados (LGPD) e da Autoridade Nacional de Proteção de Dados (ANPD), que ainda estão muito recentes e incipientes”, afirma.
O PL está, atualmente, em análise na Comissão Temporária Interna sobre Inteligência Artificial no Brasil (CTIA), criada em agosto para examinar projetos vinculados ao tema. Previstos para 120 dias, os trabalhos da Comissão e as audiências públicas servirão como base para a elaboração do relatório final sobre a regulação da IA no Brasil.
“O timing certo entre quando regular e como é essencial quando falamos de tecnologias emergentes. Da mesma forma que existem inovações do ponto de vista tecnológico, também deve haver inovações institucionais e normativas”, explica a advogada Maria Edelvacy Marinho, consultora e professora de Direito do Mackenzie.
Enquanto as discussões avançam na esfera legislativa, as empresas já podem se antecipar a uma provável regulação da IA. E o desafio é grande, já que, segundo estudo do Boston Consulting Group (BCG) com 2,7 mil líderes globais, apenas 28% dos entrevistados afirmaram estar totalmente prontos para as leis e regulações que estão por vir.
“O ideal é que as empresas já iniciem um programa de governança da IA, com definição de algumas premissas éticas e padrões de privacidade, segurança e propriedade intelectual que devam ser seguidos. Isso deve estar em um guia de melhores práticas. A criação de um comitê sobre o tema também contribui para evitar um grande impacto se e quando houver uma lei”, conclui Patrícia Peck.
Leia outras reportagens na edição 12 da Inovativos