Desde o último dia 2, reguladores da União Europeia já podem proibir o uso de sistemas de inteligência artificial considerados de “risco inaceitável” ou que possam causar dano. A data marcou o primeiro prazo de conformidade do AI Act, a estrutura regulatória abrangente de IA aprovada pelo Parlamento Europeu em março de 2023 e que entrou oficialmente em vigor em agosto.
A legislação classifica a IA em quatro níveis de risco: mínimo, limitado, alto e inaceitável. O foco desta fase está justamente nas aplicações proibidas, que incluem:
- Sistemas de IA para pontuação social;
- Modelos que manipulam decisões humanas de forma enganosa;
- Algoritmos que exploram vulnerabilidades como idade e deficiência;
- Tecnologia que tenta prever crimes com base na aparência de uma pessoa;
- Inferência de características pessoais, como orientação sexual, via biometria;
- Coleta de dados biométricos “em tempo real” para aplicação da lei;
- Tentativa de análise emocional em ambientes de trabalho e escolas;
- Ampliação de bancos de dados de reconhecimento facial a partir de imagens online ou câmeras de segurança.
Empresas que usarem esses sistemas dentro da UE poderão ser multadas em até € 35 milhões ou 7% da receita anual do ano fiscal anterior, o que for maior. No entanto, especialistas apontam que as penalidades só devem ser aplicadas mais adiante.
O AI Act segue como um marco global na regulamentação da inteligência artificial, e novas etapas de conformidade devem ocorrer ao longo dos próximos meses.
E o debate no Brasil?
Em 10 de dezembro de 2024, o Senado Federal aprovou o substitutivo do projeto de lei sobre inteligência artificial, elaborado pelo senador Eduardo Gomes (PL-TO). A proposta está sendo analisada na Câmara dos Deputados.
O texto estabelece uma classificação de riscos para sistemas de IA, visando regular seu uso conforme o potencial impacto na sociedade.
A proposta define três categorias de risco:
- Risco Excessivo: Sistemas que podem comprometer a segurança, os direitos fundamentais ou a integridade física e moral das pessoas. Exemplos incluem tecnologias como deepfakes e aquelas que podem manipular o sistema eleitoral. Essas aplicações serão proibidas no Brasil.
- Alto Risco: Sistemas que, embora não sejam proibidos, exigem uma avaliação rigorosa devido ao seu potencial de causar danos significativos. Nesses casos, será obrigatória a realização de uma avaliação de impacto algorítmico para identificar e mitigar possíveis riscos associados ao uso da IA.
- Risco Geral ou Baixo: Sistemas que apresentam baixo potencial de causar danos e, portanto, estão sujeitos a uma regulamentação menos restritiva.