Inovação Digital e Tecnologia na Centralidade do Cliente

União Europeia já pode proibir IAs de “risco inaceitável”

Desde o último dia 2, o uso de sistemas de IAs considerados de "risco inaceitável" estão proibidos na União Europeia. Veja os exemplos na prática

Desde o último dia 2, reguladores da União Europeia já podem proibir o uso de sistemas de inteligência artificial considerados de “risco inaceitável” ou que possam causar dano. A data marcou o primeiro prazo de conformidade do AI Act, a estrutura regulatória abrangente de IA aprovada pelo Parlamento Europeu em março de 2023 e que entrou oficialmente em vigor em agosto.

A legislação classifica a IA em quatro níveis de risco: mínimo, limitado, alto e inaceitável. O foco desta fase está justamente nas aplicações proibidas, que incluem:

  • Sistemas de IA para pontuação social;
  • Modelos que manipulam decisões humanas de forma enganosa;
  • Algoritmos que exploram vulnerabilidades como idade e deficiência;
  • Tecnologia que tenta prever crimes com base na aparência de uma pessoa;
  • Inferência de características pessoais, como orientação sexual, via biometria;
  • Coleta de dados biométricos “em tempo real” para aplicação da lei;
  • Tentativa de análise emocional em ambientes de trabalho e escolas;
  • Ampliação de bancos de dados de reconhecimento facial a partir de imagens online ou câmeras de segurança.

Empresas que usarem esses sistemas dentro da UE poderão ser multadas em até € 35 milhões ou 7% da receita anual do ano fiscal anterior, o que for maior. No entanto, especialistas apontam que as penalidades só devem ser aplicadas mais adiante.

O AI Act segue como um marco global na regulamentação da inteligência artificial, e novas etapas de conformidade devem ocorrer ao longo dos próximos meses.

E o debate no Brasil?

Em 10 de dezembro de 2024, o Senado Federal aprovou o substitutivo do projeto de lei sobre inteligência artificial, elaborado pelo senador Eduardo Gomes (PL-TO). A proposta está sendo analisada na Câmara dos Deputados.

O texto estabelece uma classificação de riscos para sistemas de IA, visando regular seu uso conforme o potencial impacto na sociedade.

A proposta define três categorias de risco:

  • Risco Excessivo: Sistemas que podem comprometer a segurança, os direitos fundamentais ou a integridade física e moral das pessoas. Exemplos incluem tecnologias como deepfakes e aquelas que podem manipular o sistema eleitoral. Essas aplicações serão proibidas no Brasil.
  • Alto Risco: Sistemas que, embora não sejam proibidos, exigem uma avaliação rigorosa devido ao seu potencial de causar danos significativos. Nesses casos, será obrigatória a realização de uma avaliação de impacto algorítmico para identificar e mitigar possíveis riscos associados ao uso da IA.
  • Risco Geral ou Baixo: Sistemas que apresentam baixo potencial de causar danos e, portanto, estão sujeitos a uma regulamentação menos restritiva.

+ ÚLTIMAS NOTÍCIAS

Conheça os novos KPIs em tempos de inteligência artificial

Meta admite ataque hacker bem-sucedido

WhatsApp: Banco de fotos com brasileiros é vendido por R$ 3,5 mil para golpes

Conheça os novos KPIs em tempos de inteligência artificial

Meta admite ataque hacker bem-sucedido

WhatsApp: Banco de fotos com brasileiros é vendido por R$ 3,5 mil para golpes