1. Pular para o conteúdo
  2. Pular para o menu principal
  3. Ver mais sites da DW

O que diz a lei que regula a Inteligência Artificial na UE

21 de maio de 2024

Texto aprovado no Conselho Europeu prevê supervisão humana de sistemas de IA, regras mais rígidas para uso em setores como saúde e educação, além de identificação transparente de material gerado pela tecnologia.

https://p.dw.com/p/4g7jX
Um laptop aberto com uma imagem gerada por IA em que se vê um desenho de um cérebro e códigos de programação
Inteligência Artificial evolui em ritmo acelerado e se torna cada vez mais onipresente. Com regulação, UE quer definir parâmetros para uso da tecnologia no blocoFoto: Oliver Berg/dpa/picture alliance

O Conselho Europeu aprovou nesta terça-feira (21/05) a Lei de Inteligência Artificial, que regula o uso da tecnologia em recursos como vigilância por vídeo, reconhecimento de voz e análise de dados financeiros.

A lei vale para todos que desenvolvem, oferecem ou utilizam sistemas de IA dentro da União Europeia, afetando atores públicos e privados dentro e fora do bloco. Também vai além da abordagem de compliance voluntária que vigora nos Estados Unidos e pode, por isso, inspirar outros países a seguirem caminho semelhante.

O texto é fruto de um contexto de preocupações crescentes com a desinformação, as notícias falsas e a violação de direitos intelectuais em meio à popularização de sistemas de IA generativa, como o ChatGPT, da OpenAI, e o Gemini, do Google.

Supervisão humana e regras mais rígidas para sistemas de alto risco

Pela lei, que já foi aprovada pelo Parlamento Europeu em março e deve entrar em vigor a partir da primavera de 2026, a autorização para o uso de sistemas de IA em setores como segurança e emprego dependerá de critérios de transparência e precisão, além do cumprimento de padrões de cibersegurança e de qualidade de dados usados no desenvolvimento de aplicações.

Sistemas considerados de alto risco estarão sujeitos a regras mais rígidas e terão que se certificar junto a órgãos de governo antes de serem usados no mercado europeu. Isso inclui situações em que o uso da IA pode prejudicar a saúde, a segurança, os direitos fundamentais, o meio ambiente, a democracia, as eleições e o Estado de Direito.

A chamada IA de propósito geral – caso do ChatGPT – não foi classificada como uma aplicação de alto risco. O governo alemão diz ter se empenhado por isso.

Uma das mais populares tecnologias de IA, o ChatGPT é capaz de se comunicar por texto com usuários e fornecer respostas detalhadas – porém nem sempre corretas – em questão de segundos. Também é capaz de gerar imagens que parecem reais.

Outro destaque da lei é a previsão de que os sistemas de IA sejam supervisionados por pessoas, e não apenas por outras tecnologias. Desenvolvedores também ficam obrigados a identificar como tal textos, sons e imagens gerados com a tecnologia – especialistas, porém, consideram que essa medida será de difícil fiscalização dada a enorme quantidade de material produzido.

Veto ao "social scoring" e uso indiscriminado de reconhecimento facial em espaços públicos

A lei também veta o uso da IA para avaliação de cidadãos com base em seu comportamento, status socioeconômico ou características pessoais. A prática, conhecida como "social scoring", existe na China, onde pessoas são pontuadas de acordo com os seus bons ou maus costumes.

Outro uso proibido é a categorização biométrica de indivíduos com base em religião ou visão de mundo, orientação sexual e raça, bem como a identificação de emoções no local de trabalho e em instituições de ensino.

O reconhecimento facial em espaços públicos – através da vigilância por vídeo em praças públicas, por exemplo – também não será permitido de forma indiscriminada. Exceções poderão ser feitas a pedido de autoridades de segurança apenas mediante ordem judicial, por exemplo para combater crimes como tráfico de pessoas e terrorismo.

Empresas que descumprirem a lei estarão sujeitas a sanções pelos países-membros da UE – como multas, por exemplo, que podem variar de 1,5% a 7% do faturamento. Indivíduos que descobrirem violações podem apresentar queixas às autoridades nacionais, que poderão abrir processos de supervisão e impor penalidades.

Críticas

A Anistia Internacional teme que o reconhecimento facial e outras tecnologias controversas sejam usadas contra migrantes e requerentes de asilo – a UE recentemente endureceu as regras que regem o direito ao asilo no bloco. Para eurodeputados dos partidos social-democrata (SPD) e d'A Esquerda, a identificação de pessoas em tempo real pela polícia não é regulamentada de forma suficientemente rigorosa.

Outro ponto levantado por críticos é que a lei corre o risco de nascer defasada, já que ela só entra em vigor daqui a dois anos. Até lá, a Comissão Europeia dependerá de acordos voluntários com as empresas.

Ministro de Trânsito e Digitalização, Volker Wissing contra-argumenta que os legisladores serão continuamente desafiados por uma tecnologia que muda tão rapidamente quanto a IA. "Por isso sempre defendi que devemos seguir rapidamente o caminho da regulamentação, mas também ter a coragem de fazer ajustes contínuos." Para Wissing, é importante ter o controle das tecnologias de IA "nas próprias mãos" e implementar o texto de forma "amigável à inovação". "A Inteligência Artificial é uma tecnologia-chave, da qual depende nossa competitividade", diz.

Alguns pontos da lei, porém, entrarão em vigor daqui a seis meses. São eles: a proibição de sistemas de IA que se baseiam na manipulação cognitiva de pessoas ou grupos vulneráveis, como crianças; o uso de "social scoring"; a identificação e categorização biométrica de pessoas, bem como sistemas de reconhecimento facial à distância e em tempo real.

Já as regras para IA de propósito geral entrarão em vigor daqui a um ano, enquanto sistemas de alto risco terão prazo estendido de três anos para se adequar à lei.

ra (AFP, dpa, Reuters)

A inteligência artificial consegue entender nossas emoções?