Proposta de Legislação de Inteligência Artificial UE VIII

Estados e tecnologia | Inteligência artificial | Notícias | Política

3 Jun, 2023

3 Jun, 2023

A Lei de Regulamentação da Inteligência Artificial da União Europeia

A União Europeia, após ouvir as opiniões de diferentes organizações, elaborou a chamada Lei de Inteligência Artificial, que se constituiu como o começo de uma regulamentação dentro deste tema complexo. Isso foi feito após ouvir as opiniões de especialistas, organizações e universidades. Trata-se de um tema muito extenso, por isso deixamos à disposição dos leitores tanto a lei quanto as diferentes opiniões expressas pelos especialistas. Isso deve ser considerado muito importante, uma vez que – com exceção da Câmara dos Deputados da República Federativa do Brasil – os governos regionais ainda não abordaram um tema de tamanha importância.

O que é a Lei de IA da UE?:

A Lei de IA é uma lei europeia proposta sobre inteligência artificial (IA), a primeira lei sobre IA de um regulador importante em qualquer lugar do mundo. A lei classifica as aplicações de IA em três categorias de risco. Em primeiro lugar, são proibidas as aplicações e os sistemas que criam um risco inaceitável, como a pontuação social administrada pelo governo, do tipo usado na República Popular da China.

Em segundo lugar, as aplicações de alto risco, como uma ferramenta de escaneamento de currículos que classifica os candidatos a emprego, estão sujeitas a requisitos legais específicos.

Por último, as aplicações que não estão explicitamente proibidas ou classificadas como de alto risco ficam em grande parte sem regulamentação.

Consultar a Lei de IA da União Europeia neste link.

Por que devemos nos importar?

As aplicações de Inteligência Artificial influenciam a informação que você vê online, prevendo qual conteúdo lhe interessa, capturam e analisam dados faciais para fazer cumprir as leis ou personalizar anúncios, e são usadas para diagnosticar e tratar o câncer, por exemplo. Em outras palavras, a Inteligência Artificial afeta muitas partes da vida das pessoas.

Assim como o Regulamento Geral de Proteção de Dados (GDPR) da União Europeia em 2018, a Lei de IA da UE pode se tornar um padrão global, determinando em que medida a IA tem um efeito positivo em vez de negativo na vida das pessoas onde quer que elas estejam. A regulamentação da IA da UE já está causando sensação internacionalmente. No final de setembro de 2021, o Congresso do Brasil aprovou um projeto de lei que cria uma estrutura legal para a inteligência artificial. Ainda precisa passar pelo Senado do país.

A regulamentação pode ser melhorada?

Há várias lacunas e exceções na lei proposta. Essas deficiências limitam a capacidade da Lei de garantir que a IA continue sendo uma força para o bem na sua vida. Atualmente, por exemplo, o reconhecimento facial por parte da polícia está proibido, a menos que as imagens sejam capturadas com atraso ou a tecnologia seja usada para encontrar crianças desaparecidas.

Além disso, a lei é inflexível. Se dentro de dois anos uma aplicação de IA perigosa for usada em um setor imprevisto, a lei não prevê nenhum mecanismo para classificá-la como “alto risco”.

Análises mais detalhadas:

Esta seção inclui uma seleção de análises sobre a Lei de IA, entre centenas que foram feitas. Escolhemos essas análises porque, em nossa opinião, contêm ideias construtivas e reflexivas sobre como melhorar a Lei.

Instituto Futuro de la Vida:

O Future of Life Institute (FLI), uma organização independente sem fins lucrativos com o objetivo de maximizar os benefícios da tecnologia e reduzir seus riscos associados, compartilhou suas recomendações para a Lei de IA da UE com a Comissão Europeia. Argumenta que a Lei deveria garantir que os fornecedores de IA considerem o impacto de suas aplicações na sociedade como um todo, e não apenas no indivíduo. As aplicações de IA que causam danos insignificantes às pessoas podem causar danos significativos a nível social. Por exemplo, uma aplicação de marketing usada para influenciar o comportamento eleitoral dos cidadãos poderia afetar os resultados das eleições. Leia mais sobre as recomendações no link a seguir aqui.

Instituições da Universidade de Cambridge:

O Centro Leverhulme para o Futuro da Inteligência e o Centro para o Estudo do Risco Existencial, duas instituições líderes da Universidade de Cambridge, forneceram seus comentários sobre a proposta de lei de IA da UE à Comissão Europeia. Esperam que a Lei ajude a estabelecer padrões a nível internacional para permitir os benefícios e reduzir os riscos da IA. Uma das suas recomendações é permitir que sejam propostos mudanças na lista de sistemas restritos e de alto risco, aumentando a flexibilidade da regulamentação. Leia o raciocínio completo aqui.

Access Now Europa:

A Access Now, uma organização que defende e expande os direitos digitais de usuários em risco, também forneceu comentários sobre a Lei de IA da UE. Está preocupada que a lei, em sua forma atual, não alcance o objetivo de proteger os direitos fundamentais. Em particular, não acredita que a proposta vá longe o suficiente para proteger os direitos fundamentais em relação às aplicações biométricas, como o reconhecimento de emoções e os polígrafos de IA. O esboço atual da Lei de IA defende obrigações de transparência para essas aplicações, mas a Access Now recomenda medidas mais rigorosas para reduzir todos os riscos associados, como proibições. Leia suas sugestões concretas aqui.

Michael Veale e Frederik Zuiderveen Borgesius:

Michael Veale, professor assistente na University College London em Direitos Digitais e Regulamentação, e Frederik Zuiderveen Borgesius, professor de ICT e Direito Privado na Dutch Radboud University, fornecem uma análise detalhada de algumas das partes mais sensíveis da Lei de IA da UE. Uma das muitas ideias surpreendentes de seu artigo é que o cumprimento da lei dependeria quase que completamente da autoavaliação. A autoavaliação significa que não há execução para cumprir com a lei. Depois que os organismos de normalização como CEN e CENELEC publicarem suas normas, não será mais necessária a verificação de terceiros perante a lei. O artigo completo pode ser encontrado aqui.

A Sociedade do Futuro:

The Future Society, uma organização sem fins lucrativos registrada na Estônia, que defende a adoção responsável da IA em benefício da humanidade, enviou seus comentários à Comissão Europeia sobre a Lei de IA da UE. Uma de suas sugestões é garantir que a governança continue a responder às tendências tecnológicas. Isso poderia ser alcançado melhorando o fluxo de informações entre as instituições nacionais e europeias e compilando e analisando sistematicamente os relatórios de incidentes dos estados membros. Leia os comentários completos aqui.

Nathalie A. Smuha e colegas:

Nathalie A. Smuha, pesquisadora da Faculdade de Direito da KU Leuven, Emma Ahmed-Rengers, pesquisadora de doutorado em Direito e Informática da Universidade de Birmingham, e seus colegas argumentam que a Lei de IA da UE nem sempre reconhece com precisão os erros e danos associados a diferentes tipos de sistemas de IA nem os atribui de maneira adequada. Também afirmam que a proposta não fornece uma estrutura eficaz para a execução dos direitos e deveres legais. A proposta não garante transparência significativa, responsabilidade e direitos de participação pública. Leia o artigo completo aqui..

A Aliança Europeia de PME DIGITAIS:

A European DIGITAL SME Alliance, uma rede de pequenas e médias empresas (PME) de TIC na Europa, dá as boas-vindas a uma regulamentação harmonizada de IA e foca a IA ética na UE, mas sugere várias melhorias para evitar sobrecarregar as PME. Por exemplo, argumenta que, sempre que as avaliações de conformidade se basearem em normas, as PME devem participar ativamente no desenvolvimento dessas normas. Caso contrário, as normas podem ser redigidas de uma maneira que não seja prática para as PME. Muitas outras recomendações podem ser lidas aqui.

O custo da Lei de IA da UE:

O Centre for Data Innovation, uma organização sem fins lucrativos focada em inovação baseada em dados, publicou um relatório afirmando que a Lei de IA da UE custará 31 bilhões de euros nos próximos cinco anos e reduzirá os investimentos em IA em quase 20%. A empresária Meeri Haataja e a acadêmica Joanna Bryson publicaram sua própria pesquisa, escrevendo que provavelmente será muito mais barato, já que a regulamentação cobre principalmente uma pequena proporção das aplicações de IA consideradas de alto risco. Além disso, a análise de custos não considera todos os benefícios da regulamentação para o público. Finalmente, o CEPS, um grupo de especialistas e fórum de debate sobre assuntos da União Europeia, publicou suas próprias análises das estimativas de custos e chegou a uma conclusão similar à de Haataja e Bryson.

O dano social e a Lei:

Nathalie Smuha distingue o dano social do dano individual no contexto da Lei de IA. O dano social não está relacionado aos interesses de um indivíduo específico, mas considera os danos à sociedade em geral, além da soma dos interesses individuais. Afirma que a proposta ainda está imbuída de preocupações quase exclusivamente com o dano individual e parece ignorar a necessidade de proteção contra os danos sociais da IA. O documento completo pode ser lido aqui.

O papel das normas:

Pesquisadores do Oxford Information Labs discutem qual o papel que a Lei de Inteligência Artificial da União Europeia atribui aos padrões para a IA. O ponto chave que destacam é que a conformidade com os padrões harmonizados criará uma presunção de conformidade para as aplicações e serviços de IA de alto risco. Isso, por sua vez, pode aumentar a confiança de que cumprem os requisitos complexos da regulamentação proposta e criar fortes incentivos para que a indústria cumpra as normas europeias. Encontre a análise completa sobre o papel dos padrões na regulamentação de IA da UE aqui.


Equipe de Análise do Laboratório do Futuro/Sistema de Informação da União Europeia.

Autor: Equipo de análisis de Laboratorio del Futuro

Autor: Equipo de análisis de Laboratorio del Futuro

Artigos relacionados

0 Comments

Submit a Comment

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

error: Content is protected !!