Bremmer é colunista de assuntos exteriores e editor geral da TIME. Ele é presidente do Eurasia Group, uma consultoria de risco político, e do GZERO Media, uma empresa dedicada a fornecer uma cobertura inteligente e atraente de assuntos internacionais. Ele ensina geopolítica aplicada na Escola de Assuntos Internacionais e Públicos da Universidade de Columbia e seu livro mais recente é O Poder da Crise.
O crescente desenvolvimento da inteligência artificial produzirá avanços médicos que salvarão e melhorarão bilhões de vidas. Ela se tornará o motor de prosperidade mais poderoso da história. Dará a um número incontável de pessoas, incluindo gerações que ainda não nasceram, ferramentas poderosas que seus antepassados nunca imaginaram. Mas os riscos e desafios que a Inteligência Artificial apresentará também estão se tornando claros, e agora é o momento de compreendê-los e enfrentá-los. Aqui estão os maiores.
A saúde da democracia e dos mercados livres depende do acesso a informações precisas e verificáveis. Nos últimos anos, as redes sociais tornaram mais difícil distinguir fatos de ficção, mas os avanços em IA desencadearão legiões de bots que parecem muito mais humanos do que os que encontramos até hoje. As falsificações profundas de áudio e vídeo muito mais sofisticadas minarão nossa confiança (já enfraquecida) nas pessoas que servem no governo e naquelas que informam as notícias. Na China, e mais tarde em seus estados clientes, a IA levará o reconhecimento facial e outras ferramentas que podem ser usadas para vigilância estatal a níveis de sofisticação exponencialmente mais altos.
Esse problema vai além de nossas instituições, porque a produção de “IA generativa”, inteligência artificial que gera conteúdo escrito, visual e de outro tipo sofisticado em resposta às indicações dos usuários, não se limita às grandes empresas de tecnologia. Qualquer pessoa com um laptop e habilidades básicas de programação já tem acesso a modelos de IA muito mais poderosos do que os que existiam há apenas alguns meses e pode produzir volumes de conteúdo sem precedentes. Este desafio de proliferação está prestes a crescer exponencialmente, já que milhões de pessoas terão seu próprio GPT executando dados em tempo real disponíveis na Internet. A revolução da IA permitirá que criminosos, terroristas e outros malfeitores codifiquem malware, criem armas biológicas, manipulem os mercados financeiros e distorçam a opinião pública com uma facilidade impressionante.
A inteligência artificial também pode exacerbar a desigualdade, tanto dentro das sociedades, entre pequenos grupos com riqueza, acesso ou habilidades especiais, quanto entre nações mais ricas e mais pobres.
A Inteligência Artificial causará agitação na força de trabalho. Sim, os avanços tecnológicos do passado criaram principalmente mais empregos do que eliminaram, e aumentaram a produtividade e a prosperidade em geral, mas há advertências cruciais. Os empregos criados pelas grandes mudanças tecnológicas no local de trabalho exigem conjuntos de habilidades diferentes daqueles que foram destruídos, e a transição nunca é fácil. Os trabalhadores precisam ser requalificados. Aqueles que não puderem se requalificar devem ser protegidos por uma rede de segurança social, cuja força varia de um lugar para outro. Ambos os problemas são custosos e nunca será fácil para os governos e as empresas privadas chegarem a um acordo sobre como compartilhar essa carga.
Mais fundamentalmente ainda, o deslocamento causado pela Inteligência Artificial ocorrerá de maneira mais ampla e muito mais rápida do que as transições do passado. A agitação da transição gerará agitação econômica e, portanto, política em todo o mundo.
Finalmente, a revolução da IA também imporá um custo emocional e espiritual. Os seres humanos são animais sociais. Prosperamos na interação com os outros e murchamos no isolamento. Com demasiada frequência, os bots substituirão os humanos como companheiros de muitas pessoas, e, quando os cientistas e médicos compreenderem o impacto a longo prazo dessa tendência, nossa crescente dependência da inteligência artificial, até mesmo para companhia, pode ser irreversível. Este pode ser o desafio mais importante da IA.
A resposta:
Desafios como estes exigirão uma resposta global. Hoje em dia, a inteligência artificial não é regulamentada por autoridades governamentais, mas por empresas de tecnologia. A razão é simples: não se pode criar regras para um jogo que não se entende. Mas confiar nas empresas de tecnologia para regular seus produtos não é um plano sustentável. Elas existem principalmente para obter lucros, não para proteger os consumidores, as nações ou o planeta. É um pouco como deixar as empresas de energia liderarem as estratégias para combater as mudanças climáticas, exceto que o aquecimento e seus perigos já são entendidos de uma maneira que os riscos da IA não são, o que nos deixa sem grupos de pressão que possam ajudar a forçar a adoção de políticas inteligentes e saudáveis.
Então, onde estão as soluções? Precisaremos de ação nacional, cooperação global e alguma cooperação com bom senso dos governos dos EUA e da China, em particular.
Sempre será mais fácil alcançar uma política bem coordenada dentro dos governos nacionais do que a nível internacional, mas os líderes políticos têm suas próprias prioridades. Em Washington, os formuladores de políticas se concentraram principalmente em ganhar uma corrida com a China para desenvolver os produtos tecnológicos que melhor apoiem a segurança e a prosperidade do século XXI, e isso os incentivou a dar às empresas tecnológicas que servem ao interesse nacional algo parecido com a liberdade. Os legisladores chineses, temendo que as ferramentas de inteligência artificial possam minar sua autoridade política, regulamentaram de maneira muito mais agressiva. Os legisladores europeus se concentraram menos na segurança ou nos lucros do que no impacto social dos avanços da IA.
Mas todos terão que estabelecer regras nos próximos anos que limitem a capacidade dos bots de IA para minar as instituições políticas, os mercados financeiros e a segurança nacional. Isso significa identificar e rastrear os maus atores, assim como ajudar as pessoas a separar a informação verdadeira da falsa. Infelizmente, esses são passos grandes, caros e complicados que os legisladores provavelmente não tomarão até que enfrentem crises geradas pela IA (mas reais). Isso não pode acontecer até que a discussão e o debate sobre esses temas comecem.
Ao contrário das mudanças climáticas, os governos do mundo ainda não concordaram que a revolução da IA representa um desafio transfronteiriço existencial. Aqui, as Nações Unidas têm um papel a desempenhar como a única instituição com o poder de convocação para desenvolver um consenso mundial. Uma abordagem da IA liderada pelas Nações Unidas nunca será a resposta mais eficiente, mas ajudará a alcançar um consenso sobre a natureza do problema e a unir recursos internacionais.
Ao forjar um acordo sobre quais riscos são mais prováveis, mais impactantes e emergem mais rapidamente, um equivalente focado na IA do Painel Intergovernamental sobre Mudanças Climáticas pode regular as reuniões e a produção de acordos sobre o “Estado da IA” que se aprofundam cada vez mais no coração das ameaças relacionadas à IA. Assim como com as mudanças climáticas, esse processo também precisará incluir a participação de funcionários de políticas públicas, cientistas, tecnólogos, delegados do setor privado e ativistas individuais que representem a maioria dos estados membros para criar um processo COP (Conferência das Partes) para abordar as ameaças à biossegurança, liberdade de informação, saúde da força de trabalho, etc. Também poderia haver uma agência de inteligência artificial inspirada na Agência Internacional de Energia Atômica para ajudar a vigiar a proliferação da IA.
Dito isso, não há como abordar os riscos de rápida metástase criados pela revolução da IA sem uma infusão de senso comum muito necessária nas relações entre os EUA e a China. Afinal, é a competição tecnológica entre os dois países e suas principais empresas de tecnologia que cria o maior risco de guerra, especialmente porque a IA desempenha um papel cada vez maior nas armas e no planejamento militar.
Pequim e Washington devem desenvolver e manter conversas de alto nível sobre as ameaças emergentes para ambos os países (e o mundo) e a melhor forma de contê-las. E não podem esperar que uma versão de IA da Crise dos Mísseis Cubanos os obrigue a alcançar uma transparência genuína no manejo de sua competição. Para criar um “acordo de controle de armas de IA” com monitoramento e verificação mútuos, cada governo deve ouvir não só um ao outro, mas também os tecnólogos de ambos os lados que entendem os riscos que precisam ser contidos.
Impossível? Absolutamente. O momento é péssimo, porque esses avanços chegam em um momento de intensa competição entre dois países poderosos que realmente não confiam um no outro.
Mas se os americanos e os soviéticos puderam construir uma infraestrutura de controle de armas funcional nas décadas de 1970 e 1980, os EUA e a China podem construir um equivalente para o século XXI. Esperemos que percebam que não têm outra opção antes que uma catástrofe o torne inevitavelmente óbvio.
Equipe de análise do Laboratório do Futuro / Revista Time (Inglaterra). Artigo de Ian Bremmer. Tradução do inglês: equipe de tradução e interpretação do Laboratório do Futuro.
Projeto de Lei de Regulamentação da Inteligência Artificial da Câmara dos Deputados da República Federativa do Brasil
Para a maioria dos membros da Câmara dos Deputados da República Federativa do Brasil, o marco da inteligência artificial incentivará o desenvolvimento tecnológico. É importante destacar que o país é o primeiro da América Latina a se ocupar do tema. O Projeto de Lei tem meia sanção, aguardando o tratamento e aprovação pela Câmara dos Senadores. A iniciativa foi apresentada durante a administração do Presidente Jair Mesias Bolsonaro. Posteriormente, como devemos informar, avançou-se na apresentação de projetos que contribuem para um complemento aprimorado do que já foi tratado, inclusive no Senado Federal.
Para os Deputados, o marco da inteligência artificial incentivará o desenvolvimento tecnológico.
A maioria dos Deputados avaliou que a definição de princípios para a aplicação da Inteligência Artificial no Brasil, tema do Projeto de Lei 21/20, vai incentivar o desenvolvimento tecnológico do país. O texto foi aprovado no Plenário da Câmara dos Deputados e, seguindo os trâmites constitucionais, será encaminhado ao Senado para seu tratamento.
A relatora do Projeto, a Deputada Luisa Canziani (PTB pelo Estado do Paraná), afirmou que limitou o texto e as diretrizes a serem utilizadas pelo poder público ao disciplinar a aplicação da inteligência artificial para não criar regras que acabem desestimulando sua adoção. Ela lembrou que alguns estados já estão criando regras próprias e, por isso, é necessário estabelecer uma legislação nacional sobre o tema. “Tomamos o que há de melhor nas experiências internacionais de regulamentação da inteligência artificial na construção deste texto. Se não aprovarmos esta matéria, vamos inibir os investimentos relacionados à inovação e à inteligência.”
O autor da proposta, o Deputado Eduardo Bismarck (PDT, pelo Estado do Ceará), afirmou que a aprovação de um marco legal para o setor indica ao mundo que o Brasil está atento à inovação e à inteligência artificial. “A inteligência artificial já faz parte da nossa realidade, e o Brasil, no futuro, vai fazer outras legislações. O momento é agora e é o de traçar princípios: direitos, deveres e responsabilidades.”
A proposta chegou a ser criticada pelo Deputado Leo de Brito (PT-Estado do Acre), que solicitou regras mais específicas. Após a inclusão no texto de temas como a responsabilidade do Estado, foi feito um acordo a favor do texto. De acordo com o Deputado de Brito, “fomos contemplados em algumas questões fundamentais, por isso retiramos nossa oposição.”
Para o Deputado Paulo Ganime (Novo-Estado do Rio de Janeiro), o projeto está na “dose certa”. “Neste caso, o marco destina-se à promoção do desenvolvimento tecnológico, da evolução da inteligência artificial no Brasil, da geração de empregos e trabalho, e de mais segurança jurídica para um setor que ainda está em processo de amadurecimento, e onde o Brasil pode se tornar um precursor.”
O Deputado Eduardo Cury (PSDB-Estado de São Paulo) ressaltou que a proposta é o pontapé inicial para a regulamentação do tema. “O projeto tem um ajuste correto, com o início de uma regulamentação que não detalha a ponto de inibir a inovação.”
Texto de la Redacción Final del Proyecto de Ley presentado:
Se coloca a continuación, la redacción final del Proyecto de Ley aprobado por la Cámara de Diputados, en su lenguaje original, para respetar mas fielmente su contenido.
redação final
projeto de lei nº 21-A de 2020
Estabelece fundamentos, princípios e diretrizes para o desenvolvimento e a aplicação da inteligência artificial no Brasil; e dá outras providências.
O CONGRESSO NACIONAL decreta:
Art. 1º Esta Lei estabelece fundamentos e princípios para o desenvolvimento e a aplicação da inteligência artificial no Brasil e diretrizes para o fomento e a atuação do poder público nessa área.
Art. 2º Para os fins desta Lei, considera-se sistema de inteligência artificial o sistema baseado em processo computacional que, a partir de um conjunto de objetivos definidos por humanos, pode, por meio do processamento de dados e de informações, aprender a perceber e a interpretar o ambiente externo, bem como a interagir com ele, fazendo predições, recomendações, classificações ou decisões, e que utiliza, sem a elas se limitar, técnicas como:
I – Sistemas de aprendizagem de máquina (machine learning), incluída aprendizagem supervisionada, não supervisionada e por reforço;
II – Sistemas baseados em conhecimento ou em lógica;
III – abordagens estatísticas, inferência bayesiana, métodos de pesquisa e de otimização.
Parágrafo único. Esta Lei não se aplica aos processos de automação exclusivamente orientados por parâmetros predefinidos de programação que não incluam a capacidade do sistema de aprender a perceber e a interpretar o ambiente externo, bem como a interagir com ele, a partir das ações e das informações recebidas.
Art. 3º A aplicação de inteligência artificial no Brasil tem por objetivo o desenvolvimento científico e tecnológico, bem como:
I – a promoção do desenvolvimento econômico sustentável e inclusivo e do bem-estar da sociedade;
II – o aumento da competitividade e da produtividade brasileira;
III – a inserção competitiva do Brasil nas cadeias globais de valor;
IV – a melhoria na prestação de serviços públicos e na implementação de políticas públicas;
V – A promoção da pesquisa e desenvolvimento com a finalidade de estimular a inovação nos setores produtivos; e
VI – a proteção e a preservação do meio ambiente.
Art. 4º O desenvolvimento e a aplicação da inteligência artificial no Brasil têm como fundamentos:
I – O desenvolvimento científico e tecnológico e a inovação;
II – A livre iniciativa e a livre concorrência;
III – o respeito à ética, aos direitos humanos e aos valores democráticos;
IV – A livre manifestação de pensamento e a livre expressão da atividade intelectual, artística, científica e de comunicação;
V – A não discriminação, a pluralidade, o respeito às diversidades regionais, a inclusão e o respeito aos direitos e garantias fundamentais do cidadão;
VI – o reconhecimento de sua natureza digital, transversal e dinâmica;
VII – o estímulo à autorregulação, mediante adoção de códigos de conduta e de guias de boas práticas, observados os princípios previstos no art. 5º desta Lei, e as boas práticas globais;
VIII – a segurança, a privacidade e a proteção de dados pessoais;
IX – A segurança da informação;
X – O acesso à informação;
XI – a defesa nacional, a segurança do Estado e a soberania nacional;
XII – a liberdade dos modelos de negócios, desde que não conflite com as disposições estabelecidas nesta Lei;
XIII – a preservação da estabilidade, da segurança, da resiliência e da funcionalidade dos sistemas de inteligência artificial, por meio de medidas técnicas compatíveis com os padrões internacionais e de estímulo ao uso de boas práticas;
XIV – a proteção da livre concorrência e contra práticas abusivas de mercado, na forma da Lei nº 12.529, de 30 de novembro de 2011; e
XV – A harmonização com as Leis nºs 13.709, de 14 de agosto de 2018 (Lei Geral de Proteção de Dados Pessoais), 12.965, de 23 de abril de 2014, 12.529, de 30 de novembro de 2011, 8.078, de 11 de setembro de 1990 (Código de Defesa do Consumidor), e 12.527 de 18 de novembro de 2011.
Parágrafo único. Os códigos de conduta e os guias de boas práticas previstos no inciso VII do caput deste artigo poderão servir como elementos indicativos de conformidade.
Art. 5º São princípios para o desenvolvimento e a aplicação da inteligência artificial no Brasil:
I – Finalidade benéfica: busca de resultados benéficos para a humanidade pelos sistemas de inteligência artificial;
II – Centralidade do ser humano: respeito à dignidade humana, à privacidade, à proteção de dados pessoais e aos direitos fundamentais, quando o sistema tratar de questões relacionadas ao ser humano;
III – não discriminação: mitigação da possibilidade de uso dos sistemas para fins discriminatórios, ilícitos ou abusivos;
IV – Busca pela neutralidade: recomendação de que os agentes atuantes na cadeia de desenvolvimento e de operação de sistemas de inteligência artificial busquem identificar e mitigar vieses contrários ao disposto na legislação vigente;
V – Transparência: direito das pessoas de serem informadas de maneira clara, acessível e precisa sobre a utilização das soluções de inteligência artificial, salvo disposição legal em sentido contrário e observados os segredos comercial e industrial, nas seguintes hipóteses:
a) sobre o fato de estarem se comunicando diretamente com sistemas de inteligência artificial, tal como por meio de robôs de conversação para atendimento personalizado on-line (chatbot), quando estiverem utilizando esses sistemas;
b) sobre a identidade da pessoa natural, quando ela operar o sistema de maneira autônoma e individual, ou da pessoa jurídica responsável pela operação dos sistemas de inteligência artificial;
c) sobre critérios gerais que orientam o funcionamento do sistema de inteligência artificial, assegurados os segredos comercial e industrial, quando houver potencial de risco relevante para os direitos fundamentais;
VI – segurança e prevenção: utilização de medidas técnicas, organizacionais e administrativas, considerando o uso de meios razoáveis e disponíveis na ocasião, compatíveis com as melhores práticas, os padrões internacionais e a viabilidade econômica, direcionadas a permitir o gerenciamento e a mitigação de riscos oriundos da operação de sistemas de inteligência artificial durante todo o seu ciclo de vida e o seu contínuo funcionamento;
VII – inovação responsável: garantia de adoção do disposto nesta Lei, pelos agentes que atuam na cadeia de desenvolvimento e operação de sistemas de inteligência artificial que estejam em uso, documentando seu processo interno de gestão e responsabilizando-se, nos limites de sua respectiva participação, do contexto e das tecnologias disponíveis, pelos resultados do funcionamento desses sistemas;
VIII – disponibilidade de dados: não violação do direito de autor pelo uso de dados, de banco de dados e de textos por ele protegidos, para fins de treinamento de sistemas de inteligência artificial, desde que não seja impactada a exploração normal da obra por seu titular.
Art. 6º Ao disciplinar a aplicação de inteligência artificial, o poder público deverá observar as seguintes diretrizes:
I – Intervenção subsidiária: regras específicas deverão ser desenvolvidas para os usos de sistemas de inteligência artificial apenas quando absolutamente necessárias para a garantia do atendimento ao disposto na legislação vigente;
II – Atuação setorial: a atuação do poder público deverá ocorrer pelo órgão ou entidade competente, considerados o contexto e o arcabouço regulatório específicos de cada setor;
III – gestão baseada em risco: o desenvolvimento e o uso dos sistemas de inteligência artificial deverão considerar os riscos concretos, e as definições sobre a necessidade de regulação dos sistemas de inteligência artificial e sobre o respectivo grau de intervenção deverão ser sempre proporcionais aos riscos concretos oferecidos por cada sistema e à probabilidade de ocorrência desses riscos, avaliados sempre em comparação com:
a) os potenciais benefícios sociais e econômicos oferecidos pelo sistema de inteligência artificial; e
b) os riscos apresentados por sistemas similares que não envolvam inteligência artificial, nos termos do inciso V deste caput;
IV – Participação social e interdisciplinar: a adoção de normas que impactem o desenvolvimento e a operação de sistemas de inteligência artificial será baseada em evidências e precedida de consulta pública, realizada preferencialmente pela internet e com ampla divulgação prévia, de modo a possibilitar a participação de todos os interessados e as diversas especialidades envolvidas;
V – Análise de impacto regulatório: a adoção de normas que impactem o desenvolvimento e a operação de sistemas de inteligência artificial será precedida de análise de impacto regulatório, nos termos do Decreto nº 10.411, de 30 de junho de 2020, e da Lei nº 13.874, de 20 de setembro de 2019; e
VI – responsabilidade: as normas sobre responsabilidade dos agentes que atuam na cadeia de desenvolvimento e operação de sistemas de inteligência artificial deverão, salvo disposição legal em contrário, pautar-se na responsabilidade subjetiva e levar em consideração a efetiva participação desses agentes, os danos específicos que se deseja evitar ou remediar e a forma como esses agentes podem demonstrar adequação às normas aplicáveis, por meio de esforços razoáveis compatíveis com os padrões internacionais e as melhores práticas de mercado.
§ 1º Na gestão com base em risco a que se refere o inciso III do caput deste artigo, a administração pública, nos casos de baixo risco, deverá incentivar a inovação responsável com a utilização de técnicas regulatórias flexíveis.
§ 2º Na gestão com base em risco a que se refere o inciso III do caput deste artigo, a administração pública, nos casos concretos em que se constatar alto risco, poderá, no âmbito da sua competência, requerer informações sobre as medidas de segurança e prevenção enumeradas no inciso VI do caput do art. 5º desta Lei, e respectivas salvaguardas, nos termos e nos limites de transparência estabelecidos por esta Lei, observados os segredos comercial e industrial.
§ 3º Quando a utilização do sistema de inteligência artificial envolver relações de consumo, o agente responderá independentemente de culpa pela reparação dos danos causados aos consumidores, no limite de sua participação efetiva no evento danoso, observada a Lei nº 8.078 de 11 de setembro de 1990 (Código de Defesa do Consumidor).
§ 4º As pessoas jurídicas de direito público e as de direito privado prestadoras de serviços públicos responderão pelos danos que seus agentes, nessa qualidade, causarem a terceiros, assegurado o direito de regresso contra o responsável nos casos de dolo ou culpa.
Art. 7º Constituem diretrizes para a atuação da União, dos Estados, do Distrito Federal e dos Municípios em relação ao uso e ao fomento dos sistemas de inteligência artificial no Brasil:
I – Promoção da confiança nas tecnologias de inteligência artificial, com disseminação de informações e de conhecimento sobre seus usos éticos e responsáveis;
II – Incentivo a investimentos em pesquisa e desenvolvimento de inteligência artificial;
III – promoção da interoperabilidade tecnológica dos sistemas de inteligência artificial utilizados pelo poder público, de modo a permitir o intercâmbio de informações e a celeridade de procedimentos;
IV – Incentivo ao desenvolvimento e à adoção de sistemas de inteligência artificial nos setores público e privado;
V – Estímulo à capacitação e à preparação das pessoas para a reestruturação do mercado de trabalho;
VI – Estímulo a práticas pedagógicas inovadoras, com visão multidisciplinar, e ênfase da importância de ressignificação dos processos de formação de professores para lidar com os desafios decorrentes da inserção da inteligência artificial como ferramenta pedagógica em sala de aula;
VII – estímulo à adoção de instrumentos regulatórios que promovam a inovação, como ambientes regulatórios experimentais (sandboxes regulatórios), análises de impacto regulatório e autorregulações setoriais;
VIII – estímulo à criação de mecanismos de governança transparente e colaborativa, com a participação de representantes do poder público, do setor empresarial, da sociedade civil e da comunidade científica; e
IX – Promoção da cooperação internacional, mediante estímulo ao compartilhamento do conhecimento sobre sistemas de inteligência artificial e à negociação de tratados, acordos e padrões técnicos globais que facilitem a interoperabilidade entre os sistemas e a harmonização da legislação a esse respeito.
Parágrafo único. Para fins deste artigo, o poder público federal promoverá a gestão estratégica e as orientações quanto ao uso transparente e ético de sistemas de inteligência artificial no setor público, conforme as políticas públicas estratégicas para o setor.
Art. 8º As diretrizes de que tratam os arts. 6º e 7º desta Lei serão aplicadas conforme regulamentação do Poder Executivo federal por órgãos e entidades setoriais com competência técnica na matéria, os quais deverão:
I – Monitorar a gestão do risco dos sistemas de inteligência artificial, no caso concreto, avaliando os riscos da aplicação e as medidas de mitigação em sua área de competência;
II – Estabelecer direitos, deveres e responsabilidades; e
III – reconhecer instituições de autorregulação.
Art. 9º Para os fins desta Lei, sistemas de inteligência artificial são representações tecnológicas oriundas do campo da informática e da ciência da computação, competindo privativamente à União legislar e normatizar a matéria para a promoção de uniformidade legal em todo o território nacional, na forma do disposto no inciso IV do caput do art. 22 da Constituição Federal.
Art. 10. Esta Lei entra em vigor após decorridos 90 (noventa) dias de sua publicação oficial.
Sala das Sessões, em 29 de setembro de 2021.
Deputada LUISA CANZIANI
Relatora
Fontes
Equipe de análise do Laboratório do Futuro/Sistema de Informação da Câmara dos Deputados da República Federativa do Brasil. Com a colaboração da Agência Câmara de Notícias.
Tradução nos elementos centrais, equipe de tradução do Laboratório do Futuro.
A Lei de Regulamentação da Inteligência Artificial da União Europeia
A União Europeia, após ouvir as opiniões de diferentes organizações, elaborou a chamada Lei de Inteligência Artificial, que se constituiu como o começo de uma regulamentação dentro deste tema complexo. Isso foi feito após ouvir as opiniões de especialistas, organizações e universidades. Trata-se de um tema muito extenso, por isso deixamos à disposição dos leitores tanto a lei quanto as diferentes opiniões expressas pelos especialistas. Isso deve ser considerado muito importante, uma vez que – com exceção da Câmara dos Deputados da República Federativa do Brasil – os governos regionais ainda não abordaram um tema de tamanha importância.
O que é a Lei de IA da UE?:
A Lei de IA é uma lei europeia proposta sobre inteligência artificial (IA), a primeira lei sobre IA de um regulador importante em qualquer lugar do mundo. A lei classifica as aplicações de IA em três categorias de risco. Em primeiro lugar, são proibidas as aplicações e os sistemas que criam um risco inaceitável, como a pontuação social administrada pelo governo, do tipo usado na República Popular da China.
Em segundo lugar, as aplicações de alto risco, como uma ferramenta de escaneamento de currículos que classifica os candidatos a emprego, estão sujeitas a requisitos legais específicos.
Por último, as aplicações que não estão explicitamente proibidas ou classificadas como de alto risco ficam em grande parte sem regulamentação.
Consultar a Lei de IA da União Europeia neste link.
Por que devemos nos importar?
As aplicações de Inteligência Artificial influenciam a informação que você vê online, prevendo qual conteúdo lhe interessa, capturam e analisam dados faciais para fazer cumprir as leis ou personalizar anúncios, e são usadas para diagnosticar e tratar o câncer, por exemplo. Em outras palavras, a Inteligência Artificial afeta muitas partes da vida das pessoas.
Assim como o Regulamento Geral de Proteção de Dados (GDPR) da União Europeia em 2018, a Lei de IA da UE pode se tornar um padrão global, determinando em que medida a IA tem um efeito positivo em vez de negativo na vida das pessoas onde quer que elas estejam. A regulamentação da IA da UE já está causando sensação internacionalmente. No final de setembro de 2021, o Congresso do Brasil aprovou um projeto de lei que cria uma estrutura legal para a inteligência artificial. Ainda precisa passar pelo Senado do país.
A regulamentação pode ser melhorada?
Há várias lacunas e exceções na lei proposta. Essas deficiências limitam a capacidade da Lei de garantir que a IA continue sendo uma força para o bem na sua vida. Atualmente, por exemplo, o reconhecimento facial por parte da polícia está proibido, a menos que as imagens sejam capturadas com atraso ou a tecnologia seja usada para encontrar crianças desaparecidas.
Além disso, a lei é inflexível. Se dentro de dois anos uma aplicação de IA perigosa for usada em um setor imprevisto, a lei não prevê nenhum mecanismo para classificá-la como “alto risco”.
Análises mais detalhadas:
Esta seção inclui uma seleção de análises sobre a Lei de IA, entre centenas que foram feitas. Escolhemos essas análises porque, em nossa opinião, contêm ideias construtivas e reflexivas sobre como melhorar a Lei.
Instituto Futuro de la Vida:
O Future of Life Institute (FLI), uma organização independente sem fins lucrativos com o objetivo de maximizar os benefícios da tecnologia e reduzir seus riscos associados, compartilhou suas recomendações para a Lei de IA da UE com a Comissão Europeia. Argumenta que a Lei deveria garantir que os fornecedores de IA considerem o impacto de suas aplicações na sociedade como um todo, e não apenas no indivíduo. As aplicações de IA que causam danos insignificantes às pessoas podem causar danos significativos a nível social. Por exemplo, uma aplicação de marketing usada para influenciar o comportamento eleitoral dos cidadãos poderia afetar os resultados das eleições. Leia mais sobre as recomendações no link a seguir aqui.
Instituições da Universidade de Cambridge:
O Centro Leverhulme para o Futuro da Inteligência e o Centro para o Estudo do Risco Existencial, duas instituições líderes da Universidade de Cambridge, forneceram seus comentários sobre a proposta de lei de IA da UE à Comissão Europeia. Esperam que a Lei ajude a estabelecer padrões a nível internacional para permitir os benefícios e reduzir os riscos da IA. Uma das suas recomendações é permitir que sejam propostos mudanças na lista de sistemas restritos e de alto risco, aumentando a flexibilidade da regulamentação. Leia o raciocínio completo aqui.
Access Now Europa:
A Access Now, uma organização que defende e expande os direitos digitais de usuários em risco, também forneceu comentários sobre a Lei de IA da UE. Está preocupada que a lei, em sua forma atual, não alcance o objetivo de proteger os direitos fundamentais. Em particular, não acredita que a proposta vá longe o suficiente para proteger os direitos fundamentais em relação às aplicações biométricas, como o reconhecimento de emoções e os polígrafos de IA. O esboço atual da Lei de IA defende obrigações de transparência para essas aplicações, mas a Access Now recomenda medidas mais rigorosas para reduzir todos os riscos associados, como proibições. Leia suas sugestões concretas aqui.
Michael Veale e Frederik Zuiderveen Borgesius:
Michael Veale, professor assistente na University College London em Direitos Digitais e Regulamentação, e Frederik Zuiderveen Borgesius, professor de ICT e Direito Privado na Dutch Radboud University, fornecem uma análise detalhada de algumas das partes mais sensíveis da Lei de IA da UE. Uma das muitas ideias surpreendentes de seu artigo é que o cumprimento da lei dependeria quase que completamente da autoavaliação. A autoavaliação significa que não há execução para cumprir com a lei. Depois que os organismos de normalização como CEN e CENELEC publicarem suas normas, não será mais necessária a verificação de terceiros perante a lei. O artigo completo pode ser encontrado aqui.
A Sociedade do Futuro:
The Future Society, uma organização sem fins lucrativos registrada na Estônia, que defende a adoção responsável da IA em benefício da humanidade, enviou seus comentários à Comissão Europeia sobre a Lei de IA da UE. Uma de suas sugestões é garantir que a governança continue a responder às tendências tecnológicas. Isso poderia ser alcançado melhorando o fluxo de informações entre as instituições nacionais e europeias e compilando e analisando sistematicamente os relatórios de incidentes dos estados membros. Leia os comentários completos aqui.
Nathalie A. Smuha e colegas:
Nathalie A. Smuha, pesquisadora da Faculdade de Direito da KU Leuven, Emma Ahmed-Rengers, pesquisadora de doutorado em Direito e Informática da Universidade de Birmingham, e seus colegas argumentam que a Lei de IA da UE nem sempre reconhece com precisão os erros e danos associados a diferentes tipos de sistemas de IA nem os atribui de maneira adequada. Também afirmam que a proposta não fornece uma estrutura eficaz para a execução dos direitos e deveres legais. A proposta não garante transparência significativa, responsabilidade e direitos de participação pública. Leia o artigo completo aqui..
A Aliança Europeia de PME DIGITAIS:
A European DIGITAL SME Alliance, uma rede de pequenas e médias empresas (PME) de TIC na Europa, dá as boas-vindas a uma regulamentação harmonizada de IA e foca a IA ética na UE, mas sugere várias melhorias para evitar sobrecarregar as PME. Por exemplo, argumenta que, sempre que as avaliações de conformidade se basearem em normas, as PME devem participar ativamente no desenvolvimento dessas normas. Caso contrário, as normas podem ser redigidas de uma maneira que não seja prática para as PME. Muitas outras recomendações podem ser lidas aqui.
O custo da Lei de IA da UE:
O Centre for Data Innovation, uma organização sem fins lucrativos focada em inovação baseada em dados, publicou um relatório afirmando que a Lei de IA da UE custará 31 bilhões de euros nos próximos cinco anos e reduzirá os investimentos em IA em quase 20%. A empresária Meeri Haataja e a acadêmica Joanna Bryson publicaram sua própria pesquisa, escrevendo que provavelmente será muito mais barato, já que a regulamentação cobre principalmente uma pequena proporção das aplicações de IA consideradas de alto risco. Além disso, a análise de custos não considera todos os benefícios da regulamentação para o público. Finalmente, o CEPS, um grupo de especialistas e fórum de debate sobre assuntos da União Europeia, publicou suas próprias análises das estimativas de custos e chegou a uma conclusão similar à de Haataja e Bryson.
O dano social e a Lei:
Nathalie Smuha distingue o dano social do dano individual no contexto da Lei de IA. O dano social não está relacionado aos interesses de um indivíduo específico, mas considera os danos à sociedade em geral, além da soma dos interesses individuais. Afirma que a proposta ainda está imbuída de preocupações quase exclusivamente com o dano individual e parece ignorar a necessidade de proteção contra os danos sociais da IA. O documento completo pode ser lido aqui.
O papel das normas:
Pesquisadores do Oxford Information Labs discutem qual o papel que a Lei de Inteligência Artificial da União Europeia atribui aos padrões para a IA. O ponto chave que destacam é que a conformidade com os padrões harmonizados criará uma presunção de conformidade para as aplicações e serviços de IA de alto risco. Isso, por sua vez, pode aumentar a confiança de que cumprem os requisitos complexos da regulamentação proposta e criar fortes incentivos para que a indústria cumpra as normas europeias. Encontre a análise completa sobre o papel dos padrões na regulamentação de IA da UE aqui.
Equipe de Análise do Laboratório do Futuro/Sistema de Informação da União Europeia.
Os criadores e desenvolvedores do ChatGPT acreditam que a nova superinteligência pode superar os especialistas humanos na maioria das disciplinas nos próximos 10 anos e pedem uma regulação supra, embora o responsável principal, Sam Altman, não considere aceitável a regulação proposta pela União Europeia.
Os criadores do ChatGPT publicaram uma nota (que poderá ser vista quase a seguir) onde alertam que, em dez anos, os sistemas de inteligência artificial podem superar os especialistas humanos na maioria das áreas. Essa superinteligência, dizem, será mais poderosa que outras tecnologias com as quais a humanidade já teve que lidar no passado e representa um risco existencial para nossa civilização. Por isso, instam as autoridades a pensar agora em como vamos gerenciá-la. É material para analisar e, sobretudo, refletir sobre o motivo pelo qual os criadores da tecnologia estão teoricamente tão alarmados…
Sam Altman, Greg Brockman, Ilya Sutskever, três dos cofundadores da OpenAI, a empresa por trás do ChatGPT, acreditam que a superinteligência do futuro será ainda mais capaz que a inteligência artificial geral — uma forma de inteligência sintética comparável à humana — e poderá ser tão produtiva quanto as grandes empresas atuais.
Mas, é importante que vejamos o conteúdo dessa nota:
A nota dos três fundadores é de 22 de maio de 2023 e diz textualmente: Inteligência Artificial responsável, segurança e alinhamento Dada a imagem atual, é concebível que, dentro dos próximos dez anos, os sistemas de Inteligência Artificial superem o nível de habilidade dos especialistas na maioria dos domínios e realizem tanta atividade produtiva quanto uma das corporações mais grandes de hoje. Em termos de vantagens e desvantagens potenciais, a superinteligência será mais poderosa do que outras tecnologias com as quais a humanidade teve que lidar no passado. Podemos ter um futuro dramaticamente mais próspero; mas precisamos gerenciar o risco para chegar lá. Dada a possibilidade de risco existencial, não podemos simplesmente ser reativos. A energia nuclear é um exemplo histórico de uso comum de uma tecnologia com essa propriedade; a biologia sintética é outro exemplo. Também devemos mitigar os riscos da tecnologia de inteligência artificial atual, mas a superinteligência exigirá um tratamento e coordenação especiais. Um ponto de partida: Existem várias ideias que são importantes para termos uma boa chance de navegar com sucesso esse desenvolvimento; aqui apresentamos nosso pensamento inicial sobre três delas. Primeiramente, precisamos de algum grau de coordenação entre os principais esforços de desenvolvimento para garantir que o desenvolvimento da superinteligência aconteça de uma maneira que nos permita manter a segurança e ajudar na integração fluida desses sistemas com a sociedade. Existem muitas maneiras de implementar isso: os principais governos do mundo poderiam criar um projeto do qual participassem muitos dos esforços atuais, ou poderíamos acordar coletivamente (com o apoio de uma nova organização, como a sugerida a seguir) que a taxa de crescimento da capacidade de Inteligência Artificial na fronteira seja limitada a uma certa taxa por ano. E, claro, as empresas individuais devem estar sujeitas a um padrão extremamente alto de atuação responsável. Em segundo lugar, provavelmente precisaremos eventualmente de algo como um OIEA (Organização Internacional de Energia Atômica) para os esforços de superinteligência; qualquer esforço acima de um certo limite de capacidade (ou recursos como computação) deverá estar sujeito a uma autoridade internacional que possa inspecionar os sistemas, exigir auditorias, testar o cumprimento dos padrões de segurança, impor restrições nos graus de implementação e níveis de segurança, etc. O monitoramento do uso de computação e energia poderia ser de grande ajuda e nos dar alguma esperança de que essa ideia possa ser implementada. Como primeiro passo, as empresas poderiam voluntariamente começar a implementar elementos do que tal agência poderia exigir um dia, e como segundo, os países individuais poderiam implementá-lo. Seria importante que uma agência dessa natureza se concentrasse em reduzir o risco existencial e não em questões que deveriam ser tratadas por países individuais, como definir o que uma IA deve ser permitida dizer. Em terceiro lugar, precisamos da capacidade técnica para tornar uma superinteligência segura. Esta é uma questão de pesquisa aberta na qual nós e outros estamos colocando muito esforço. O que não está no escopo: Acreditamos que é importante permitir que empresas e projetos de código aberto desenvolvam modelos abaixo de um limite significativo de capacidade, sem o tipo de regulação que descrevemos aqui (incluindo mecanismos onerosos como licenças ou auditorias). Os sistemas de hoje criam um enorme valor no mundo e, embora tenham riscos, o nível desses riscos parece adequado a outras tecnologias da Internet e os prováveis enfoques da sociedade parecem apropriados. Por outro lado, os sistemas que nos preocupam terão um poder além de qualquer tecnologia criada até agora, e devemos ter cuidado para não diluir o enfoque neles aplicando padrões semelhantes à tecnologia muito abaixo dessa barra. Opinião pública e potencial: Mas a governança dos sistemas mais poderosos, assim como as decisões relativas ao seu despliegue, devem contar com uma forte supervisão pública. Acreditamos que as pessoas de todo o mundo deveriam decidir democraticamente os limites e valores padrão dos sistemas de Inteligência Artificial. Ainda não sabemos como projetar tal mecanismo, mas planejamos experimentar seu desenvolvimento. Continuamos acreditando que, dentro desses amplos limites, os usuários individuais devem ter muito controle sobre como a Inteligência Artificial que utilizam se comporta. Dadas as dificuldades e os riscos, vale a pena considerar por que estamos criando essa tecnologia. Na OpenAI temos duas razões fundamentais. Primeiro, acreditamos que ela levará a um mundo muito melhor do que podemos imaginar hoje (já estamos vendo exemplos iniciais disso em áreas como educação, trabalho criativo e produtividade pessoal). O mundo enfrenta muitos problemas que precisaremos de muito mais ajuda para resolver; essa tecnologia pode melhorar nossas sociedades, e a capacidade criativa de todos para usar essas novas ferramentas certamente nos surpreenderá. O crescimento econômico e o aumento da qualidade de vida serão impressionantes. Em segundo lugar, acreditamos que seria pouco intuitivo, arriscado e difícil parar a criação de superinteligência. Como as vantagens são tão enormes, o custo de construí-la diminui a cada ano, a quantidade de atores que a constroem aumenta rapidamente e faz parte do caminho tecnológico no qual estamos; detê-la exigiria algo como um regime de vigilância global, e mesmo assim não está garantido que funcione. Então, precisamos fazer isso da maneira certa.
De acordo com o que vimos, a visão da OpenAI — empresa na qual a Microsoft participa com um investimento de 10 bilhões de dólares — é que as futuras gerações de inteligência artificial nos trarão um futuro muito mais próspero. No entanto, para que isso aconteça, devemos gerenciar o risco existencial que sua implementação implica.
Os criadores do ChatGPT acreditam que ainda estamos a tempo de desenvolver essa superinteligência de forma controlada. Eles também não acreditam que parar agora seja conveniente; para eles, interromper o desenvolvimento seria arriscado e difícil, embora seja importante lembrar que o propósito declarado da OpenAI é justamente dar vida a um desses sistemas superinteligentes. Por sinal, há muito dinheiro e interesses em jogo.
O texto sugere que a única maneira de desenvolver essa tecnologia de forma segura seria por meio de um regime de vigilância global, embora não tenham certeza se isso funcionaria. Por isso, defendem que as decisões relacionadas ao seu desenvolvimento e implementação devem ter “uma sólida supervisão pública”, algo que o CEO da empresa tem repetido em suas aparições públicas.
O problema, então, é como evitar o risco existencial. Eles propõem três ideias para alcançar isso. A primeira é garantir um desenvolvimento coordenado dessa tecnologia que permita sua integração na sociedade, mantendo limites básicos de segurança.
Para isso, propõem duas maneiras de implementar essa coordenação. Uma, impulsionada pelos principais governos do mundo, com a participação dos principais desenvolvedores atuais. A outra seria por meio de um acordo coletivo, supervisionado por uma organização independente, que estabeleça um ritmo anual de crescimento da tecnologia. Em qualquer caso, afirmam que as empresas devem ser exigidas a manter um nível extremamente alto de responsabilidade.
Em segundo lugar, sugerem criar um organismo semelhante ao que regula a energia atômica (o OIEA) para monitorar os avanços em direção à superinteligência. Caso uma tecnologia ultrapasse um determinado limite de capacidade, ela deverá passar por auditoria de uma autoridade internacional que possa inspecionar os novos sistemas para evitar um risco existencial. Algo que, sugerem, as empresas desenvolvedoras poderiam começar a fazer voluntariamente como um simulacro das capacidades que o novo organismo deveria ter.
Finalmente, os três cofundadores da OpenAI afirmam que é necessário desenvolver a capacidade técnica para tornar a superinteligência segura. “É uma questão de pesquisa aberta à qual nós e outros estamos dedicando muitos esforços”, asseguram.
Mas, curiosamente, a OpenAI não gosta das leis europeias.
Sam Altman, que além de cofundador da OpenAI também é seu CEO, alertou recentemente que sua empresa poderia deixar de operar na Europa caso o bloco aplique suas medidas sobre inteligência artificial.
O Comissário Europeu de Justiça, Didier Reynders, em uma coletiva de imprensa sobre Inteligência Artificial. A União Europeia se tornou o regulador de fato da Inteligência Artificial no mundo.
A proposta de Lei de Inteligência Artificial da UE estabelece três níveis de risco para essas tecnologias. A categoria de maior risco “criaria um risco inaceitável, como o sistema de pontuação social gerenciado por um governo, do tipo utilizado na China”, e seria proibida. A segunda categoria de risco estaria “sujeita a requisitos legais específicos” e corresponderia aos sistemas de IA usados para analisar currículos e classificar candidatos a emprego. E a terceira categoria seria para sistemas de IA “que não estão explicitamente proibidos ou classificados como de alto risco” e, portanto, “ficariam em grande parte sem regulamentação”.
O Parlamento Europeu votou a favor da lei por ampla maioria e estabeleceu o dia 14 de junho como a data provisória para sua adoção. “Os detalhes realmente importam. Tentaremos cumprir, mas se não conseguirmos, deixaremos de operar”, afirmou Altman em declarações ao Financial Times. Infelizmente, isso soa mais como uma ameaça do que qualquer outra coisa.
Na edição de amanhã do blog, veremos em que consiste essa regulamentação, que certamente está a caminho de ser implementada na União Europeia.
A imperiosa necessidade de cumprir as regras e proteger os dados dos usuários
Novamente, o Sr. Zuckerberg, CEO da Meta, enfrenta problemas com as autoridades regulatórias europeias com o seu Facebook/Meta. Embora já tenhamos assistido às suas apresentações diante dessas autoridades em anos anteriores, as quais não foram precisamente nem bem-sucedidas nem muito amigáveis, a União Europeia, por meio dos órgãos competentes, golpeou com muita força a empresa, por desconsiderar as disposições vigentes. Isso porque, para os europeus, o tema da proteção dos dados dos usuários não é considerado uma violação menor das regras. E, de acordo com os antecedentes, não se pode afirmar com absoluta certeza que Zuckerberg seja, precisamente, um homem estritamente preocupado com esses detalhes. Basta lembrar episódios como os de Cambridge Analytica, que lembramos em um quadro ao final deste post, para aqueles que não se recordam. Esses episódios – de manipulação direta de dados e pessoas – custaram à empresa uma fortuna em multas nos Estados Unidos e no Reino Unido, por suposta manipulação de vontades a favor do Brexit (saída da Inglaterra da União Europeia).
Agora, a União Europeia impôs à Meta, dona do Facebook, uma multa recorde de 1,2 bilhões de euros por transferir dados de cidadãos europeus para os Estados Unidos, conforme anunciado pela Comissão de Proteção de Dados irlandesa, que é a agência responsável por supervisionar o cumprimento da normativa de privacidade na União Europeia.
O órgão europeu de proteção de dados entende que o Facebook armazenou ilegalmente durante anos dados de cidadãos europeus em seus servidores nos Estados Unidos. A multa representa um recorde europeu em matéria de privacidade, superando a sanção de 746 milhões de euros imposta à Amazon em 2021. Além disso, a União Europeia dá um prazo de cinco meses para que a Meta pare de enviar dados de seus usuários europeus para os Estados Unidos e seis meses para excluir qualquer informação pessoal que tenha sido transferida anteriormente.
Em março de 2022, a União Europeia e os Estados Unidos chegaram a um acordo sobre os princípios do novo marco para garantir a livre transferência de dados pessoais entre ambos os blocos, conforme anunciado publicamente pelo presidente dos EUA, Joseph Biden, e a presidente da Comissão Europeia, Ursula Von der Leyen. O marco de transferência foi suspenso em 2020, quando o Tribunal de Justiça da União Europeia anulou o acordo em vigor, porque considerava que os Estados Unidos não garantiam a privacidade dos dados dos cidadãos europeus.
O órgão irlandês entende que as cláusulas contratuais utilizadas pela Meta para transferir os dados para os Estados Unidos “não abordam os riscos para os direitos e liberdades fundamentais” dos usuários europeus do Facebook apresentados por esta sentença.
O acordo entre ambos os blocos ainda não entrou em vigor. Nick Clegg, presidente de Assuntos Globais da Meta, pediu urgência na efetivação desse novo marco. “Fico frustrado ao ver que não implementaram o acordo anunciado”, afirmou. “É preciso garantir esse fluxo de dados”.
A sanção aumenta a pressão sobre o governo dos Estados Unidos para que feche finalmente o acordo que permita a milhares de multinacionais continuar enviando informações de usuários europeus para os Estados Unidos. O acordo final pode estar pronto já em julho, embora possa ser adiado até o outono.
A Meta chegou a ameaçar abandonar suas operações na União Europeia (a propósito, a ameaça é um dos instrumentos preferidos pela atualmente chamada Meta) se ambos os blocos não chegassem a um acordo para permitir a transferência de dados. O marco anterior foi anulado pela justiça europeia após uma denúncia contra o Facebook feita pelo austríaco Max Schrems, que buscava impedir o envio de dados de cidadãos europeus para os EUA, devido ao fato de as leis dos Estados Unidos não oferecerem o mesmo nível de proteção que a normativa europeia de proteção de dados.
A empresa americana garantiu que apelará tanto da sentença quanto da multa imposta e pedirá a suspensão da ordem diante dos tribunais. Além disso, afirmou que não haverá interrupção imediata do Facebook na Europa.
Em um comunicado assinado por Nick Clegg (uma figura muito interessante, por sinal, o Sr. Zuckerberg não mede esforços), a empresa diz que usou as cláusulas contratuais com a convicção de que esse instrumento legal atendia às exigências do regulamento europeu de proteção de dados. “Vamos recorrer e pedir aos tribunais que suspendam os prazos de aplicação, dado o prejuízo que essas ordens causariam, incluindo aos milhões de pessoas que usam o Facebook todos os dias.”
Como é de prática, este é um tema de todos os dias – a proteção dos direitos e da propriedade dos dados dos usuários – portanto, teremos que ficar atentos ao próximo capítulo, embora para a Meta/Facebook a situação não pareça ser a melhor neste caso específico.
Facebook e o caso Cambridge Analytica: Na década de 2010, a consultoria britânica Cambridge Analytica coletou dados de milhões de usuários do Facebook sem seu consentimento, principalmente para utilizá-los com fins de propaganda política. Os dados foram obtidos por meio de um aplicativo chamado This Is Your Digital Life (“Esta é sua vida digital”), desenvolvido pelo informático Aleksandr Kogan e sua empresa Global Science Research em 2013. O aplicativo consistia em uma série de perguntas para elaborar perfis psicológicos de usuários e coletou dados pessoais dos contatos de seus usuários por meio da plataforma Open Graph do Facebook. O aplicativo coletou dados de até 87 milhões de perfis do Facebook, e a Cambridge Analytica os utilizou para fornecer assistência analítica às campanhas de Ted Cruz e Donald Trump nas eleições presidenciais de 2016. A Cambridge Analytica também foi acusada de interferir no referendo do Brexit, embora a investigação oficial tenha reconhecido que a empresa não interveio “além de certas investigações iniciais” e que não ocorreram “infrações significativas”. As informações sobre o mau uso dos dados foram divulgadas por Christopher Wylie, ex-funcionário da Cambridge Analytica, em entrevistas ao The Guardian e ao The New York Times. Em resposta, o Facebook se desculpou por seu papel na coleta de dados, e seu CEO, Mark Zuckerberg, teve que depor no Congresso dos Estados Unidos. Em julho de 2019, foi anunciado que a Comissão Federal de Comércio impôs ao Facebook uma multa de 5 bilhões de dólares por violações de privacidade. Em outubro de 2019, o Facebook aceitou pagar uma multa de 500.000 libras à Oficina do Comissário de Informação do Reino Unido por expor os dados de seus usuários a um “sério risco de dano”. Em maio de 2018, a Cambridge Analytica declarou falência nos EUA. Outras agências de publicidade já implementavam formas de monitoramento psicológico, e o Facebook patenteou uma tecnologia similar em 2012. No entanto, a sinceridade da Cambridge Analytica sobre seus métodos e o calibre de seus clientes — como a campanha presidencial de Trump e a campanha a favor do Brexit — conscientizou a opinião pública sobre os problemas que o monitoramento psicológico pode causar, uma questão sobre a qual estudiosos vêm alertando há anos. O escândalo gerou um crescente interesse público pela privacidade e pela influência das redes sociais na política. No Twitter, o movimento ‘’#DeleteFacebook’’ (“Apague o Facebook”) se tornou tendência.
[i] Sir Nicholas William Peter Clegg, conhecido como Nick Clegg, é um político britânico socioliberal. Aos 32 anos, foi eleito deputado ao Parlamento Europeu, instituição que integrou até 2004. Desde as eleições gerais do Reino Unido de 2005 até 2017, representou o distrito de Sheffield Hallam no Parlamento do Reino Unido. Nos seus primeiros anos como parlamentar, assumiu o cargo de Porta-voz de Interior de seu partido. Apenas dois anos após sua entrada na Câmara dos Comuns, foi eleito Líder dos Liberal Democratas.
Clegg liderou seu partido nas Eleições gerais do Reino Unido de 2010, nas quais nenhum partido obteve a maioria absoluta da Câmara dos Comuns. Devido a essa situação, o Partido Conservador de David Cameron formou uma coalizão de governo com os Liberais, nomeando Clegg como vice-primeiro-ministro do Reino Unido em 11 de maio de 2010, cargo que é o segundo mais importante do Governo do Reino Unido. Após as Eleições gerais do Reino Unido de 2015, Clegg renunciou à liderança de seu partido e, com a vitória dos conservadores nas urnas, deixou de ocupar o cargo de vice-primeiro-ministro.
Em 19 de outubro de 2018, Clegg foi nomeado vice-presidente de Assuntos Globais e Comunicação do Facebook em Palo Alto, depois que as ações da empresa perderam 15% de seu valor em 2018. Ele assumiu o cargo em janeiro de 2019.
Em maio de 2018, Clegg se juntou a David Miliband e Nicky Morgan pedindo um Brexit suave. No dia 23 de junho de 2018, Clegg participou da marcha convocada pelo People’s Vote em Londres para comemorar o segundo aniversário do referendo para sair da União Europeia. O People’s Vote é um grupo que pedia uma votação pública sobre o acordo final do Brexit entre o Reino Unido e a União Europeia. Em outubro de 2018, foi anunciado que Clegg havia sido contratado como responsável oficial de relações públicas no seu papel de vice-presidente de Assuntos Globais e Comunicação no Facebook, substituindo Elliot Schrage. Seu salário anual é de 4.500.000 euros, o que equivale a sessenta vezes o que ele ganhava como deputado.