Inteligência Artificial XI – Como o mundo deve responder à Revolução da Inteligência Artificial

Inteligência Artificial XI – Como o mundo deve responder à Revolução da Inteligência Artificial

Pausar os desenvolvimentos de IA não é suficiente. Precisamos encerrar tudo

Yudkowsky é um teórico da decisão dos EUA e lidera pesquisas no Instituto de Pesquisa de Inteligência de Máquinas. Ele tem trabalhado na aliança da Inteligência Geral Artificial desde 2001 e é amplamente considerado um dos fundadores do campo.

Uma carta aberta publicada no final de maio de 2023 pede que “todos os laboratórios de IA pausem imediatamente, por pelo menos 6 meses, o treinamento de sistemas de IA mais poderosos que o GPT-4”.

Essa moratória de 6 meses seria melhor do que nenhuma moratória. Tenho respeito por todos que se manifestaram e assinaram. É uma melhoria marginal.

Eu me abstive de assinar porque acredito que a carta subestima a gravidade da situação e pede muito pouco para resolvê-la.

A questão-chave não é a inteligência “competitiva com a humana” (como diz a carta aberta); é o que acontece depois que a IA alcança uma inteligência superior à humana. Os limiares críticos podem não ser óbvios, definitivamente não podemos calcular de antemão o que acontece e quando, e atualmente parece possível que um laboratório de pesquisa cruze linhas críticas sem perceber.

Muitos pesquisadores imersos nesses temas, incluindo eu, esperam que o resultado mais provável de construir uma IA super-humanamente inteligente, sob qualquer circunstância remotamente parecida com as atuais, seja que, literalmente, todos na Terra morram. Não como em “talvez, possivelmente, uma chance remota”, mas como em “isso é o que obviamente aconteceria”. Não é que, em princípio, não seja possível sobreviver criando algo muito mais inteligente do que você; é que isso exigiria precisão, preparação e novos conhecimentos científicos, além de, provavelmente, não ter sistemas de IA compostos por conjuntos gigantescos e inescrutáveis de números fracionários.

Sem essa precisão e preparação, o resultado mais provável é uma IA que não faz o que queremos e não se importa conosco ou com a vida senciente em geral. Esse tipo de preocupação é algo que, em princípio, poderia ser incorporado a uma IA, mas não estamos prontos e atualmente não sabemos como fazer isso.

Na ausência dessa preocupação, o que acontece é que “a IA não te ama, nem te odeia, e você é feito de átomos que ela pode usar para outra coisa”.

O resultado provável da humanidade enfrentando uma inteligência sobre-humana hostil é uma perda total. As metáforas válidas incluem “uma criança de 10 anos tentando jogar xadrez contra o Stockfish 15”, “o século XI tentando lutar contra o século XXI” e “Australopithecus tentando lutar contra o Homo sapiens”.

Para visualizar uma IA sobre-humana hostil, não imagine um pensador inteligente e sem vida vivendo na Internet e enviando e-mails mal-intencionados. Imagine uma civilização alienígena inteira, pensando milhões de vezes mais rápido que os humanos, inicialmente confinada a computadores, em um mundo de criaturas que são, de sua perspectiva, extremamente estúpidas e lentas. Uma Inteligência Artificial suficientemente inteligente não permanecerá confinada aos computadores por muito tempo. No mundo atual, ela pode enviar sequências de DNA por e-mail para laboratórios que produzem proteínas sob demanda, permitindo que uma IA inicialmente confinada à Internet construa formas de vida artificiais ou inicie diretamente a fabricação molecular pós-biológica.

Se alguém criar uma IA muito poderosa nas condições atuais, espero que todos os membros da espécie humana e toda a vida biológica na Terra morram pouco depois.

Não há um plano proposto sobre como poderíamos fazer tal coisa e sobreviver. A intenção abertamente declarada da OpenAI é fazer com que alguma futura IA realize nossa tarefa de alinhamento de IA. Apenas ouvir que esse é o plano deveria ser suficiente para que qualquer pessoa sensata entrasse em pânico. O outro laboratório líder em IA, DeepMind, não tem nenhum plano.

Um parêntese: nada desse perigo depende de as IAs serem ou poderem ser conscientes; ele é intrínseco à noção de sistemas cognitivos poderosos que otimizam e calculam resultados que atendem a critérios suficientemente complexos. Dito isso, seria negligente em meus deveres morais como humano se eu não mencionasse também que não temos ideia de como determinar se os sistemas de IA são conscientes, já que não sabemos decodificar nada do que acontece nas gigantescas matrizes inescrutáveis. Assim, em algum momento, sem percebermos, podemos criar mentes digitais que são verdadeiramente conscientes e deveriam ter direitos e não deveriam ser propriedade de ninguém.

A regra que a maioria das pessoas conscientes desses problemas teria apoiado 50 anos atrás era que, se um sistema de IA pode falar fluentemente e diz que é autoconsciente e exige direitos humanos, isso deveria ser um obstáculo para que as pessoas simplesmente possuíssem essa Inteligência Artificial e a utilizassem além desse ponto. Já ultrapassamos essa antiga linha na areia. E provavelmente isso foi correto. Concordo que as IAs atuais provavelmente estão apenas imitando a conversa sobre autoconsciência de seus dados de treinamento. Mas destaco que, com o pouco entendimento que temos dos mecanismos internos desses sistemas, na verdade, não sabemos.

Se esse é o nosso estado de ignorância para o GPT-4, e o GPT-5 for um salto de capacidade tão grande quanto foi do GPT-3 para o GPT-4, acredito que não poderemos mais dizer com justificativa que “provavelmente não é autoconsciente” se permitirmos que fabriquem o GPT-5. Simplesmente será “Não sei; ninguém sabe”. Se você não pode ter certeza se está criando uma IA autoconsciente, isso é alarmante não apenas pelas implicações morais da parte “autoconsciente”, mas porque não ter certeza significa que você não faz ideia do que está fazendo. E isso é perigoso, e você deveria parar.

Em 7 de fevereiro, Satya Nadella, CEO da Microsoft, vangloriou-se publicamente de que o novo Bing faria o Google “sair e provar que pode dançar”. “Quero que as pessoas saibam que os fizemos dançar”, disse ele.

Não é assim que o CEO da Microsoft falaria em um mundo racional. Isso mostra um abismo esmagador entre a seriedade com que estamos tratando o problema e a seriedade com que deveríamos ter tratado há 30 anos.

Não vamos fechar esse abismo em seis meses.

Passaram-se mais de 60 anos desde que a noção de inteligência artificial foi proposta e estudada pela primeira vez até alcançarmos as capacidades atuais. Resolver a segurança da inteligência sobre-humana, não a segurança perfeita, mas a segurança no sentido de “não matar literalmente a todos”, poderia levar razoavelmente pelo menos metade desse tempo. E o problema de tentar isso com inteligência sobre-humana é que, se você errar na primeira tentativa, não pode aprender com os erros, porque está morto. A humanidade não aprende com o erro, se levanta e tenta de novo, como em outros desafios que superamos na nossa história, porque todos nós teremos desaparecido.

Tentar fazer algo certo na primeira tentativa realmente crítica é uma tarefa extraordinária, tanto na ciência quanto na engenharia. Não estamos chegando nem perto do nível de rigor necessário para fazê-lo com sucesso. Se aplicássemos ao campo emergente da Inteligência Geral Artificial os padrões mínimos de rigor de engenharia que são aplicados a uma ponte projetada para transportar alguns milhares de carros, todo o campo seria fechado amanhã.

Não estamos preparados. Não estamos no caminho para estarmos preparados dentro de um período razoável. Não há um plano. O progresso nas capacidades da IA é enorme, muito à frente do progresso na sua alinhamento ou mesmo da compreensão do que diabos está acontecendo dentro desses sistemas. Se realmente fizermos isso, todos nós morreremos.

Muitos pesquisadores que trabalham nesses sistemas acreditam que estamos avançando rumo a uma catástrofe, e mais deles ousam dizer isso em particular do que em público; mas acreditam que não podem impedir unilateralmente essa queda para frente, pois outros continuarão mesmo que renunciem aos seus empregos. E então todos pensam que também podem continuar. Este é um estado de coisas estúpido e uma maneira indigna para a Terra morrer, e o resto da humanidade deveria intervir neste ponto e ajudar a indústria a resolver seu problema de ação coletiva.

Alguns dos meus amigos me informaram recentemente que, quando pessoas de fora da indústria de IA ouvem pela primeira vez sobre o risco de extinção da Inteligência Geral Artificial, sua reação é “talvez não devêssemos construir AGI, então”.

Ouvir isso me deu um pequeno lampejo de esperança, porque é uma reação mais simples, mais sensata e francamente mais racional do que qualquer outra que ouvi nos últimos 20 anos tentando fazer alguém na indústria levar isso a sério. Qualquer pessoa que fale assim merece ouvir quão grave é a situação na realidade, e não ser informada de que uma moratória de seis meses resolverá o problema.

Em 16 de março, minha parceira me enviou este e-mail. (Mais tarde, ela me deu permissão para compartilhá-lo aqui).

“Nina perdeu um dente! Da maneira normal que as crianças perdem, não por descuido! Ver o GPT-4 superar aqueles testes padronizados no mesmo dia em que Nina atingiu um marco da infância provocou uma onda emocional que me fez perder a cabeça por um minuto. Tudo está indo rápido demais. Tenho medo de que compartilhar isso aumente sua própria dor, mas prefiro que você me conheça do que cada um de nós sofra sozinho.”

Quando a conversa interna gira em torno da dor de ver sua filha perder seu primeiro dente e pensar que ela pode não ter a chance de crescer, acredito que já passamos do ponto de jogar xadrez político sobre uma moratória de seis meses.

Se houvesse um plano para a Terra sobreviver e bastasse aprovar uma moratória de seis meses, eu apoiaria esse plano. Mas não há tal plano.

Isto é o que realmente precisaria ser feito:

A moratória sobre novos grandes treinamentos deve ser indefinida e mundial. Não pode haver exceções, nem mesmo para governos ou militares. Se a política começar pelos EUA, a China deve ver que os EUA não estão buscando uma vantagem, mas tentando impedir uma tecnologia terrivelmente perigosa que não pode ter um verdadeiro dono e que matará todos nos EUA, na China e na Terra. Se eu tivesse liberdade infinita para redigir leis, poderia fazer uma única exceção para que Inteligências Artificiais fossem treinadas exclusivamente para resolver problemas em biologia e biotecnologia, sem serem treinadas com textos da internet, e não em um nível onde começam a falar ou planejar; mas se isso complicasse minimamente o problema, eu descartaria imediatamente essa proposta e simplesmente diria para desligar tudo.

Desliguem todos os grandes clusters de GPU (as grandes fazendas de computadores onde as IAs mais poderosas são refinadas). Fechem todas as grandes corridas de treinamento. Imponham um limite à quantidade de poder computacional que qualquer um pode usar para treinar um sistema de IA e reduzam-no ao longo dos próximos anos para compensar algoritmos de treinamento mais eficientes. Sem exceções para governos e militares. Façam acordos multilaterais imediatos para impedir que atividades proibidas sejam transferidas para outros lugares. Acompanhem todas as GPUs vendidas. Se a inteligência indicar que um país fora do acordo está construindo um cluster de GPU, tenham menos medo de um conflito armado entre nações do que da violação da moratória; estejam dispostos a destruir um centro de dados rebelde por meio de um ataque aéreo.

Não enquadrem isso como um conflito entre interesses nacionais, deixem claro que qualquer um que fale sobre corridas armamentistas é um tolo. O fato de vivermos ou morrermos juntos nisso não é uma política, mas um fato da natureza. Deixem explícito na diplomacia internacional que a prevenção de cenários de extinção da IA é considerada uma prioridade acima da prevenção de um intercâmbio nuclear total, e que países aliados com armas nucleares estão dispostos a correr algum risco de confronto nuclear se isso for necessário para reduzir o risco de grandes corridas de treinamento de IA.

Esse é o tipo de mudança política que faria com que minha parceira e eu nos abraçássemos e disséssemos que um milagre aconteceu, e agora existe uma chance de Nina viver. As pessoas sensatas que ouvem sobre isso pela primeira vez e dizem com razão “talvez não devêssemos” merecem ouvir, honestamente, o que seria necessário para que isso acontecesse. E quando a sua proposta de política é tão grande, a única maneira de que ela seja aprovada é se os legisladores perceberem que, se continuarem fazendo negócios como de costume e adotando o que é politicamente fácil, isso significará que seus próprios filhos também morrerão.

Não estamos prontos. Não estamos no caminho para estarmos significativamente mais preparados no futuro previsível. Se continuarmos com isso, todos morreremos, inclusive as crianças que não escolheram isso e que não fizeram nada de errado.


Equipe de análise do Laboratório do Futuro/Revista Time (Inglaterra). Artigo de Eliezer Yudkowsky.

Tradução do inglês: equipe de tradução e interpretação do Laboratório do Futuro.

Como o mundo deve responder à Revolução da Inteligência Artificial.

Como o mundo deve responder à Revolução da Inteligência Artificial.

Bremmer é colunista de assuntos exteriores e editor geral da TIME. Ele é presidente do Eurasia Group, uma consultoria de risco político, e do GZERO Media, uma empresa dedicada a fornecer uma cobertura inteligente e atraente de assuntos internacionais. Ele ensina geopolítica aplicada na Escola de Assuntos Internacionais e Públicos da Universidade de Columbia e seu livro mais recente é O Poder da Crise.

O crescente desenvolvimento da inteligência artificial produzirá avanços médicos que salvarão e melhorarão bilhões de vidas. Ela se tornará o motor de prosperidade mais poderoso da história. Dará a um número incontável de pessoas, incluindo gerações que ainda não nasceram, ferramentas poderosas que seus antepassados nunca imaginaram. Mas os riscos e desafios que a Inteligência Artificial apresentará também estão se tornando claros, e agora é o momento de compreendê-los e enfrentá-los. Aqui estão os maiores.

A saúde da democracia e dos mercados livres depende do acesso a informações precisas e verificáveis. Nos últimos anos, as redes sociais tornaram mais difícil distinguir fatos de ficção, mas os avanços em IA desencadearão legiões de bots que parecem muito mais humanos do que os que encontramos até hoje. As falsificações profundas de áudio e vídeo muito mais sofisticadas minarão nossa confiança (já enfraquecida) nas pessoas que servem no governo e naquelas que informam as notícias. Na China, e mais tarde em seus estados clientes, a IA levará o reconhecimento facial e outras ferramentas que podem ser usadas para vigilância estatal a níveis de sofisticação exponencialmente mais altos.

Esse problema vai além de nossas instituições, porque a produção de “IA generativa”, inteligência artificial que gera conteúdo escrito, visual e de outro tipo sofisticado em resposta às indicações dos usuários, não se limita às grandes empresas de tecnologia. Qualquer pessoa com um laptop e habilidades básicas de programação já tem acesso a modelos de IA muito mais poderosos do que os que existiam há apenas alguns meses e pode produzir volumes de conteúdo sem precedentes. Este desafio de proliferação está prestes a crescer exponencialmente, já que milhões de pessoas terão seu próprio GPT executando dados em tempo real disponíveis na Internet. A revolução da IA permitirá que criminosos, terroristas e outros malfeitores codifiquem malware, criem armas biológicas, manipulem os mercados financeiros e distorçam a opinião pública com uma facilidade impressionante.

A inteligência artificial também pode exacerbar a desigualdade, tanto dentro das sociedades, entre pequenos grupos com riqueza, acesso ou habilidades especiais, quanto entre nações mais ricas e mais pobres.

A Inteligência Artificial causará agitação na força de trabalho. Sim, os avanços tecnológicos do passado criaram principalmente mais empregos do que eliminaram, e aumentaram a produtividade e a prosperidade em geral, mas há advertências cruciais. Os empregos criados pelas grandes mudanças tecnológicas no local de trabalho exigem conjuntos de habilidades diferentes daqueles que foram destruídos, e a transição nunca é fácil. Os trabalhadores precisam ser requalificados. Aqueles que não puderem se requalificar devem ser protegidos por uma rede de segurança social, cuja força varia de um lugar para outro. Ambos os problemas são custosos e nunca será fácil para os governos e as empresas privadas chegarem a um acordo sobre como compartilhar essa carga.

Mais fundamentalmente ainda, o deslocamento causado pela Inteligência Artificial ocorrerá de maneira mais ampla e muito mais rápida do que as transições do passado. A agitação da transição gerará agitação econômica e, portanto, política em todo o mundo.

Finalmente, a revolução da IA também imporá um custo emocional e espiritual. Os seres humanos são animais sociais. Prosperamos na interação com os outros e murchamos no isolamento. Com demasiada frequência, os bots substituirão os humanos como companheiros de muitas pessoas, e, quando os cientistas e médicos compreenderem o impacto a longo prazo dessa tendência, nossa crescente dependência da inteligência artificial, até mesmo para companhia, pode ser irreversível. Este pode ser o desafio mais importante da IA.

A resposta:

Desafios como estes exigirão uma resposta global. Hoje em dia, a inteligência artificial não é regulamentada por autoridades governamentais, mas por empresas de tecnologia. A razão é simples: não se pode criar regras para um jogo que não se entende. Mas confiar nas empresas de tecnologia para regular seus produtos não é um plano sustentável. Elas existem principalmente para obter lucros, não para proteger os consumidores, as nações ou o planeta. É um pouco como deixar as empresas de energia liderarem as estratégias para combater as mudanças climáticas, exceto que o aquecimento e seus perigos já são entendidos de uma maneira que os riscos da IA não são, o que nos deixa sem grupos de pressão que possam ajudar a forçar a adoção de políticas inteligentes e saudáveis.

Então, onde estão as soluções? Precisaremos de ação nacional, cooperação global e alguma cooperação com bom senso dos governos dos EUA e da China, em particular.

Sempre será mais fácil alcançar uma política bem coordenada dentro dos governos nacionais do que a nível internacional, mas os líderes políticos têm suas próprias prioridades. Em Washington, os formuladores de políticas se concentraram principalmente em ganhar uma corrida com a China para desenvolver os produtos tecnológicos que melhor apoiem a segurança e a prosperidade do século XXI, e isso os incentivou a dar às empresas tecnológicas que servem ao interesse nacional algo parecido com a liberdade. Os legisladores chineses, temendo que as ferramentas de inteligência artificial possam minar sua autoridade política, regulamentaram de maneira muito mais agressiva. Os legisladores europeus se concentraram menos na segurança ou nos lucros do que no impacto social dos avanços da IA.

Mas todos terão que estabelecer regras nos próximos anos que limitem a capacidade dos bots de IA para minar as instituições políticas, os mercados financeiros e a segurança nacional. Isso significa identificar e rastrear os maus atores, assim como ajudar as pessoas a separar a informação verdadeira da falsa. Infelizmente, esses são passos grandes, caros e complicados que os legisladores provavelmente não tomarão até que enfrentem crises geradas pela IA (mas reais). Isso não pode acontecer até que a discussão e o debate sobre esses temas comecem.

Ao contrário das mudanças climáticas, os governos do mundo ainda não concordaram que a revolução da IA representa um desafio transfronteiriço existencial. Aqui, as Nações Unidas têm um papel a desempenhar como a única instituição com o poder de convocação para desenvolver um consenso mundial. Uma abordagem da IA liderada pelas Nações Unidas nunca será a resposta mais eficiente, mas ajudará a alcançar um consenso sobre a natureza do problema e a unir recursos internacionais.

Ao forjar um acordo sobre quais riscos são mais prováveis, mais impactantes e emergem mais rapidamente, um equivalente focado na IA do Painel Intergovernamental sobre Mudanças Climáticas pode regular as reuniões e a produção de acordos sobre o “Estado da IA” que se aprofundam cada vez mais no coração das ameaças relacionadas à IA. Assim como com as mudanças climáticas, esse processo também precisará incluir a participação de funcionários de políticas públicas, cientistas, tecnólogos, delegados do setor privado e ativistas individuais que representem a maioria dos estados membros para criar um processo COP (Conferência das Partes) para abordar as ameaças à biossegurança, liberdade de informação, saúde da força de trabalho, etc. Também poderia haver uma agência de inteligência artificial inspirada na Agência Internacional de Energia Atômica para ajudar a vigiar a proliferação da IA.

Dito isso, não há como abordar os riscos de rápida metástase criados pela revolução da IA sem uma infusão de senso comum muito necessária nas relações entre os EUA e a China. Afinal, é a competição tecnológica entre os dois países e suas principais empresas de tecnologia que cria o maior risco de guerra, especialmente porque a IA desempenha um papel cada vez maior nas armas e no planejamento militar.

Pequim e Washington devem desenvolver e manter conversas de alto nível sobre as ameaças emergentes para ambos os países (e o mundo) e a melhor forma de contê-las. E não podem esperar que uma versão de IA da Crise dos Mísseis Cubanos os obrigue a alcançar uma transparência genuína no manejo de sua competição. Para criar um “acordo de controle de armas de IA” com monitoramento e verificação mútuos, cada governo deve ouvir não só um ao outro, mas também os tecnólogos de ambos os lados que entendem os riscos que precisam ser contidos.

Impossível? Absolutamente. O momento é péssimo, porque esses avanços chegam em um momento de intensa competição entre dois países poderosos que realmente não confiam um no outro.

Mas se os americanos e os soviéticos puderam construir uma infraestrutura de controle de armas funcional nas décadas de 1970 e 1980, os EUA e a China podem construir um equivalente para o século XXI. Esperemos que percebam que não têm outra opção antes que uma catástrofe o torne inevitavelmente óbvio.


Equipe de análise do Laboratório do Futuro / Revista Time (Inglaterra). Artigo de Ian Bremmer. Tradução do inglês: equipe de tradução e interpretação do Laboratório do Futuro.

Inteligência Artificial IX – Regulamentação Brasileira

Inteligência Artificial IX – Regulamentação Brasileira

Projeto de Lei de Regulamentação da Inteligência Artificial da Câmara dos Deputados da República Federativa do Brasil

Para a maioria dos membros da Câmara dos Deputados da República Federativa do Brasil, o marco da inteligência artificial incentivará o desenvolvimento tecnológico. É importante destacar que o país é o primeiro da América Latina a se ocupar do tema. O Projeto de Lei tem meia sanção, aguardando o tratamento e aprovação pela Câmara dos Senadores. A iniciativa foi apresentada durante a administração do Presidente Jair Mesias Bolsonaro. Posteriormente, como devemos informar, avançou-se na apresentação de projetos que contribuem para um complemento aprimorado do que já foi tratado, inclusive no Senado Federal.

Para os Deputados, o marco da inteligência artificial incentivará o desenvolvimento tecnológico.

A maioria dos Deputados avaliou que a definição de princípios para a aplicação da Inteligência Artificial no Brasil, tema do Projeto de Lei 21/20, vai incentivar o desenvolvimento tecnológico do país. O texto foi aprovado no Plenário da Câmara dos Deputados e, seguindo os trâmites constitucionais, será encaminhado ao Senado para seu tratamento.

A relatora do Projeto, a Deputada Luisa Canziani (PTB pelo Estado do Paraná), afirmou que limitou o texto e as diretrizes a serem utilizadas pelo poder público ao disciplinar a aplicação da inteligência artificial para não criar regras que acabem desestimulando sua adoção. Ela lembrou que alguns estados já estão criando regras próprias e, por isso, é necessário estabelecer uma legislação nacional sobre o tema. “Tomamos o que há de melhor nas experiências internacionais de regulamentação da inteligência artificial na construção deste texto. Se não aprovarmos esta matéria, vamos inibir os investimentos relacionados à inovação e à inteligência.”

O autor da proposta, o Deputado Eduardo Bismarck (PDT, pelo Estado do Ceará), afirmou que a aprovação de um marco legal para o setor indica ao mundo que o Brasil está atento à inovação e à inteligência artificial. “A inteligência artificial já faz parte da nossa realidade, e o Brasil, no futuro, vai fazer outras legislações. O momento é agora e é o de traçar princípios: direitos, deveres e responsabilidades.”

A proposta chegou a ser criticada pelo Deputado Leo de Brito (PT-Estado do Acre), que solicitou regras mais específicas. Após a inclusão no texto de temas como a responsabilidade do Estado, foi feito um acordo a favor do texto. De acordo com o Deputado de Brito, “fomos contemplados em algumas questões fundamentais, por isso retiramos nossa oposição.”

Para o Deputado Paulo Ganime (Novo-Estado do Rio de Janeiro), o projeto está na “dose certa”. “Neste caso, o marco destina-se à promoção do desenvolvimento tecnológico, da evolução da inteligência artificial no Brasil, da geração de empregos e trabalho, e de mais segurança jurídica para um setor que ainda está em processo de amadurecimento, e onde o Brasil pode se tornar um precursor.”

O Deputado Eduardo Cury (PSDB-Estado de São Paulo) ressaltou que a proposta é o pontapé inicial para a regulamentação do tema. “O projeto tem um ajuste correto, com o início de uma regulamentação que não detalha a ponto de inibir a inovação.”

Texto de la Redacción Final del Proyecto de Ley presentado:

Se coloca a continuación, la redacción final del Proyecto de Ley aprobado por la Cámara de Diputados, en su lenguaje original, para respetar mas fielmente su contenido.

redação final

projeto de lei nº 21-A de 2020

Estabelece fundamentos, princípios e diretrizes para o desenvolvimento e a aplicação da inteligência artificial no Brasil; e dá outras providências.

O CONGRESSO NACIONAL decreta:

Art. 1º Esta Lei estabelece fundamentos e princípios para o desenvolvimento e a aplicação da inteligência artificial no Brasil e diretrizes para o fomento e a atuação do poder público nessa área.

Art. 2º Para os fins desta Lei, considera-se sistema de inteligência artificial o sistema baseado em processo computacional que, a partir de um conjunto de objetivos definidos por humanos, pode, por meio do processamento de dados e de informações, aprender a perceber e a interpretar o ambiente externo, bem como a interagir com ele, fazendo predições, recomendações, classificações ou decisões, e que utiliza, sem a elas se limitar, técnicas como:

I – Sistemas de aprendizagem de máquina (machine learning), incluída aprendizagem supervisionada, não supervisionada e por reforço;

II – Sistemas baseados em conhecimento ou em lógica;

III – abordagens estatísticas, inferência bayesiana, métodos de pesquisa e de otimização.

Parágrafo único. Esta Lei não se aplica aos processos de automação exclusivamente orientados por parâmetros predefinidos de programação que não incluam a capacidade do sistema de aprender a perceber e a interpretar o ambiente externo, bem como a interagir com ele, a partir das ações e das informações recebidas.

Art. 3º A aplicação de inteligência artificial no Brasil tem por objetivo o desenvolvimento científico e tecnológico, bem como:

I – a promoção do desenvolvimento econômico sustentável e inclusivo e do bem-estar da sociedade;

II – o aumento da competitividade e da produtividade brasileira;

III – a inserção competitiva do Brasil nas cadeias globais de valor;

IV – a melhoria na prestação de serviços públicos e na implementação de políticas públicas;

V – A promoção da pesquisa e desenvolvimento com a finalidade de estimular a inovação nos setores produtivos; e

VI – a proteção e a preservação do meio ambiente.

Art. 4º O desenvolvimento e a aplicação da inteligência artificial no Brasil têm como fundamentos:

I – O desenvolvimento científico e tecnológico e a inovação;

II – A livre iniciativa e a livre concorrência;

III – o respeito à ética, aos direitos humanos e aos valores democráticos;

IV – A livre manifestação de pensamento e a livre expressão da atividade intelectual, artística, científica e de comunicação;

V – A não discriminação, a pluralidade, o respeito às diversidades regionais, a inclusão e o respeito aos direitos e garantias fundamentais do cidadão;

VI – o reconhecimento de sua natureza digital, transversal e dinâmica;

VII – o estímulo à autorregulação, mediante adoção de códigos de conduta e de guias de boas práticas, observados os princípios previstos no art. 5º desta Lei, e as boas práticas globais;

VIII – a segurança, a privacidade e a proteção de dados pessoais;

IX – A segurança da informação;

X – O acesso à informação;

XI – a defesa nacional, a segurança do Estado e a soberania nacional;

XII – a liberdade dos modelos de negócios, desde que não conflite com as disposições estabelecidas nesta Lei;

XIII – a preservação da estabilidade, da segurança, da resiliência e da funcionalidade dos sistemas de inteligência artificial, por meio de medidas técnicas compatíveis com os padrões internacionais e de estímulo ao uso de boas práticas;

XIV – a proteção da livre concorrência e contra práticas abusivas de mercado, na forma da Lei nº 12.529, de 30 de novembro de 2011; e

XV – A harmonização com as Leis nºs 13.709, de 14 de agosto de 2018 (Lei Geral de Proteção de Dados Pessoais), 12.965, de 23 de abril de 2014, 12.529, de 30 de novembro de 2011, 8.078, de 11 de setembro de 1990 (Código de Defesa do Consumidor), e 12.527 de 18 de novembro de 2011.

Parágrafo único. Os códigos de conduta e os guias de boas práticas previstos no inciso VII do caput deste artigo poderão servir como elementos indicativos de conformidade.

Art. 5º São princípios para o desenvolvimento e a aplicação da inteligência artificial no Brasil:

I – Finalidade benéfica: busca de resultados benéficos para a humanidade pelos sistemas de inteligência artificial;

II – Centralidade do ser humano: respeito à dignidade humana, à privacidade, à proteção de dados pessoais e aos direitos fundamentais, quando o sistema tratar de questões relacionadas ao ser humano;

III – não discriminação: mitigação da possibilidade de uso dos sistemas para fins discriminatórios, ilícitos ou abusivos;

IV – Busca pela neutralidade: recomendação de que os agentes atuantes na cadeia de desenvolvimento e de operação de sistemas de inteligência artificial busquem identificar e mitigar vieses contrários ao disposto na legislação vigente;

V – Transparência: direito das pessoas de serem informadas de maneira clara, acessível e precisa sobre a utilização das soluções de inteligência artificial, salvo disposição legal em sentido contrário e observados os segredos comercial e industrial, nas seguintes hipóteses:

a) sobre o fato de estarem se comunicando diretamente com sistemas de inteligência artificial, tal como por meio de robôs de conversação para atendimento personalizado on-line (chatbot), quando estiverem utilizando esses sistemas;

b) sobre a identidade da pessoa natural, quando ela operar o sistema de maneira autônoma e individual, ou da pessoa jurídica responsável pela operação dos sistemas de inteligência artificial;

c) sobre critérios gerais que orientam o funcionamento do sistema de inteligência artificial, assegurados os segredos comercial e industrial, quando houver potencial de risco relevante para os direitos fundamentais;

VI – segurança e prevenção: utilização de medidas técnicas, organizacionais e administrativas, considerando o uso de meios razoáveis e disponíveis na ocasião, compatíveis com as melhores práticas, os padrões internacionais e a viabilidade econômica, direcionadas a permitir o gerenciamento e a mitigação de riscos oriundos da operação de sistemas de inteligência artificial durante todo o seu ciclo de vida e o seu contínuo funcionamento;

VII – inovação responsável: garantia de adoção do disposto nesta Lei, pelos agentes que atuam na cadeia de desenvolvimento e operação de sistemas de inteligência artificial que estejam em uso, documentando seu processo interno de gestão e responsabilizando-se, nos limites de sua respectiva participação, do contexto e das tecnologias disponíveis, pelos resultados do funcionamento desses sistemas;

VIII – disponibilidade de dados: não violação do direito de autor pelo uso de dados, de banco de dados e de textos por ele protegidos, para fins de treinamento de sistemas de inteligência artificial, desde que não seja impactada a exploração normal da obra por seu titular.

Art. 6º Ao disciplinar a aplicação de inteligência artificial, o poder público deverá observar as seguintes diretrizes:

I – Intervenção subsidiária: regras específicas deverão ser desenvolvidas para os usos de sistemas de inteligência artificial apenas quando absolutamente necessárias para a garantia do atendimento ao disposto na legislação vigente;

II – Atuação setorial: a atuação do poder público deverá ocorrer pelo órgão ou entidade competente, considerados o contexto e o arcabouço regulatório específicos de cada setor;

III – gestão baseada em risco: o desenvolvimento e o uso dos sistemas de inteligência artificial deverão considerar os riscos concretos, e as definições sobre a necessidade de regulação dos sistemas de inteligência artificial e sobre o respectivo grau de intervenção deverão ser sempre proporcionais aos riscos concretos oferecidos por cada sistema e à probabilidade de ocorrência desses riscos, avaliados sempre em comparação com:

a) os potenciais benefícios sociais e econômicos oferecidos pelo sistema de inteligência artificial; e

b) os riscos apresentados por sistemas similares que não envolvam inteligência artificial, nos termos do inciso V deste caput;

IV – Participação social e interdisciplinar: a adoção de normas que impactem o desenvolvimento e a operação de sistemas de inteligência artificial será baseada em evidências e precedida de consulta pública, realizada preferencialmente pela internet e com ampla divulgação prévia, de modo a possibilitar a participação de todos os interessados e as diversas especialidades envolvidas;

V – Análise de impacto regulatório: a adoção de normas que impactem o desenvolvimento e a operação de sistemas de inteligência artificial será precedida de análise de impacto regulatório, nos termos do Decreto nº 10.411, de 30 de junho de 2020, e da Lei nº 13.874, de 20 de setembro de 2019; e

VI – responsabilidade: as normas sobre responsabilidade dos agentes que atuam na cadeia de desenvolvimento e operação de sistemas de inteligência artificial deverão, salvo disposição legal em contrário, pautar-se na responsabilidade subjetiva e levar em consideração a efetiva participação desses agentes, os danos específicos que se deseja evitar ou remediar e a forma como esses agentes podem demonstrar adequação às normas aplicáveis, por meio de esforços razoáveis compatíveis com os padrões internacionais e as melhores práticas de mercado.

§ 1º Na gestão com base em risco a que se refere o inciso III do caput deste artigo, a administração pública, nos casos de baixo risco, deverá incentivar a inovação responsável com a utilização de técnicas regulatórias flexíveis.

§ 2º Na gestão com base em risco a que se refere o inciso III do caput deste artigo, a administração pública, nos casos concretos em que se constatar alto risco, poderá, no âmbito da sua competência, requerer informações sobre as medidas de segurança e prevenção enumeradas no inciso VI do caput do art. 5º desta Lei, e respectivas salvaguardas, nos termos e nos limites de transparência estabelecidos por esta Lei, observados os segredos comercial e industrial.

§ 3º Quando a utilização do sistema de inteligência artificial envolver relações de consumo, o agente responderá independentemente de culpa pela reparação dos danos causados aos consumidores, no limite de sua participação efetiva no evento danoso, observada a Lei nº 8.078 de 11 de setembro de 1990 (Código de Defesa do Consumidor).

§ 4º As pessoas jurídicas de direito público e as de direito privado prestadoras de serviços públicos responderão pelos danos que seus agentes, nessa qualidade, causarem a terceiros, assegurado o direito de regresso contra o responsável nos casos de dolo ou culpa.

Art. 7º Constituem diretrizes para a atuação da União, dos Estados, do Distrito Federal e dos Municípios em relação ao uso e ao fomento dos sistemas de inteligência artificial no Brasil:

I – Promoção da confiança nas tecnologias de inteligência artificial, com disseminação de informações e de conhecimento sobre seus usos éticos e responsáveis;

II – Incentivo a investimentos em pesquisa e desenvolvimento de inteligência artificial;

III – promoção da interoperabilidade tecnológica dos sistemas de inteligência artificial utilizados pelo poder público, de modo a permitir o intercâmbio de informações e a celeridade de procedimentos;

IV – Incentivo ao desenvolvimento e à adoção de sistemas de inteligência artificial nos setores público e privado;

V – Estímulo à capacitação e à preparação das pessoas para a reestruturação do mercado de trabalho;

VI – Estímulo a práticas pedagógicas inovadoras, com visão multidisciplinar, e ênfase da importância de ressignificação dos processos de formação de professores para lidar com os desafios decorrentes da inserção da inteligência artificial como ferramenta pedagógica em sala de aula;

VII – estímulo à adoção de instrumentos regulatórios que promovam a inovação, como ambientes regulatórios experimentais (sandboxes regulatórios), análises de impacto regulatório e autorregulações setoriais;

VIII – estímulo à criação de mecanismos de governança transparente e colaborativa, com a participação de representantes do poder público, do setor empresarial, da sociedade civil e da comunidade científica; e

IX – Promoção da cooperação internacional, mediante estímulo ao compartilhamento do conhecimento sobre sistemas de inteligência artificial e à negociação de tratados, acordos e padrões técnicos globais que facilitem a interoperabilidade entre os sistemas e a harmonização da legislação a esse respeito.

Parágrafo único. Para fins deste artigo, o poder público federal promoverá a gestão estratégica e as orientações quanto ao uso transparente e ético de sistemas de inteligência artificial no setor público, conforme as políticas públicas estratégicas para o setor.

Art. 8º As diretrizes de que tratam os arts. 6º e 7º desta Lei serão aplicadas conforme regulamentação do Poder Executivo federal por órgãos e entidades setoriais com competência técnica na matéria, os quais deverão:

I – Monitorar a gestão do risco dos sistemas de inteligência artificial, no caso concreto, avaliando os riscos da aplicação e as medidas de mitigação em sua área de competência;

II – Estabelecer direitos, deveres e responsabilidades; e

III – reconhecer instituições de autorregulação.

Art. 9º Para os fins desta Lei, sistemas de inteligência artificial são representações tecnológicas oriundas do campo da informática e da ciência da computação, competindo privativamente à União legislar e normatizar a matéria para a promoção de uniformidade legal em todo o território nacional, na forma do disposto no inciso IV do caput do art. 22 da Constituição Federal.

Art. 10. Esta Lei entra em vigor após decorridos 90 (noventa) dias de sua publicação oficial.

Sala das Sessões, em 29 de setembro de 2021.

Deputada LUISA CANZIANI

Relatora


Fontes

Equipe de análise do Laboratório do Futuro/Sistema de Informação da Câmara dos Deputados da República Federativa do Brasil. Com a colaboração da Agência Câmara de Notícias.

Tradução nos elementos centrais, equipe de tradução do Laboratório do Futuro.

Proposta de Legislação de Inteligência Artificial UE VIII

Proposta de Legislação de Inteligência Artificial UE VIII

A Lei de Regulamentação da Inteligência Artificial da União Europeia

A União Europeia, após ouvir as opiniões de diferentes organizações, elaborou a chamada Lei de Inteligência Artificial, que se constituiu como o começo de uma regulamentação dentro deste tema complexo. Isso foi feito após ouvir as opiniões de especialistas, organizações e universidades. Trata-se de um tema muito extenso, por isso deixamos à disposição dos leitores tanto a lei quanto as diferentes opiniões expressas pelos especialistas. Isso deve ser considerado muito importante, uma vez que – com exceção da Câmara dos Deputados da República Federativa do Brasil – os governos regionais ainda não abordaram um tema de tamanha importância.

O que é a Lei de IA da UE?:

A Lei de IA é uma lei europeia proposta sobre inteligência artificial (IA), a primeira lei sobre IA de um regulador importante em qualquer lugar do mundo. A lei classifica as aplicações de IA em três categorias de risco. Em primeiro lugar, são proibidas as aplicações e os sistemas que criam um risco inaceitável, como a pontuação social administrada pelo governo, do tipo usado na República Popular da China.

Em segundo lugar, as aplicações de alto risco, como uma ferramenta de escaneamento de currículos que classifica os candidatos a emprego, estão sujeitas a requisitos legais específicos.

Por último, as aplicações que não estão explicitamente proibidas ou classificadas como de alto risco ficam em grande parte sem regulamentação.

Consultar a Lei de IA da União Europeia neste link.

Por que devemos nos importar?

As aplicações de Inteligência Artificial influenciam a informação que você vê online, prevendo qual conteúdo lhe interessa, capturam e analisam dados faciais para fazer cumprir as leis ou personalizar anúncios, e são usadas para diagnosticar e tratar o câncer, por exemplo. Em outras palavras, a Inteligência Artificial afeta muitas partes da vida das pessoas.

Assim como o Regulamento Geral de Proteção de Dados (GDPR) da União Europeia em 2018, a Lei de IA da UE pode se tornar um padrão global, determinando em que medida a IA tem um efeito positivo em vez de negativo na vida das pessoas onde quer que elas estejam. A regulamentação da IA da UE já está causando sensação internacionalmente. No final de setembro de 2021, o Congresso do Brasil aprovou um projeto de lei que cria uma estrutura legal para a inteligência artificial. Ainda precisa passar pelo Senado do país.

A regulamentação pode ser melhorada?

Há várias lacunas e exceções na lei proposta. Essas deficiências limitam a capacidade da Lei de garantir que a IA continue sendo uma força para o bem na sua vida. Atualmente, por exemplo, o reconhecimento facial por parte da polícia está proibido, a menos que as imagens sejam capturadas com atraso ou a tecnologia seja usada para encontrar crianças desaparecidas.

Além disso, a lei é inflexível. Se dentro de dois anos uma aplicação de IA perigosa for usada em um setor imprevisto, a lei não prevê nenhum mecanismo para classificá-la como “alto risco”.

Análises mais detalhadas:

Esta seção inclui uma seleção de análises sobre a Lei de IA, entre centenas que foram feitas. Escolhemos essas análises porque, em nossa opinião, contêm ideias construtivas e reflexivas sobre como melhorar a Lei.

Instituto Futuro de la Vida:

O Future of Life Institute (FLI), uma organização independente sem fins lucrativos com o objetivo de maximizar os benefícios da tecnologia e reduzir seus riscos associados, compartilhou suas recomendações para a Lei de IA da UE com a Comissão Europeia. Argumenta que a Lei deveria garantir que os fornecedores de IA considerem o impacto de suas aplicações na sociedade como um todo, e não apenas no indivíduo. As aplicações de IA que causam danos insignificantes às pessoas podem causar danos significativos a nível social. Por exemplo, uma aplicação de marketing usada para influenciar o comportamento eleitoral dos cidadãos poderia afetar os resultados das eleições. Leia mais sobre as recomendações no link a seguir aqui.

Instituições da Universidade de Cambridge:

O Centro Leverhulme para o Futuro da Inteligência e o Centro para o Estudo do Risco Existencial, duas instituições líderes da Universidade de Cambridge, forneceram seus comentários sobre a proposta de lei de IA da UE à Comissão Europeia. Esperam que a Lei ajude a estabelecer padrões a nível internacional para permitir os benefícios e reduzir os riscos da IA. Uma das suas recomendações é permitir que sejam propostos mudanças na lista de sistemas restritos e de alto risco, aumentando a flexibilidade da regulamentação. Leia o raciocínio completo aqui.

Access Now Europa:

A Access Now, uma organização que defende e expande os direitos digitais de usuários em risco, também forneceu comentários sobre a Lei de IA da UE. Está preocupada que a lei, em sua forma atual, não alcance o objetivo de proteger os direitos fundamentais. Em particular, não acredita que a proposta vá longe o suficiente para proteger os direitos fundamentais em relação às aplicações biométricas, como o reconhecimento de emoções e os polígrafos de IA. O esboço atual da Lei de IA defende obrigações de transparência para essas aplicações, mas a Access Now recomenda medidas mais rigorosas para reduzir todos os riscos associados, como proibições. Leia suas sugestões concretas aqui.

Michael Veale e Frederik Zuiderveen Borgesius:

Michael Veale, professor assistente na University College London em Direitos Digitais e Regulamentação, e Frederik Zuiderveen Borgesius, professor de ICT e Direito Privado na Dutch Radboud University, fornecem uma análise detalhada de algumas das partes mais sensíveis da Lei de IA da UE. Uma das muitas ideias surpreendentes de seu artigo é que o cumprimento da lei dependeria quase que completamente da autoavaliação. A autoavaliação significa que não há execução para cumprir com a lei. Depois que os organismos de normalização como CEN e CENELEC publicarem suas normas, não será mais necessária a verificação de terceiros perante a lei. O artigo completo pode ser encontrado aqui.

A Sociedade do Futuro:

The Future Society, uma organização sem fins lucrativos registrada na Estônia, que defende a adoção responsável da IA em benefício da humanidade, enviou seus comentários à Comissão Europeia sobre a Lei de IA da UE. Uma de suas sugestões é garantir que a governança continue a responder às tendências tecnológicas. Isso poderia ser alcançado melhorando o fluxo de informações entre as instituições nacionais e europeias e compilando e analisando sistematicamente os relatórios de incidentes dos estados membros. Leia os comentários completos aqui.

Nathalie A. Smuha e colegas:

Nathalie A. Smuha, pesquisadora da Faculdade de Direito da KU Leuven, Emma Ahmed-Rengers, pesquisadora de doutorado em Direito e Informática da Universidade de Birmingham, e seus colegas argumentam que a Lei de IA da UE nem sempre reconhece com precisão os erros e danos associados a diferentes tipos de sistemas de IA nem os atribui de maneira adequada. Também afirmam que a proposta não fornece uma estrutura eficaz para a execução dos direitos e deveres legais. A proposta não garante transparência significativa, responsabilidade e direitos de participação pública. Leia o artigo completo aqui..

A Aliança Europeia de PME DIGITAIS:

A European DIGITAL SME Alliance, uma rede de pequenas e médias empresas (PME) de TIC na Europa, dá as boas-vindas a uma regulamentação harmonizada de IA e foca a IA ética na UE, mas sugere várias melhorias para evitar sobrecarregar as PME. Por exemplo, argumenta que, sempre que as avaliações de conformidade se basearem em normas, as PME devem participar ativamente no desenvolvimento dessas normas. Caso contrário, as normas podem ser redigidas de uma maneira que não seja prática para as PME. Muitas outras recomendações podem ser lidas aqui.

O custo da Lei de IA da UE:

O Centre for Data Innovation, uma organização sem fins lucrativos focada em inovação baseada em dados, publicou um relatório afirmando que a Lei de IA da UE custará 31 bilhões de euros nos próximos cinco anos e reduzirá os investimentos em IA em quase 20%. A empresária Meeri Haataja e a acadêmica Joanna Bryson publicaram sua própria pesquisa, escrevendo que provavelmente será muito mais barato, já que a regulamentação cobre principalmente uma pequena proporção das aplicações de IA consideradas de alto risco. Além disso, a análise de custos não considera todos os benefícios da regulamentação para o público. Finalmente, o CEPS, um grupo de especialistas e fórum de debate sobre assuntos da União Europeia, publicou suas próprias análises das estimativas de custos e chegou a uma conclusão similar à de Haataja e Bryson.

O dano social e a Lei:

Nathalie Smuha distingue o dano social do dano individual no contexto da Lei de IA. O dano social não está relacionado aos interesses de um indivíduo específico, mas considera os danos à sociedade em geral, além da soma dos interesses individuais. Afirma que a proposta ainda está imbuída de preocupações quase exclusivamente com o dano individual e parece ignorar a necessidade de proteção contra os danos sociais da IA. O documento completo pode ser lido aqui.

O papel das normas:

Pesquisadores do Oxford Information Labs discutem qual o papel que a Lei de Inteligência Artificial da União Europeia atribui aos padrões para a IA. O ponto chave que destacam é que a conformidade com os padrões harmonizados criará uma presunção de conformidade para as aplicações e serviços de IA de alto risco. Isso, por sua vez, pode aumentar a confiança de que cumprem os requisitos complexos da regulamentação proposta e criar fortes incentivos para que a indústria cumpra as normas europeias. Encontre a análise completa sobre o papel dos padrões na regulamentação de IA da UE aqui.


Equipe de Análise do Laboratório do Futuro/Sistema de Informação da União Europeia.

Inteligência Artificial VII Nota da Open AI.

Inteligência Artificial VII Nota da Open AI.

A inteligência artificial deve ser regulada?

Os criadores e desenvolvedores do ChatGPT acreditam que a nova superinteligência pode superar os especialistas humanos na maioria das disciplinas nos próximos 10 anos e pedem uma regulação supra, embora o responsável principal, Sam Altman, não considere aceitável a regulação proposta pela União Europeia.

Os criadores do ChatGPT publicaram uma nota (que poderá ser vista quase a seguir) onde alertam que, em dez anos, os sistemas de inteligência artificial podem superar os especialistas humanos na maioria das áreas. Essa superinteligência, dizem, será mais poderosa que outras tecnologias com as quais a humanidade já teve que lidar no passado e representa um risco existencial para nossa civilização. Por isso, instam as autoridades a pensar agora em como vamos gerenciá-la. É material para analisar e, sobretudo, refletir sobre o motivo pelo qual os criadores da tecnologia estão teoricamente tão alarmados…

Sam Altman, Greg Brockman, Ilya Sutskever, três dos cofundadores da OpenAI, a empresa por trás do ChatGPT, acreditam que a superinteligência do futuro será ainda mais capaz que a inteligência artificial geral — uma forma de inteligência sintética comparável à humana — e poderá ser tão produtiva quanto as grandes empresas atuais.

Mas, é importante que vejamos o conteúdo dessa nota:

A nota dos três fundadores é de 22 de maio de 2023 e diz textualmente:
Inteligência Artificial responsável, segurança e alinhamento
Dada a imagem atual, é concebível que, dentro dos próximos dez anos, os sistemas de Inteligência Artificial superem o nível de habilidade dos especialistas na maioria dos domínios e realizem tanta atividade produtiva quanto uma das corporações mais grandes de hoje. Em termos de vantagens e desvantagens potenciais, a superinteligência será mais poderosa do que outras tecnologias com as quais a humanidade teve que lidar no passado. Podemos ter um futuro dramaticamente mais próspero; mas precisamos gerenciar o risco para chegar lá. Dada a possibilidade de risco existencial, não podemos simplesmente ser reativos. A energia nuclear é um exemplo histórico de uso comum de uma tecnologia com essa propriedade; a biologia sintética é outro exemplo. Também devemos mitigar os riscos da tecnologia de inteligência artificial atual, mas a superinteligência exigirá um tratamento e coordenação especiais.
Um ponto de partida:
Existem várias ideias que são importantes para termos uma boa chance de navegar com sucesso esse desenvolvimento; aqui apresentamos nosso pensamento inicial sobre três delas. Primeiramente, precisamos de algum grau de coordenação entre os principais esforços de desenvolvimento para garantir que o desenvolvimento da superinteligência aconteça de uma maneira que nos permita manter a segurança e ajudar na integração fluida desses sistemas com a sociedade. Existem muitas maneiras de implementar isso: os principais governos do mundo poderiam criar um projeto do qual participassem muitos dos esforços atuais, ou poderíamos acordar coletivamente (com o apoio de uma nova organização, como a sugerida a seguir) que a taxa de crescimento da capacidade de Inteligência Artificial na fronteira seja limitada a uma certa taxa por ano. E, claro, as empresas individuais devem estar sujeitas a um padrão extremamente alto de atuação responsável.
Em segundo lugar, provavelmente precisaremos eventualmente de algo como um OIEA (Organização Internacional de Energia Atômica) para os esforços de superinteligência; qualquer esforço acima de um certo limite de capacidade (ou recursos como computação) deverá estar sujeito a uma autoridade internacional que possa inspecionar os sistemas, exigir auditorias, testar o cumprimento dos padrões de segurança, impor restrições nos graus de implementação e níveis de segurança, etc. O monitoramento do uso de computação e energia poderia ser de grande ajuda e nos dar alguma esperança de que essa ideia possa ser implementada. Como primeiro passo, as empresas poderiam voluntariamente começar a implementar elementos do que tal agência poderia exigir um dia, e como segundo, os países individuais poderiam implementá-lo. Seria importante que uma agência dessa natureza se concentrasse em reduzir o risco existencial e não em questões que deveriam ser tratadas por países individuais, como definir o que uma IA deve ser permitida dizer.
Em terceiro lugar, precisamos da capacidade técnica para tornar uma superinteligência segura. Esta é uma questão de pesquisa aberta na qual nós e outros estamos colocando muito esforço.
O que não está no escopo:
Acreditamos que é importante permitir que empresas e projetos de código aberto desenvolvam modelos abaixo de um limite significativo de capacidade, sem o tipo de regulação que descrevemos aqui (incluindo mecanismos onerosos como licenças ou auditorias). Os sistemas de hoje criam um enorme valor no mundo e, embora tenham riscos, o nível desses riscos parece adequado a outras tecnologias da Internet e os prováveis enfoques da sociedade parecem apropriados. Por outro lado, os sistemas que nos preocupam terão um poder além de qualquer tecnologia criada até agora, e devemos ter cuidado para não diluir o enfoque neles aplicando padrões semelhantes à tecnologia muito abaixo dessa barra.
Opinião pública e potencial:
Mas a governança dos sistemas mais poderosos, assim como as decisões relativas ao seu despliegue, devem contar com uma forte supervisão pública. Acreditamos que as pessoas de todo o mundo deveriam decidir democraticamente os limites e valores padrão dos sistemas de Inteligência Artificial. Ainda não sabemos como projetar tal mecanismo, mas planejamos experimentar seu desenvolvimento. Continuamos acreditando que, dentro desses amplos limites, os usuários individuais devem ter muito controle sobre como a Inteligência Artificial que utilizam se comporta.
Dadas as dificuldades e os riscos, vale a pena considerar por que estamos criando essa tecnologia.
Na OpenAI temos duas razões fundamentais. Primeiro, acreditamos que ela levará a um mundo muito melhor do que podemos imaginar hoje (já estamos vendo exemplos iniciais disso em áreas como educação, trabalho criativo e produtividade pessoal). O mundo enfrenta muitos problemas que precisaremos de muito mais ajuda para resolver; essa tecnologia pode melhorar nossas sociedades, e a capacidade criativa de todos para usar essas novas ferramentas certamente nos surpreenderá. O crescimento econômico e o aumento da qualidade de vida serão impressionantes.
Em segundo lugar, acreditamos que seria pouco intuitivo, arriscado e difícil parar a criação de superinteligência. Como as vantagens são tão enormes, o custo de construí-la diminui a cada ano, a quantidade de atores que a constroem aumenta rapidamente e faz parte do caminho tecnológico no qual estamos; detê-la exigiria algo como um regime de vigilância global, e mesmo assim não está garantido que funcione. Então, precisamos fazer isso da maneira certa.

De acordo com o que vimos, a visão da OpenAI — empresa na qual a Microsoft participa com um investimento de 10 bilhões de dólares — é que as futuras gerações de inteligência artificial nos trarão um futuro muito mais próspero. No entanto, para que isso aconteça, devemos gerenciar o risco existencial que sua implementação implica.

Os criadores do ChatGPT acreditam que ainda estamos a tempo de desenvolver essa superinteligência de forma controlada. Eles também não acreditam que parar agora seja conveniente; para eles, interromper o desenvolvimento seria arriscado e difícil, embora seja importante lembrar que o propósito declarado da OpenAI é justamente dar vida a um desses sistemas superinteligentes. Por sinal, há muito dinheiro e interesses em jogo.

O texto sugere que a única maneira de desenvolver essa tecnologia de forma segura seria por meio de um regime de vigilância global, embora não tenham certeza se isso funcionaria. Por isso, defendem que as decisões relacionadas ao seu desenvolvimento e implementação devem ter “uma sólida supervisão pública”, algo que o CEO da empresa tem repetido em suas aparições públicas.

O problema, então, é como evitar o risco existencial. Eles propõem três ideias para alcançar isso. A primeira é garantir um desenvolvimento coordenado dessa tecnologia que permita sua integração na sociedade, mantendo limites básicos de segurança.

Para isso, propõem duas maneiras de implementar essa coordenação. Uma, impulsionada pelos principais governos do mundo, com a participação dos principais desenvolvedores atuais. A outra seria por meio de um acordo coletivo, supervisionado por uma organização independente, que estabeleça um ritmo anual de crescimento da tecnologia. Em qualquer caso, afirmam que as empresas devem ser exigidas a manter um nível extremamente alto de responsabilidade.

Em segundo lugar, sugerem criar um organismo semelhante ao que regula a energia atômica (o OIEA) para monitorar os avanços em direção à superinteligência. Caso uma tecnologia ultrapasse um determinado limite de capacidade, ela deverá passar por auditoria de uma autoridade internacional que possa inspecionar os novos sistemas para evitar um risco existencial. Algo que, sugerem, as empresas desenvolvedoras poderiam começar a fazer voluntariamente como um simulacro das capacidades que o novo organismo deveria ter.

Finalmente, os três cofundadores da OpenAI afirmam que é necessário desenvolver a capacidade técnica para tornar a superinteligência segura. “É uma questão de pesquisa aberta à qual nós e outros estamos dedicando muitos esforços”, asseguram.

Mas, curiosamente, a OpenAI não gosta das leis europeias.

Sam Altman, que além de cofundador da OpenAI também é seu CEO, alertou recentemente que sua empresa poderia deixar de operar na Europa caso o bloco aplique suas medidas sobre inteligência artificial.

O Comissário Europeu de Justiça, Didier Reynders, em uma coletiva de imprensa sobre Inteligência Artificial. A União Europeia se tornou o regulador de fato da Inteligência Artificial no mundo.

A proposta de Lei de Inteligência Artificial da UE estabelece três níveis de risco para essas tecnologias. A categoria de maior risco “criaria um risco inaceitável, como o sistema de pontuação social gerenciado por um governo, do tipo utilizado na China”, e seria proibida. A segunda categoria de risco estaria “sujeita a requisitos legais específicos” e corresponderia aos sistemas de IA usados para analisar currículos e classificar candidatos a emprego. E a terceira categoria seria para sistemas de IA “que não estão explicitamente proibidos ou classificados como de alto risco” e, portanto, “ficariam em grande parte sem regulamentação”.

O Parlamento Europeu votou a favor da lei por ampla maioria e estabeleceu o dia 14 de junho como a data provisória para sua adoção. “Os detalhes realmente importam. Tentaremos cumprir, mas se não conseguirmos, deixaremos de operar”, afirmou Altman em declarações ao Financial Times. Infelizmente, isso soa mais como uma ameaça do que qualquer outra coisa.

Na edição de amanhã do blog, veremos em que consiste essa regulamentação, que certamente está a caminho de ser implementada na União Europeia.

error: Content is protected !!