A inteligência artificial deve ser regulada?
Os criadores e desenvolvedores do ChatGPT acreditam que a nova superinteligência pode superar os especialistas humanos na maioria das disciplinas nos próximos 10 anos e pedem uma regulação supra, embora o responsável principal, Sam Altman, não considere aceitável a regulação proposta pela União Europeia.
Os criadores do ChatGPT publicaram uma nota (que poderá ser vista quase a seguir) onde alertam que, em dez anos, os sistemas de inteligência artificial podem superar os especialistas humanos na maioria das áreas. Essa superinteligência, dizem, será mais poderosa que outras tecnologias com as quais a humanidade já teve que lidar no passado e representa um risco existencial para nossa civilização. Por isso, instam as autoridades a pensar agora em como vamos gerenciá-la. É material para analisar e, sobretudo, refletir sobre o motivo pelo qual os criadores da tecnologia estão teoricamente tão alarmados…
Sam Altman, Greg Brockman, Ilya Sutskever, três dos cofundadores da OpenAI, a empresa por trás do ChatGPT, acreditam que a superinteligência do futuro será ainda mais capaz que a inteligência artificial geral — uma forma de inteligência sintética comparável à humana — e poderá ser tão produtiva quanto as grandes empresas atuais.
Mas, é importante que vejamos o conteúdo dessa nota:
A nota dos três fundadores é de 22 de maio de 2023 e diz textualmente: Inteligência Artificial responsável, segurança e alinhamento Dada a imagem atual, é concebível que, dentro dos próximos dez anos, os sistemas de Inteligência Artificial superem o nível de habilidade dos especialistas na maioria dos domínios e realizem tanta atividade produtiva quanto uma das corporações mais grandes de hoje. Em termos de vantagens e desvantagens potenciais, a superinteligência será mais poderosa do que outras tecnologias com as quais a humanidade teve que lidar no passado. Podemos ter um futuro dramaticamente mais próspero; mas precisamos gerenciar o risco para chegar lá. Dada a possibilidade de risco existencial, não podemos simplesmente ser reativos. A energia nuclear é um exemplo histórico de uso comum de uma tecnologia com essa propriedade; a biologia sintética é outro exemplo. Também devemos mitigar os riscos da tecnologia de inteligência artificial atual, mas a superinteligência exigirá um tratamento e coordenação especiais. Um ponto de partida: Existem várias ideias que são importantes para termos uma boa chance de navegar com sucesso esse desenvolvimento; aqui apresentamos nosso pensamento inicial sobre três delas. Primeiramente, precisamos de algum grau de coordenação entre os principais esforços de desenvolvimento para garantir que o desenvolvimento da superinteligência aconteça de uma maneira que nos permita manter a segurança e ajudar na integração fluida desses sistemas com a sociedade. Existem muitas maneiras de implementar isso: os principais governos do mundo poderiam criar um projeto do qual participassem muitos dos esforços atuais, ou poderíamos acordar coletivamente (com o apoio de uma nova organização, como a sugerida a seguir) que a taxa de crescimento da capacidade de Inteligência Artificial na fronteira seja limitada a uma certa taxa por ano. E, claro, as empresas individuais devem estar sujeitas a um padrão extremamente alto de atuação responsável. Em segundo lugar, provavelmente precisaremos eventualmente de algo como um OIEA (Organização Internacional de Energia Atômica) para os esforços de superinteligência; qualquer esforço acima de um certo limite de capacidade (ou recursos como computação) deverá estar sujeito a uma autoridade internacional que possa inspecionar os sistemas, exigir auditorias, testar o cumprimento dos padrões de segurança, impor restrições nos graus de implementação e níveis de segurança, etc. O monitoramento do uso de computação e energia poderia ser de grande ajuda e nos dar alguma esperança de que essa ideia possa ser implementada. Como primeiro passo, as empresas poderiam voluntariamente começar a implementar elementos do que tal agência poderia exigir um dia, e como segundo, os países individuais poderiam implementá-lo. Seria importante que uma agência dessa natureza se concentrasse em reduzir o risco existencial e não em questões que deveriam ser tratadas por países individuais, como definir o que uma IA deve ser permitida dizer. Em terceiro lugar, precisamos da capacidade técnica para tornar uma superinteligência segura. Esta é uma questão de pesquisa aberta na qual nós e outros estamos colocando muito esforço. O que não está no escopo: Acreditamos que é importante permitir que empresas e projetos de código aberto desenvolvam modelos abaixo de um limite significativo de capacidade, sem o tipo de regulação que descrevemos aqui (incluindo mecanismos onerosos como licenças ou auditorias). Os sistemas de hoje criam um enorme valor no mundo e, embora tenham riscos, o nível desses riscos parece adequado a outras tecnologias da Internet e os prováveis enfoques da sociedade parecem apropriados. Por outro lado, os sistemas que nos preocupam terão um poder além de qualquer tecnologia criada até agora, e devemos ter cuidado para não diluir o enfoque neles aplicando padrões semelhantes à tecnologia muito abaixo dessa barra. Opinião pública e potencial: Mas a governança dos sistemas mais poderosos, assim como as decisões relativas ao seu despliegue, devem contar com uma forte supervisão pública. Acreditamos que as pessoas de todo o mundo deveriam decidir democraticamente os limites e valores padrão dos sistemas de Inteligência Artificial. Ainda não sabemos como projetar tal mecanismo, mas planejamos experimentar seu desenvolvimento. Continuamos acreditando que, dentro desses amplos limites, os usuários individuais devem ter muito controle sobre como a Inteligência Artificial que utilizam se comporta. Dadas as dificuldades e os riscos, vale a pena considerar por que estamos criando essa tecnologia. Na OpenAI temos duas razões fundamentais. Primeiro, acreditamos que ela levará a um mundo muito melhor do que podemos imaginar hoje (já estamos vendo exemplos iniciais disso em áreas como educação, trabalho criativo e produtividade pessoal). O mundo enfrenta muitos problemas que precisaremos de muito mais ajuda para resolver; essa tecnologia pode melhorar nossas sociedades, e a capacidade criativa de todos para usar essas novas ferramentas certamente nos surpreenderá. O crescimento econômico e o aumento da qualidade de vida serão impressionantes. Em segundo lugar, acreditamos que seria pouco intuitivo, arriscado e difícil parar a criação de superinteligência. Como as vantagens são tão enormes, o custo de construí-la diminui a cada ano, a quantidade de atores que a constroem aumenta rapidamente e faz parte do caminho tecnológico no qual estamos; detê-la exigiria algo como um regime de vigilância global, e mesmo assim não está garantido que funcione. Então, precisamos fazer isso da maneira certa. |
De acordo com o que vimos, a visão da OpenAI — empresa na qual a Microsoft participa com um investimento de 10 bilhões de dólares — é que as futuras gerações de inteligência artificial nos trarão um futuro muito mais próspero. No entanto, para que isso aconteça, devemos gerenciar o risco existencial que sua implementação implica.
Os criadores do ChatGPT acreditam que ainda estamos a tempo de desenvolver essa superinteligência de forma controlada. Eles também não acreditam que parar agora seja conveniente; para eles, interromper o desenvolvimento seria arriscado e difícil, embora seja importante lembrar que o propósito declarado da OpenAI é justamente dar vida a um desses sistemas superinteligentes. Por sinal, há muito dinheiro e interesses em jogo.
O texto sugere que a única maneira de desenvolver essa tecnologia de forma segura seria por meio de um regime de vigilância global, embora não tenham certeza se isso funcionaria. Por isso, defendem que as decisões relacionadas ao seu desenvolvimento e implementação devem ter “uma sólida supervisão pública”, algo que o CEO da empresa tem repetido em suas aparições públicas.
O problema, então, é como evitar o risco existencial. Eles propõem três ideias para alcançar isso. A primeira é garantir um desenvolvimento coordenado dessa tecnologia que permita sua integração na sociedade, mantendo limites básicos de segurança.
Para isso, propõem duas maneiras de implementar essa coordenação. Uma, impulsionada pelos principais governos do mundo, com a participação dos principais desenvolvedores atuais. A outra seria por meio de um acordo coletivo, supervisionado por uma organização independente, que estabeleça um ritmo anual de crescimento da tecnologia. Em qualquer caso, afirmam que as empresas devem ser exigidas a manter um nível extremamente alto de responsabilidade.
Em segundo lugar, sugerem criar um organismo semelhante ao que regula a energia atômica (o OIEA) para monitorar os avanços em direção à superinteligência. Caso uma tecnologia ultrapasse um determinado limite de capacidade, ela deverá passar por auditoria de uma autoridade internacional que possa inspecionar os novos sistemas para evitar um risco existencial. Algo que, sugerem, as empresas desenvolvedoras poderiam começar a fazer voluntariamente como um simulacro das capacidades que o novo organismo deveria ter.
Finalmente, os três cofundadores da OpenAI afirmam que é necessário desenvolver a capacidade técnica para tornar a superinteligência segura. “É uma questão de pesquisa aberta à qual nós e outros estamos dedicando muitos esforços”, asseguram.
Mas, curiosamente, a OpenAI não gosta das leis europeias.
Sam Altman, que além de cofundador da OpenAI também é seu CEO, alertou recentemente que sua empresa poderia deixar de operar na Europa caso o bloco aplique suas medidas sobre inteligência artificial.
O Comissário Europeu de Justiça, Didier Reynders, em uma coletiva de imprensa sobre Inteligência Artificial. A União Europeia se tornou o regulador de fato da Inteligência Artificial no mundo.
A proposta de Lei de Inteligência Artificial da UE estabelece três níveis de risco para essas tecnologias. A categoria de maior risco “criaria um risco inaceitável, como o sistema de pontuação social gerenciado por um governo, do tipo utilizado na China”, e seria proibida. A segunda categoria de risco estaria “sujeita a requisitos legais específicos” e corresponderia aos sistemas de IA usados para analisar currículos e classificar candidatos a emprego. E a terceira categoria seria para sistemas de IA “que não estão explicitamente proibidos ou classificados como de alto risco” e, portanto, “ficariam em grande parte sem regulamentação”.
O Parlamento Europeu votou a favor da lei por ampla maioria e estabeleceu o dia 14 de junho como a data provisória para sua adoção. “Os detalhes realmente importam. Tentaremos cumprir, mas se não conseguirmos, deixaremos de operar”, afirmou Altman em declarações ao Financial Times. Infelizmente, isso soa mais como uma ameaça do que qualquer outra coisa.
Na edição de amanhã do blog, veremos em que consiste essa regulamentação, que certamente está a caminho de ser implementada na União Europeia.
0 Comments