Série de Inteligência Artificial II Comitê do Senado

Inteligência artificial | Política

17 Mai, 2023

17 Mai, 2023

O tema da Inteligência Artificial, com seu enorme alcance e o pouco que realmente sabemos – em muitos casos ainda estamos na fase intuitiva – gerou uma verdadeira catarata de estudos, opiniões, controvérsias e debates acalorados que praticamente acontecem diariamente.

Nosso Laboratório entende que um dos melhores serviços que pode prestar a todas as pessoas e organizações que acompanham nosso trabalho é oferecer uma Série selecionada dessas opiniões, posições e debates, praticamente atualizados no dia em que acontecem, para manter genuinamente informados aqueles que estão atentos ao que está ocorrendo e à nossa visão.

Certamente, o Laboratório está trabalhando em seu Microlab de Inteligência Artificial e, oportunamente, divulgará suas conclusões e percepções, mas a urgência do tema não permite muitas demoras. Essa é a razão pela qual hoje iniciamos uma Série sobre Inteligência Artificial, que esperamos que seja o fermento para análises, reflexões e conclusões sobre a projeção que um tema dessa magnitude nos obriga a abordar. Ninguém, nem governos, nem organismos internacionais, nem organismos regionais, think tanks e indivíduos podem permanecer indiferentes à sua evolução. Como sempre, esperamos que nosso serviço possa ser útil.

No que já se tornou uma situação clássica nos Estados Unidos, a reunião entre o fundador da OpenAI, Samuel Altman, e o Subcomitê do Senado, da qual falamos em posts anteriores, terminou em uma reunião simpática onde não foram tomadas resoluções, foram feitas declarações enfáticas e demonstrou a vigência, nesses tempos de disrupção tecnológica, de como a técnica milenar do lobby ainda funciona perfeitamente. Mas também demonstrou algo muito mais preocupante: a escassa compreensão da política em relação ao conteúdo e aos alcances da tecnologia, o que é tão perigoso quanto os eventuais riscos da aplicação tecnológica em determinadas áreas. Infelizmente, a frase que diz que a tecnologia vai de elevador (para cima) e a política vai pela escada (para baixo), parece ser confirmada mais uma vez. Certamente, os Estados Unidos são um dos países desenvolvidos com o maior grau de atraso na regulamentação de muitos aspectos tecnológicos, que já foram resolvidos, por exemplo, pela União Europeia ou Japão.

Carlos Ares, economista do Conselho da Cidade de Barcelona, e um dos principais referenciais em matéria tecnológica, disse, com seu humor habitual, mas também com sua perspicaz apreciação, um dos diagnósticos mais certeiros feitos sobre Altman: “O CEO da OpenAI pede mais regulamentação para a indústria da inteligência artificial. ‘Meu pior medo é que essa tecnologia dê errado. E se der errado, pode dar muito errado.’ (Lembremos que Sam Altman é um desses preparacionistas que estamos acostumados a ver nos filmes, que vivem nas montanhas e têm um arsenal de armas, latas de conserva e utensílios de todo tipo para sobreviver a um ataque zumbi, uma invasão de extraterrestres ou à sua própria inteligência artificial)”. Conhecendo os capitães da tecnologia, a avaliação parece mais que acertada.

Altman e os legisladores concordaram que os novos sistemas de inteligência artificial precisam ser regulamentados, mas ainda não está claro como isso acontecerá.

O tom das audiências no Congresso com executivos da indústria tecnológica nos últimos anos pode ser descrito como antagônico. Mark Zuckerberg, Jeff Bezos e outros grandes controladores de empresas tecnológicas foram criticados no Capitólio por legisladores irritados com suas empresas. Esta reunião parece ter mudado essa tônica de confronto, especialmente pela atitude do depoente, proativa e “preocupada”, o que o diferenciou das apresentações anteriores, geralmente defendidas e em certo tom de negacionismo, o que resultou em climas pouco amigáveis nas trocas.

Altman fez sua estreia pública no Capitólio quando o interesse pela IA disparou. Os gigantes tecnológicos investiram esforços e bilhões de dólares no que dizem ser uma tecnologia transformadora, mesmo com as crescentes preocupações sobre o papel da IA na disseminação de informações errôneas, na destruição de empregos e, um dia, na inteligência humana.

Mas Altman, CEO da OpenAI, uma empresa emergente de São Francisco, testemunhou perante os membros de um Subcomitê do Senado e concordou amplamente com eles sobre a necessidade de regular a tecnologia de IA cada vez mais poderosa criada dentro de sua empresa e outras como Google e Microsoft (e, de passagem, coloca os holofotes sobre a concorrência mais dura. Indubitavelmente, Altman e seus conselheiros formam uma equipe extraordinária de estrategistas).

No que é seu primeiro testemunho no Congresso, Altman implorou aos legisladores que regulamentassem a inteligência artificial enquanto os membros do Comitê mostravam uma compreensão incipiente da tecnologia (desenvolveremos isso em uma seção mais adiante neste artigo). A audiência destacou a profunda inquietação que os tecnólogos e o governo sentem pelos danos potenciais da IA. Mas essa inquietação não se estendeu a Altman, que teve uma audiência amigável com os membros do Subcomitê. A audiência durou três horas e foi realmente educativa para um conjunto de membros políticos com escasso conhecimento da profundidade do problema. Isso não significa que os legisladores não estejam inquietos, mas sim que a inquietação é mais pela influência do ambiente do que por uma real compreensão do fenômeno.

Dentro das atividades de lobby, Altman também abordou a tecnologia de sua empresa durante um jantar com dezenas de membros da Câmara, na noite anterior à audiência legislativa, e se reuniu em privado com vários senadores antes da audiência. Ele ofereceu uma estrutura flexível para gerenciar o que acontecerá a seguir com os sistemas de desenvolvimento rápido que alguns acreditam que podem mudar fundamentalmente a economia. Ficou claro que os membros do Subcomitê do Senado para Privacidade, Tecnologia e Lei não planejavam um interrogatório rigoroso para Altman, já que agradeceram a ele pelas reuniões privadas e por comparecer à audiência. Cory Booker, democrata de Nova Jersey, referiu-se repetidamente a Altman pelo primeiro nome. Vendo o contexto, isso não parece ser surpreendente.

“Se algo pode dar errado, pode dar muito errado”:

“Eu acho que, se essa tecnologia der errado, ela pode dar muito errado. E queremos nos expressar sobre isso”, disse Altman. “Queremos trabalhar com o governo para evitar que isso aconteça.” Essa frase de Altman é particularmente preocupante. Se interpretarmos isso com cuidado, veremos que na realidade não sabemos o que pode dar errado, o que, por si só, já é grave. Então, não se entende porque a OpenAI está anunciando que em breve conectará o ChatGPT à Internet. Usuários que pagarem pelo ChatGPT Plus, que usa o modelo GPT-4, terão acesso a uma função de navegação na web que fornecerá informações atualizadas. Não sabemos o que pode dar errado, mas vamos em frente! Uau!

O acesso generalizado às novas ferramentas de IA da OpenAI e do Google indica que a “guerra da IA” só está se intensificando à medida que as grandes empresas tecnológicas competem para criar a IA mais poderosa e fácil de usar.

A preocupação já chegou ao Presidente Joseph Biden e seus assessores, o que parece indicar que a questão não se encerrará com essa simples audiência. Isso colocou a tecnologia no centro das atenções em Washington. Biden disse, neste mês, em uma reunião com um grupo de executivos de empresas de IA, que “o que estão fazendo tem um enorme potencial e perigo”.

As sugestões apresentadas ao Senado e as respostas:

A Altman se juntaram na audiência Christina Montgomery, diretora de privacidade e confiança da IBM, e Gary Marcus, um conhecido professor e crítico frequente da tecnologia de Inteligência Artificial. O mais interessante, como veremos a seguir, foi que o principal problema do titular da OpenAI não foi nenhum dos legisladores, mas precisamente a lógica implacável do Dr. Marcus.

Altman disse que a tecnologia de sua empresa pode destruir alguns empregos, mas também criar outros novos, e que será importante que “o governo descubra como queremos mitigar isso”. Ecoando uma ideia sugerida pelo Dr. Marcus, ele propôs a criação de uma agência que emita licenças para o desenvolvimento de modelos de IA em larga escala, normas de segurança e testes que os modelos de IA devem passar antes de serem lançados ao público.

“Acreditamos que os benefícios das ferramentas que implementamos até agora superam amplamente os riscos, mas garantir sua segurança é vital para o nosso trabalho”, afirmou Altman.

No entanto, não estava claro como os legisladores responderiam ao chamado para regular a IA. O histórico do Congresso em relação à regulamentação tecnológica é desanimador. Dezena de projetos de lei sobre privacidade, liberdade de expressão e segurança falharam na última década devido às disputas partidárias e à feroz oposição das grandes empresas de tecnologia.

Os Estados Unidos têm ficado para trás em relação ao mundo em termos de regulamentações sobre privacidade, liberdade de expressão e proteção infantil. Também estão atrasados nas regulamentações sobre Inteligência Artificial. Os legisladores da União Europeia estão prontos para introduzir regras para a tecnologia no final deste ano, e a China já criou leis de Inteligência Artificial que se alinham com suas leis de censura, como era de se esperar do Reino do “Big Brother”.

O senador Richard Blumenthal, democrata de Connecticut e presidente do painel do Senado, afirmou que a audiência foi a primeira de uma série para aprender mais sobre os possíveis benefícios e danos da IA, com o objetivo de eventualmente “escrever as regras”.

Ele também reconheceu o fracasso do Congresso em se atualizar com a introdução de novas tecnologias no passado. “Nosso objetivo é desmistificar e responsabilizar essas novas tecnologias para evitar alguns dos erros do passado”, disse Blumenthal. “O Congresso não cumpriu com o momento das redes sociais”. E, aliás, ainda não cumpriu.

Os membros do Subcomitê sugeriram a criação de uma agência independente para supervisionar a IA; regras que obriguem as empresas a revelar como seus modelos funcionam e os conjuntos de dados que utilizam; e normas antitruste para evitar que empresas como Microsoft e Google monopolizem o mercado nascente.

“O diabo estará nos detalhes”, disse Sarah Myers West, diretora executiva do AI Now Institute, um centro de pesquisa sobre políticas relacionadas à tecnologia e à Inteligência Artificial. Ela afirmou que as sugestões de Altman para as regulamentações não são suficientes e deveriam incluir limites sobre como a IA é usada na vigilância e no uso de dados biométricos. Ela apontou que Altman não demonstrou nenhum indício de desacelerar o desenvolvimento da ferramenta ChatGPT da OpenAI. “É uma grande ironia ver uma postura de preocupação com os danos de pessoas que estão lançando rapidamente para uso comercial o sistema responsável por esses mesmos danos”, disse Sarah West.

A lacuna entre compreensão política e avanço tecnológico:

Alguns legisladores na audiência ainda mostraram a lacuna persistente nos conhecimentos tecnológicos entre Washington e o Vale do Silício. Lindsey Graham, republicana da Carolina do Sul, perguntou repetidamente aos testemunhas se um escudo de responsabilidade para plataformas online como Facebook e Google também se aplica à Inteligência Artificial.

Altman, calmo e sereno, tentou várias vezes estabelecer uma distinção entre IA e redes sociais. “Precisamos trabalhar juntos para encontrar uma abordagem totalmente nova”.

Alguns membros do Subcomitê também estavam relutantes em tomar medidas drásticas contra uma indústria com uma grande promessa econômica para os Estados Unidos e que compete diretamente com adversários como a China. Certamente, os políticos americanos não conseguem estabelecer claramente o que são os perigos de uma tecnologia e o que é a geopolítica tecnológica de seu país.

Os chineses estão criando IA que “reforçam os valores fundamentais do Partido Comunista Chinês e o sistema chinês”, disse Chris Coons, democrata de Delaware. “E me preocupa como promovemos a IA que reforça e fortalece os mercados abertos, as sociedades abertas e a democracia”.

Algumas das perguntas e comentários mais difíceis para Altman vieram do Dr. Marcus, que apontou que a OpenAI não tem sido transparente sobre os dados que utiliza para desenvolver seus sistemas. Ele expressou dúvidas sobre a previsão de Altman de que novos empregos substituirão os eliminados pela Inteligência Artificial.

“Aqui temos oportunidades sem precedentes, mas também enfrentamos uma tempestade perfeita de irresponsabilidade corporativa, implantação generalizada, falta de regulamentação adequada e pouca confiabilidade inerente”, disse o Dr. Marcus.

As empresas de tecnologia argumentaram que o Congresso deve ter cuidado com as regras gerais que agrupam diferentes tipos de IA. Na audiência de terça-feira, a Sra. Montgomery, da IBM, pediu uma lei de IA semelhante às regulamentações propostas pela Europa, que descreve vários níveis de risco. Ela pediu regras que se concentrem em usos específicos, não que regulamentem a tecnologia em si.

“Essencialmente, a IA é apenas uma ferramenta, e as ferramentas podem servir para diferentes propósitos”, disse ela, acrescentando que o Congresso deveria adotar uma “abordagem de regulação de precisão para a IA”.

Enquanto isso, a competição aumenta:

Por sinal, a OpenAI não é a única empresa que colocou em operação o que está sendo discutido. A visão mais completa que pode ser oferecida neste momento, e levando em consideração os projetos mais importantes, nos mostra:


ChatGPT. ChatGPT, o modelo de linguagem de inteligência artificial de um laboratório de pesquisa, OpenAI, tem sido destaque desde novembro por sua capacidade de responder a perguntas complexas, escrever poesias, gerar códigos, planejar férias e traduzir idiomas. O GPT-4, a última versão apresentada em meados de março, pode até responder a imagens (e passar no Exame da Ordem dos Advogados).

Bing. Dois meses depois do lançamento do ChatGPT, a Microsoft, principal investidora e parceira da OpenAI, adicionou um chatbot semelhante, capaz de ter conversas abertas por texto sobre praticamente qualquer tema, ao seu motor de busca Bing. Mas foram as respostas ocasionalmente imprecisas, enganosas e estranhas do bot que atraíram grande parte da atenção após o seu lançamento.

Bard. O chatbot do Google, chamado Bard, foi lançado em março para um número limitado de usuários nos Estados Unidos e no Reino Unido. Originalmente concebido como uma ferramenta criativa destinada a redigir e-mails e poesias, pode gerar ideias, escrever postagens em blogs e responder perguntas com fatos ou opiniões.

Ernie. Ernie, abreviação de Representação Melhorada através da Integração de Conhecimento, acabou sendo um fracasso depois que foi revelado que a demonstração "ao vivo" prometida do bot foi gravada.

Autor: Dr. David Tanz

Autor: Dr. David Tanz

Artigos relacionados

0 Comments

Submit a Comment

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

error: Content is protected !!