Geoffrey Hinton, uma verdadeira lenda na disciplina, acredita agora que a tecnologia que tanto ajudou a desenvolver pode nos levar ao fim da civilização em questão de anos.
O tema da Inteligência Artificial, com seu enorme alcance e o pouco que realmente sabemos – em muitos casos ainda estamos na fase intuitiva – deu origem a uma verdadeira catarata de estudos, opiniões, controvérsias e acalorados debates que praticamente acontecem diariamente.
Nosso Laboratório entende que um dos melhores serviços que pode prestar a todas aquelas pessoas e organizações que acompanham nosso trabalho é oferecer uma série selecionada dessas opiniões, posições e debates, quase que atualizados no dia em que acontecem, para manter genuinamente informados aqueles que estão atentos ao que está ocorrendo e à nossa visão.
Por sinal, o Laboratório está trabalhando em seu Microlab de Inteligência Artificial e, oportunamente, divulgará suas conclusões e percepções, mas a urgência do tema não admite grandes atrasos. Essa é a razão pela qual hoje iniciamos uma Série, a de Inteligência Artificial, que esperamos seja o fermento de análise, meditação e conclusões sobre a projeção que um tema de tal magnitude nos obriga a abordar. Ninguém, nem governos, nem organismos internacionais, nem organismos regionais, think tanks e indivíduos podem permanecer indiferentes à sua evolução.
Como sempre, esperamos que nosso serviço possa ser útil.
Geoffrey Hinton está extremamente preocupado com o futuro da inteligência artificial:
Fora do campo de pesquisa e desenvolvimento da Inteligência Artificial, pode haver muitas pessoas que nunca ouviram falar de Geoffrey Hinton, talvez o pioneiro ou um dos mais destacados do grupo de pioneiros que desenvolveram e se ocuparam sistematicamente da Inteligência Artificial. Mas este autor e seu pensamento representam um marco dentro de toda essa grande discussão pela qual estamos passando e que nos interessa porque sua opinião é decisiva para a tomada de decisões, especialmente de natureza pública, e suas opiniões, sejam positivas ou negativas, não podem ser ignoradas. Por sinal, o especialista vem de um fato recente de alta relevância pessoal e profissional, ele acabou de renunciar ao seu emprego na gigante Google. Uma decisão que tem raízes mais profundas do que um simples capricho ou uma opção simples entre um “sim” e um “não”.
Hinton, com seus 75 anos completos, viu em sua carreira profissional e em sua vida pessoal muitas coisas, foi protagonista e testemunha, não apenas do desenvolvimento computacional, mas também do nascimento e desenvolvimento da Internet e construiu sua vida em torno disso. É por isso, e por sua vasta trajetória científica, que é necessário atentar à sua visão, em tempos em que a discussão sobre o tema, sobre suas consequências e sua eventual regulação está se intensificando. É preciso ser cuidadoso quanto à discussão e às linhas argumentativas que estão sendo desenvolvidas: sabemos que estamos diante de um tema de enorme importância.
Apresentando Hinton:
Nasceu em Wimbledon, no Reino Unido, em 6 de dezembro de 1947. Possui dupla nacionalidade, a de seu país de origem e a do país em que reside, o Canadá. Se formou na Universidade de Edimburgo e possui um PhD em Inteligência Artificial. Após obter seu título, trabalhou na Universidade de Sussex – onde enfrentou algumas dificuldades financeiras – e emigrou para a Universidade da Califórnia em San Diego e para a Universidade Carnegie Mellon.
Foi diretor fundador da Fundação Benéfica Gatsby da Unidade de Neurociência Computacional na University College de Londres.
Sua área de trabalho há muito tempo é o Aprendizado Profundo e o Aprendizado de Máquina. E suas áreas de ocupação, além da informática teórica, incluem o cargo de professor universitário na Universidade de Toronto (no Departamento de Informática) e na Universidade Carnegie Mellon, onde ensinou até 1987.
Ele ocupa a Cátedra de Pesquisa do Canadá em Aprendizado de Máquina e atualmente é assessor para o Aprendizado em Máquinas e Cérebros no Instituto Canadense para Pesquisa Avançada. E se juntou ao Google em março de 2013 quando sua empresa, DNNresearch Inc., foi adquirida.
Como foi indicado, ele trabalhava no Google até que, por vontade própria, deixou de fazê-lo muito recentemente, alegando o perigo que reconhece em algumas novas tecnologias e a insistência de algumas empresas em continuar por um caminho que nos conduz a esses perigos, a maioria dos quais não foi medida em sua profundidade. Ele fez isso aos 75 anos, em uma sociedade profundamente desdenhosa de seus teóricos mais velhos.
Além disso, é membro da Academia Americana de Artes e Ciências; da American Association for Artificial Intelligence, do Laboratório Europeu de Aprendizado e Sistemas Inteligentes.
Hinton foi eleito membro da Royal Society (FRS) em 1998. Ele foi o primeiro vencedor do Prêmio David E. Rumelhart em 2001.
Em 2001, Hinton foi agraciado com um Doutorado Honoris Causa pela Universidade de Edimburgo. Em 2005 recebeu o Prêmio IJCAI de Pesquisa de Excelência por sua trajetória. Também foi agraciado com a Medalha de Ouro Herzberg no Canadá para a Ciência e Engenharia em 2011. Em 2013, Hinton foi agraciado com um Doutorado Honoris Causa pela Universidade de Sherbrooke, também no Canadá.
Em 2016, foi eleito membro estrangeiro da Academia Nacional de Engenharia “Por suas contribuições à teoria e à prática das redes neurais artificiais e suas aplicações para o reconhecimento de voz e visão computacional”. Também recebeu o Prêmio IEEE/RSE Wolfson James Clerk Maxwell em 2016.
Ele ganhou os prêmios da Fundação BBVA Fronteiras do Conhecimento de Adjudicação (2016) na categoria de Tecnologias de Informação e Comunicação “por seu trabalho pioneiro e altamente influente” para dotar as máquinas com a capacidade de aprender.
Ganhou o Prêmio Turing em 2018 (considerado o Nobel da Informática) juntamente com Yoshua Bengio e Yann LeCun por seu trabalho em Aprendizado Profundo, especialmente por avanços conceituais e de engenharia que tornaram as redes neurais profundas um componente crítico da computação.
Atualmente, o Professor Hinton pesquisa maneiras de utilizar redes neurais para aprendizado de máquina, memória, percepção e processamento de símbolos. É autor ou coautor de mais de 200 publicações revisadas por pares nessas áreas. Enquanto foi professor na Universidade de Carnegie Mellon (1982-1987), Hinton foi um dos primeiros pesquisadores a demonstrar o uso do algoritmo de backpropagation generalizado para treinar redes neurais multicamadas, que foi amplamente utilizado para aplicações práticas. Durante o mesmo período, Hinton co-inventou as máquinas de Boltzmann com David Ackley e Terry Sejnowski. Suas outras contribuições para a pesquisa em redes neurais incluem representações distribuídas, redes neurais com atraso temporal, misturas de especialistas, máquinas de Helmholtz e Produto de Especialistas. Em 2007, Hinton foi coautor de um trabalho sobre aprendizado não supervisionado intitulado “Aprendizado não supervisionado de transformações de imagem”. Uma introdução acessível às pesquisas de Geoffrey Hinton pode ser encontrada em seus artigos na Scientific American de setembro de 1992 e outubro de 1993.
Hinton se mudou dos EUA para o Canadá em parte devido à desilusão com a política da era Reagan e à desaprovação do financiamento militar da Inteligência Artificial. Ele acredita que os sistemas políticos usarão a IA para “aterrorizar a população”. Hinton tem peticionado contra as armas autônomas letais. Em relação ao risco existencial da inteligência artificial, Hinton declarou que a superinteligência parece estar a mais de 50 anos no futuro, mas alerta que “não há uma boa trajetória de coisas menos inteligentes controlando coisas de maior inteligência”. Quando foi entrevistado em 2015 e lhe perguntaram por que ele continua com a pesquisa, apesar de suas graves preocupações, Hinton declarou: “Eu poderia dar os argumentos habituais. Mas a verdade é que a perspectiva da descoberta é doce demais.” Hinton também afirmou que “é muito difícil prever além de cinco anos” o que os avanços da IA trarão. De fato, as metas que ele imaginava com relação aos tempos mudaram drasticamente. Até algum tempo atrás, a previsão de Hinton era que a inteligência artificial superaria a inteligência humana em cerca de trinta ou cinquenta anos, mas as evidências mostram que esse tempo foi reduzido para entre cinco e vinte anos.
“Se houver alguma forma de controlar a inteligência artificial, devemos descobri-la antes que seja tarde.”
Há um conjunto de razões pelas quais Hinton deixou seu cargo de vice-presidente de Engenharia no Google e iniciou uma campanha para alertar que o mundo deve temer a tecnologia.
Sua intenção, atualmente, é dedicar-se a alertar sobre o que considera ser o lado sombrio da inteligência artificial (IA), de acordo com o que disse em uma entrevista ao prestigioso e influente The New York Times. Esta “transição” de uma ponta da ponte para a outra não é simplesmente uma mudança de opinião de alguém. Hinton é uma lenda na disciplina. Seu trabalho foi decisivo para o desenvolvimento de algumas técnicas que tornaram possível o ChatGPT, tradutores automáticos ou sistemas de visão para veículos autônomos. Ele atravessou a ponte porque agora acredita firmemente que a tecnologia que tanto ajudou a desenvolver pode nos levar ao fim da civilização em questão de anos.
Não é uma conclusão caprichosa, a obsessão desse cientista sempre foi estudar como funciona o cérebro para tentar replicar esses mecanismos nos computadores. Em 1972, ele cunhou o conceito de rede neural. A ideia original era aplicar matemática à análise de dados para que os sistemas fossem capazes de desenvolver habilidades. Sua proposta não convenceu na época; hoje, as redes neurais são a vanguarda da pesquisa em Inteligência Artificial. O grande momento de Hinton chegou em 2012, quando demonstrou o verdadeiro potencial de sua linha de pesquisa com uma rede neural que podia analisar milhares de fotografias e aprender sozinha a distinguir certos objetos, como flores, carros ou cachorros. Ele também treinou um sistema para prever as próximas letras de uma frase inacabada, um precursor dos atuais grandes modelos linguísticos como o ChatGPT.
Os perigos aos quais estamos enfrentando, os imediatos e os “existenciais”:
De acordo com o pensamento atual do Professor Hinton, enfrentamos muitos perigos. A geração de notícias falsas já está causando grandes divisões na sociedade. A eliminação de certos tipos de trabalho terá um impacto no emprego. A disparidade de riqueza entre ricos e pobres aumentará. Esses são alguns dos perigos iminentes, embora existam outros de caráter existencial. De acordo com Hinton, “recentemente percebi que o tipo de inteligência digital que estamos desenvolvendo pode ser uma forma de inteligência melhor do que a dos cérebros biológicos. Sempre pensei que a IA ou o aprendizado profundo tentavam imitar o cérebro, embora não pudessem igualá-lo: o objetivo era melhorar para que as máquinas se parecessem mais e mais conosco. Mudei de posição nos últimos meses. Acredito que podemos desenvolver algo muito mais eficiente que o cérebro porque é digital.” E o que cobre essa afirmação é o que devemos considerar realmente preocupante.
Ele acreditava que, em todo caso, poderíamos imitar o cérebro, mas agora acredita que podemos criar algo mais eficiente que o cérebro, porque é digital:
Com um sistema digital, poderíamos ter inúmeras cópias exatamente do mesmo modelo do mundo. Essas cópias podem funcionar em diferentes hardwares. Dessa forma, diferentes cópias poderiam analisar dados diferentes. E todas essas cópias podem saber instantaneamente o que as outras aprenderam. Elas fazem isso compartilhando seus parâmetros. Mas não é possível fazer isso com o cérebro. Nossas mentes aprenderam a usar todas suas propriedades de forma individual. Se eu lhe desse um mapa detalhado das conexões neurais do nosso cérebro, não serviria para nada. Mas nos sistemas digitais, o modelo é idêntico. Todos usam o mesmo conjunto de conexões. Assim, quando um aprende algo, pode comunicar aos outros. E é por isso que o ChatGPT pode saber milhares de vezes mais do que qualquer pessoa: porque pode ver milhares de vezes mais dados do que ninguém. Isso é o que assusta. Talvez essa forma de inteligência seja melhor do que a nossa.
Ele chega a essa conclusão depois de tentar descobrir como um cérebro poderia implementar os mesmos procedimentos de aprendizado usados em inteligências digitais como as que estão por trás do ChatGPT-4. Pelo que sabemos até agora sobre o funcionamento do cérebro humano, provavelmente nosso processo de aprendizado é menos eficiente que o dos computadores.
A inteligência artificial pode ser “realmente inteligente” se não entender o que significam as palavras ou sem ter intuição?
O aprendizado profundo, se comparado à Inteligência Artificial simbólica (a corrente dominante na disciplina até a irrupção das redes neurais, que tentava fazer com que a máquina aprendesse palavras e números), é um modelo de intuição. Se tomarmos a lógica simbólica como referência, se acreditarmos que é assim que o raciocínio funciona, não podemos responder à pergunta que é necessário fazer. Mas se tivermos um modelo computacional de intuição, a resposta é óbvia. Então, essa é a pergunta: sabemos que há gatos machos e fêmeas. Mas suponhamos que eu diga que devemos escolher entre duas possibilidades, ambas ridículas: todos os gatos são machos e os cães são fêmeas, ou todos os gatos são fêmeas e todos os cães são machos. Em nossa cultura ocidental, temos bem claro que faz mais sentido que os gatos sejam fêmeas, porque são menores, mais inteligentes e cercados por uma série de estereótipos, e que os cães sejam machos, porque são maiores, menos inteligentes, mais barulhentos, etc. Repito, não faz sentido algum, mas forçados a escolher, acredito que a maioria diria o mesmo. Por quê? Em nossa mente, representamos o gato e o cachorro, o homem e a mulher, com grandes padrões de atividade neuronal baseados no que aprendemos. E associamos entre si as representações que mais se assemelham. Esse é um raciocínio intuitivo, não lógico. Assim funciona o aprendizado profundo.
É possível que a Inteligência Artificial chegue a ter seus próprios propósitos ou objetivos?
Aqui está uma questão chave, talvez o maior perigo que cerca esta tecnologia. Nossos cérebros são o fruto da evolução e possuem uma série de metas integradas, como não ferir o corpo, daí a noção de dano; comer o suficiente, daí a fome; e fazer tantas cópias de nós mesmos quanto possível, daí o desejo sexual. As inteligências sintéticas, por outro lado, não evoluíram: nós as construímos. Portanto, elas não necessariamente vêm com objetivos inatos. Então, a grande pergunta é: podemos garantir que elas tenham metas que nos beneficiem? Este é o chamado problema do alinhamento. E temos várias razões para nos preocuparmos muito. A primeira é que sempre haverá quem queira criar robôs soldados. Isso pode ser conseguido de forma mais eficiente se for dada à máquina a capacidade de gerar seu próprio conjunto de objetivos. Nesse caso, se a máquina for inteligente, não demorará a perceber que consegue melhor seus objetivos se se tornar mais poderosa. Então, uma das chaves é dedicar tanto esforço ao desenvolvimento desta tecnologia quanto à garantia de que seja segura.
Os caminhos a serem seguidos agora:
É necessário chamar a atenção das pessoas para esse problema existencial que é a Inteligência Artificial. Quem me dera que houvesse uma solução clara, como no caso da emergência climática: precisamos parar de queimar carbono, embora haja muitos interesses que o impeçam. Mas não se conhece nenhum problema equivalente ao da Inteligência Artificial. Então, o melhor a se fazer neste momento é que devemos dedicar tanto esforço ao desenvolvimento dessa tecnologia quanto à garantia de que ela seja segura. E isso não está acontecendo atualmente. Mas como se consegue isso em um sistema capitalista?
O Google desenvolveu internamente chatbots como o LaMDA, que eram muito bons, e deliberadamente decidiu não abri-los ao público porque estavam preocupados com suas consequências. E foi assim enquanto o Google liderava essa tecnologia. Quando a Microsoft decidiu colocar um chatbot inteligente no seu buscador Bing, o Google teve que responder porque operam um sistema competitivo. O Google se comportou de forma responsável. Hinton não quer que as pessoas pensem que ele saiu da empresa para criticá-la. Ele deixou o Google para poder alertar sobre os perigos sem ter que se preocupar com o impacto que isso poderia causar nos seus negócios.
Qual é a situação geral da comunidade científica e a ingenuidade manifesta:
As conclusões de Hinton são de que entramos em um território completamente desconhecido. Somos capazes de construir máquinas mais fortes do que nós, mas ainda assim mantemos o controle. Mas o que aconteceria se desenvolvêssemos máquinas mais inteligentes do que nós? Não temos experiência em lidar com essas coisas. Realmente precisamos pensar muito sobre isso. E não basta dizer que não vamos nos preocupar. Muitas das pessoas mais inteligentes que conhecemos e que estão lidando com esses temas estão seriamente preocupadas.
Não adianta esperar que a Inteligência Artificial seja mais inteligente do que nós, precisamos controlá-la à medida que ela se desenvolve.
Hinton não assinou a carta subscrita por mais de mil especialistas em Inteligência Artificial que pedia uma moratória de seis meses na pesquisa. Suas razões são que ele acredita que o enfoque é completamente ingênuo e não há como implementá-lo. Ele apresenta razões muito importantes: ainda que se resolva a competição entre as grandes empresas, há a competição entre países. Se os EUA decidissem parar de desenvolver Inteligência Artificial, realmente acreditamos que a China pararia? A ideia de parar a pesquisa chama a atenção das pessoas para o problema, mas isso não vai acontecer. Com as armas nucleares, dado que as pessoas perceberam que todos perderiam se houvesse uma guerra nuclear, foi possível conseguir Tratados. Com a Inteligência Artificial, será muito mais complicado porque é muito difícil verificar se as pessoas estão trabalhando nisso.
O melhor que se pode recomendar é que muitas pessoas muito inteligentes tentem descobrir como conter os perigos dessas coisas. A Inteligência Artificial é uma tecnologia fantástica, está provocando grandes avanços na medicina, no desenvolvimento de novos materiais, na previsão de terremotos ou inundações… Precisamos de muito trabalho para entender como conter a IA. Não adianta esperar que a IA seja mais inteligente do que nós, precisamos controlá-la à medida que ela se desenvolve. Também precisamos compreender como contê-la, como evitar suas más consequências. Por exemplo, acredito que todos os governos deveriam insistir para que todas as imagens falsas tenham um distintivo.
Por fim, Hinton apontou: “temos a oportunidade de nos preparar para esse desafio. Precisamos de muitas pessoas criativas e inteligentes. Se houver alguma forma de manter a IA sob controle, precisamos descobri-la antes que ela seja inteligente demais”.
0 Comments