O conhecido como “padrinho da inteligência artificial” teme que sua criação supere a inteligência humana e explica por que os “robôs assassinos” são um risco real e assustador
Poucos nomes têm tanto peso no campo da Inteligência Artificial quanto o de Geoffrey Hinton. Conhecido como o “padrinho da IA”, este cientista britânico-canadense foi pioneiro nas redes neurais e no deep learning, lançando as bases para os sistemas que hoje nos maravilham e, cada vez mais, nos inquietam, como o ChatGPT ou o Gemini.
Precisamente por isso, suas palavras ressoam com especial força agora que, após deixar seu cargo no Google, decidiu falar abertamente e sem filtros sobre os perigos que ele próprio ajudou a desencadear. Seu alerta é claro: a IA ameaça a humanidade e ninguém pode garantir que seremos capazes de controlá-la.
Alerta sobre os riscos da tecnologia que ajudou a criar. Mas por que agora?
Hinton, de 75 anos, explicou em uma entrevista concedida à BBC em 2023 que sua saída do Google se deve a vários motivos: sua idade, o desejo de que seus elogios à empresa soassem mais credíveis vistos de fora e, sobretudo, a necessidade de “falar livremente sobre os perigos da IA” sem afetar seu antigo empregador.
Embora considere que o Google agiu de forma responsável no início, ao não lançar seus chatbots por precaução, ele acredita que a competição feroz iniciada pela Microsoft ao integrar IA no Bing há alguns anos forçou uma corrida tecnológica em que os riscos ficam em segundo plano. “Só é possível ser cauteloso quando se está na liderança.”
A origem da preocupação de Hinton não é apenas o poder da IA, mas sua natureza fundamentalmente diferente da nossa. “O tipo de inteligência que desenvolvemos é muito diferente da inteligência que temos”, afirma, algo que coincide com o pensamento de outra grande mente do campo da IA, Yuval Noah Harari.
A grande vantagem (e o perigo) do digital, segundo Hinton, é a capacidade de compartilhar conhecimento instantaneamente. “Você tem muitas cópias do mesmo modelo. Todas essas cópias podem aprender separadamente, mas compartilham seu conhecimento de forma imediata. É como se tivéssemos 10.000 pessoas e, cada vez que uma aprende algo, todas as outras aprendem automaticamente.” Essa capacidade coletiva e exponencial de aprendizado é o que, segundo ele, fará com que “em breve sejam mais inteligentes do que nós.”
Os três cavaleiros do IA-pocalipse (a curto prazo):
Embora o risco existencial de uma superinteligência descontrolada seja seu maior temor a longo prazo, Hinton identifica três perigos mais imediatos que já começamos a vislumbrar:
Desinformação incontrolável: a capacidade de gerar automaticamente textos (e imagens, vídeos…) falsos indistinguíveis dos reais tornará impossível para o cidadão comum saber o que é verdade. Uma arma perfeita, adverte, para a manipulação em massa por parte de “líderes autoritários”.
Substituição massiva de empregos: a IA ameaça substituir trabalhadores humanos em uma ampla gama de profissões, gerando um impacto social e econômico sem precedentes.
“Robôs assassinos”: o perigo de que os sistemas de IA se tornem armas autônomas. Hinton considera muito provável que atores como “Putin” decidam dar aos robôs a capacidade de criar seus próprios subobjetivos para serem mais eficazes. O problema é que um desses subobjetivos poderia ser “obter mais poder” para cumprir melhor a missão principal, um caminho que poderia levar à perda de controle humano sobre essas armas letais. “Estarão muito interessados em criar robôs assassinos”, alerta.
Por outro lado, a grande pergunta que obceca Hinton é o que acontecerá quando essas inteligências digitais nos superarem. “O que fazemos para mitigar os riscos a longo prazo? Coisas mais inteligentes do que nós assumindo o controle.”
Outras vozes:
Sam Altman, CEO da OpenAI, e suas palavras mais contundentes: “Meu filho não crescerá mais inteligente do que a IA.”
Não há garantias de que possamos controlar algo que é fundamentalmente mais inteligente e aprende de forma diferente. Seu apelo público busca “incentivar as pessoas a pensar muito seriamente” sobre como evitar esse cenário de pesadelo. Ele reconhece não ser especialista em política, mas insiste que os governos devem se envolver profundamente no desenvolvimento e controle dessa tecnologia.
É claro que também reconhece os enormes benefícios potenciais da IA, especialmente em campos como a medicina, onde um sistema com acesso a milhões de casos poderia superar um médico humano. Ele não defende interromper o desenvolvimento agora (“a curto prazo, acredito que obtemos muito mais benefícios do que riscos”), mas sim incorporar a reflexão sobre o controle como parte do processo.
As palavras de Geoffrey Hinton têm um peso imenso. Vêm de alguém que não apenas compreende a tecnologia por dentro, mas que contribuiu decisivamente para criá-la. Sua mensagem, agora livre de amarras corporativas, é um chamado urgente à atenção. A IA avança em ritmo vertiginoso, a competição acelera seu desenvolvimento, mas a pergunta fundamental sobre como manter o controle permanece sem resposta. O alerta do “padrinho” é claro: devemos levar esse desafio existencial muito a sério, antes que seja tarde demais.





0 Comments