Yuval Noah Harari, historiador e pensador tecnológico: “A IA é uma ameaça sem precedentes para a Humanidade”

Yuval Noah Harari, historiador e pensador tecnológico: “A IA é uma ameaça sem precedentes para a Humanidade”

Desde que Yuval Noah Harari publicou Sapiens: De animais a deuses, ele se consagrou como uma dessas mentes brilhantes que vale muito a pena acompanhar de perto. Em grande parte, isso se deve à sua capacidade de conectar o passado com o presente sem necessariamente recorrer a argumentos teleológicos. Embora seja historiador de formação, também vale a pena prestar atenção em seus trabalhos que não estão vinculados à história, mas sim à opinião atual.

Tecnologia:
Nesse campo de atuação, Harari é bastante propenso a publicar artigos de opinião, bem como a conceder entrevistas interessantes. Nesta ocasião, é momento de resgatar um artigo seu no The Guardian, no qual alerta sobre os perigos existenciais da IA e que faz parte de um dos seus últimos livros, Nexus. Embora seja verdade que alguns especialistas apontem que não há nenhum perigo.

E é que, para Harari, a IA representa um risco existencial absoluto para o ser humano, podendo colocar em xeque a nossa capacidade de continuar nos desenvolvendo.

Um risco ‘existencial’ a considerar:
A inteligência artificial representa uma ameaça sem precedentes para a humanidade, pois é a primeira tecnologia na história capaz de tomar decisões e gerar novas ideias por conta própria. Todas as invenções humanas anteriores serviram para potencializar os seres humanos, já que, independentemente do quão poderosa fosse a nova ferramenta, as decisões sobre seu uso sempre ficaram em nossas mãos. As bombas nucleares não decidem sozinhas a quem matar, nem podem se aperfeiçoar ou inventar, por si mesmas, bombas ainda mais potentes. – Yuval Noah Harari

A perspectiva de Harari não é estranha, pois já lemos inúmeras vezes que a IA pode ser um verdadeiro problema para o ser humano, mais do que um simples apoio. Dessa forma, ele se preocupa com a possibilidade de que a IA tome decisões por conta própria e seja capaz de criar algo novo. Algo que, até agora, era impossível em nenhuma de nossas invenções como espécie, já que sempre foi decisão humana como utilizá-las. O problema é que é a IA quem decide.

Sam Altman, fundador da OpenAI, sobre um possível fim do mundo: “Nenhum bunker te salvará se a IA sair do controle”

Sam Altman, fundador da OpenAI, sobre um possível fim do mundo: “Nenhum bunker te salvará se a IA sair do controle”

Durante um tempo, foi apresentada uma visão do potencial destrutivo da Inteligência Artificial. Sam Altman foi claro quanto a isso: a IA pode ser problemática, mas também incrivelmente construtiva.

Sam Altman é, sem dúvida, uma das figuras-chave desta década. Desde a irrupção global do ChatGPT no mercado, as coisas não fizeram mais do que acelerar ano após ano com o sucesso incontestável dos modelos de Inteligência Artificial (IA). No entanto, também despertou um novo medo, concretamente o de um apocalipse causado pela IA, motivo pelo qual muitos ricos estão comprando seus próprios bunkers.

Tecnologia:
Agora, com a espécie de Guerra Fria que está sendo travada entre os Estados Unidos e a China, o medo é ainda maior, sobretudo após a irrupção de uma IA chinesa como a DeepSeek no mercado global. Agora que Sam Altman está no centro das atenções devido aos seus confrontos com Elon Musk, que quer comprar a OpenAI, é o momento de recuperar uma entrevista que ele concedeu em 2023, nos primórdios da IA, na qual explicava os perigos da inteligência artificial geral (AGI) e como nenhum bunker poderia salvar a humanidade se esta escapasse do controle humano.

Uma AGI maligna e o fim da Humanidade:
Os seres humanos nos tornamos a espécie dominante em grande parte devido ao nosso potencial transformador e inteligência. Isso não é estranho, mas nunca tivemos que lidar com uma espécie mais inteligente do que nós. O objetivo da inteligência artificial geral é ser mais inteligente, o que gera alguns medos.

Dessa maneira, Altman esclarecia em 2023 sua visão sobre o potencial destrutivo da IA, embora queira evitar que essa situação aconteça e seguir desenvolvendo a IA de forma eficiente e segura para todos. Recentemente, ele assegurou ter estado do lado errado da história.

error: Content is protected !!