Durante um tempo, foi apresentada uma visão do potencial destrutivo da Inteligência Artificial. Sam Altman foi claro quanto a isso: a IA pode ser problemática, mas também incrivelmente construtiva.
Sam Altman é, sem dúvida, uma das figuras-chave desta década. Desde a irrupção global do ChatGPT no mercado, as coisas não fizeram mais do que acelerar ano após ano com o sucesso incontestável dos modelos de Inteligência Artificial (IA). No entanto, também despertou um novo medo, concretamente o de um apocalipse causado pela IA, motivo pelo qual muitos ricos estão comprando seus próprios bunkers.
Tecnologia:
Agora, com a espécie de Guerra Fria que está sendo travada entre os Estados Unidos e a China, o medo é ainda maior, sobretudo após a irrupção de uma IA chinesa como a DeepSeek no mercado global. Agora que Sam Altman está no centro das atenções devido aos seus confrontos com Elon Musk, que quer comprar a OpenAI, é o momento de recuperar uma entrevista que ele concedeu em 2023, nos primórdios da IA, na qual explicava os perigos da inteligência artificial geral (AGI) e como nenhum bunker poderia salvar a humanidade se esta escapasse do controle humano.
Uma AGI maligna e o fim da Humanidade:
Os seres humanos nos tornamos a espécie dominante em grande parte devido ao nosso potencial transformador e inteligência. Isso não é estranho, mas nunca tivemos que lidar com uma espécie mais inteligente do que nós. O objetivo da inteligência artificial geral é ser mais inteligente, o que gera alguns medos.
Dessa maneira, Altman esclarecia em 2023 sua visão sobre o potencial destrutivo da IA, embora queira evitar que essa situação aconteça e seguir desenvolvendo a IA de forma eficiente e segura para todos. Recentemente, ele assegurou ter estado do lado errado da história.
0 Comments