Até 2030, 59% da força de trabalho precisará se requalificar para manter seu emprego
Segundo antecipou um novo relatório do Fórum Econômico Mundial, a automação, pressões econômicas e mudanças demográficas gerarão até 2030 a perda de 92 milhões de empregos.
Nesse período, conforme relatado pela EFE, 41% dos empregadores reduzirão sua força de trabalho devido à automação de tarefas que antes exigiam intervenção humana, algo que afetará empregos repetitivos e rotineiros.
Por exemplo, o estudo antecipou que designers gráficos e funcionários administrativos verão uma diminuição na demanda devido à capacidade da inteligência artificial (IA) de realizar tarefas semelhantes de maneira mais eficiente.
No entanto, o relatório aponta que, nesse período, novas oportunidades de trabalho gerarão outros 170 milhões de postos, resultando em um aumento líquido de 78 milhões.
Nesse sentido, espera-se que a demanda por habilidades técnicas relacionadas à IA cresça exponencialmente e se torne indispensável para ocupar novos cargos em setores como desenvolvimento de big data, cibersegurança e energias renováveis. Isso tornará necessário requalificar e aprimorar as habilidades dos trabalhadores atuais. De acordo com as projeções do Fórum, 59% da força de trabalho precisará se requalificar até 2030.
Quais serão os principais desafios do mercado? O relatório destacou que o descompasso de habilidades será a principal barreira para a transformação empresarial. Isso implica que mais de 120 milhões de trabalhadores estarão em risco de serem deslocados se não adquirirem a devida capacitação. Nesse sentido, 63% dos empregadores consultados pelo Fórum consideraram essa lacuna como o principal obstáculo para manter suas operações atualizadas, e 77% dos empregadores planejam investir no aumento e na reciclagem das competências da força de trabalho.
Que fatores explicam essas mudanças no mercado? Os avanços tecnológicos, especialmente a IA, serão um dos principais responsáveis pelas mudanças no mercado global de trabalho. No entanto, não será o único fator, já que as pressões econômicas e demográficas também terão impacto. “Fatores como o aumento do custo de vida, o envelhecimento da população em países de alta renda e o crescimento das populações em idade ativa em países de baixa renda impactarão a demanda por empregos em setores como saúde e educação”, afirmou o relatório.
Quais serão as habilidades-chave? Habilidades como pensamento criativo, resiliência, flexibilidade e colaboração continuarão sendo essenciais, conforme detalha o relatório, e a chave do sucesso será combinar adequadamente as habilidades técnicas com as humanas.
Quais outras funções precisarão de mais trabalhadores? O futuro do mercado de trabalho também será caracterizado por uma importante demanda por agricultores, motoristas de caminhão, entregadores, profissionais de enfermagem, educadores e vendedores.
Colaboração do jornal El Observador de Montevidéu. Ajustado pela equipe do Future Lab.
Yuval Harari, entrevistado pelo FMI: “A Inteligência Artificial é a tecnologia mais poderosa já criada”
Contribuição de imprensa do Fundo Monetário Internacional (FMI). Revista Finanças e Desenvolvimento. O historiador e escritor israelense, um dos principais estudiosos do impacto da IA na evolução humana, alertou em uma entrevista que a nova tecnologia tirará das pessoas a exclusividade de impor emoções por meio da transmissão de relatos.
Segundo Yuval Harari, o impacto da Inteligência Artificial sobre a humanidade trará consequências tão profundas que, em um futuro não muito distante, os seres humanos terão que ceder a autoria da capacidade de influenciar os outros com suas narrativas, algo que desde sempre permitiu dominar o planeta.
O historiador e escritor israelense, que em seu livro Nexus explicou que o mundo está deixando para trás a economia do dinheiro para substituí-la por uma economia baseada na troca de informações, foi entrevistado em um podcast editado pelo Fundo Monetário Internacional (FMI). Uma versão resumida dessa entrevista foi publicada na Finanças e Desenvolvimento (F&D), uma publicação do FMI. A seguir, o texto completo da entrevista:
F&D: Um dos princípios básicos da sua história do Homo sapiens é que somos os únicos com a habilidade de imaginar o futuro. Como a narração nos permitiu predominar sobre outras espécies que estão evoluindo ao nosso lado?
YNH: O poder reside na cooperação. Por exemplo, os chimpanzés só conseguem cooperar em grupos muito pequenos, mas a cooperação do Homo sapiens é ilimitada. Hoje existem 8 bilhões de pessoas no mundo que, apesar de muitas diferenças e conflitos, pertencem quase sem exceção às mesmas redes comerciais. Muitos dos alimentos, da energia que consumimos e das roupas que usamos vêm do outro lado do mundo, das mãos de pessoas que nunca encontramos. Essas amplas redes de cooperação são o nosso superpoder e estão baseadas na confiança. Então, é preciso perguntar de onde surge a confiança entre estranhos. Das histórias.
A confiança se constrói contando histórias nas quais muitas pessoas acreditam. Isso é mais fácil de ver no caso da religião: milhões de estranhos podem cooperar em obras de caridade, como a construção de hospitais, ou lutar em guerras santas porque acreditam na mesma mitologia. Mas o mesmo acontece com a economia e o sistema financeiro, porque nenhum relato teve tanto sucesso quanto a história do dinheiro. Basicamente, é a única história na qual todo o mundo acredita.
F&D: Mas você se refere ao dinheiro como um mero artifício cultural.
YNH: Exatamente. O dinheiro é uma história, uma invenção; não tem valor objetivo. Não se pode comer ou beber notas ou moedas, mas é possível dar a um estranho um pedaço de papel que não vale nada em troca de um pão que pode ser comido. A premissa fundamental é que todos acreditamos na mesma narrativa sobre o dinheiro; se deixarmos de acreditar, tudo desmorona. Isso já aconteceu ao longo da história, e acontece hoje com os novos tipos de moedas. O que são os bitcoin, a rede Ethereum e todas essas criptomoedas? São narrativas. Seu valor depende das histórias que as pessoas contam e acreditam. E o valor do bitcoin sobe e desce à medida que aumenta ou diminui a confiança das pessoas nessa narrativa.
F&D: Segundo seu último livro, Nexus, estamos deixando a economia do dinheiro por uma economia baseada na troca de informações, não de moedas. Como é a economia da informação?
YNH: Dou um exemplo: uma das empresas mais importantes na minha vida é o Google. Uso todos os dias, o dia todo. Mas meu extrato bancário não mostra nenhuma troca de dinheiro; nem eu pago ao Google, nem o Google me paga. O que o Google me dá é informação.
F&D: E você dá informação ao Google.
YNH: Exatamente. Dou ao Google muitas informações sobre o que gosto, o que não gosto, o que penso, qualquer coisa, e o Google as utiliza. No mundo inteiro, cada vez mais transações seguem esse formato de informação em troca de informação, e não algo em troca de dinheiro. O poder, a riqueza e o significado da riqueza passam de ter muito dinheiro para ter muitos petabytes de informação. O que acontece quando as pessoas e empresas mais poderosas são ricas no sentido de que possuem uma gigantesca quantidade de informação armazenada que nem se preocupam em monetizar, porque podem obter tudo o que querem em troca de informação? Para que precisamos de dinheiro? Se a informação serve para adquirir bens e serviços, o dinheiro se torna desnecessário.
F&D:Nexus parte da ideia de que as estruturas de poder e os sistemas de crenças surgiram de narrativas ao longo da evolução humana e contextualiza isso com a tecnologia atual. O que o livro diz sobre os perigos dessas redes de informação cada vez mais avançadas?
YNH: A primeira mensagem é quase filosófica: a informação e a verdade não são a mesma coisa. A maior parte da informação é fictícia, inverossímil e enganosa. A verdade é cara; é preciso se informar, coletar dados, dedicar tempo, esforço e dinheiro para encontrá-la. E muitas vezes, a verdade dói; por isso, ela é uma parte muito pequena da informação.
Outra mensagem é que estamos desencadeando sobre o mundo a tecnologia mais poderosa já criada: a IA. A IA é radicalmente diferente da imprensa, da bomba atômica e de qualquer outra invenção. É a primeira tecnologia da história que pode tomar decisões e criar novas ideias por si mesma. Uma bomba atômica não pode decidir onde detonar; a IA, sim. Pode tomar decisões financeiras e inventar instrumentos financeiros sozinha, e a IA que conhecemos hoje, em 2024, é apenas a forma rudimentar dessa revolução. Não temos ideia do que está por vir.
Algo importante, especialmente para o FMI, é que os pioneiros da IA são apenas um punhado de países. A maior parte dos países está muito atrás, e se não tomarmos cuidado, viveremos uma repetição da Revolução Industrial multiplicada por mil. No século XIX, apenas alguns países — Grã-Bretanha, depois Estados Unidos, Japão e Rússia — tomaram a dianteira na industrialização, enquanto a maioria dos outros não entendia o que estava acontecendo. Agora temos o tsunami da IA, e poucos países vão monopolizar esse poder, enquanto os demais podem ser explorados e dominados de maneiras sem precedentes históricos.
F&D: As decisões democráticas que as pessoas tomam estão baseadas nas histórias que ouvem: o que acontece quando essas histórias já não vêm de um ser humano?
YNH: Ocorre um terremoto. As sociedades humanas estão baseadas na confiança, e a confiança se baseia na informação e na comunicação. Uma mudança profunda na tecnologia da comunicação abala a confiança entre as pessoas. Pela primeira vez, as histórias que sustentam as sociedades humanas serão fruto de uma inteligência não humana.
A IA pode ser enormemente benéfica, mas se descontrolada pode representar um perigo existencial. Para mim, IA não significa Inteligência Artificial, mas Inteligência Alienígena. Não porque venha do espaço exterior, mas porque sai de nossos próprios laboratórios e toma decisões de uma maneira fundamentalmente diferente da humana. É um tipo alienígena de inteligência. É muito perigoso deixar bilhões de agentes alienígenas livres pelo mundo sem ter como garantir que usem seu poder em benefício nosso.
Contribuição de imprensa do Fundo Monetário Internacional (FMI). Revista Finanças e Desenvolvimento.
Esse é o grande debate em torno de Blade Runner. O protagonista do filme, inspirado no romance de Philip K. Dick Sonham os Androides com Ovelhas Elétricas? (1968), mantém o mistério sobre sua figura, um debate que nos aproxima de uma pergunta importante tantas décadas depois: O que nos torna humanos? Segundo afirma Omar Hatamleh, diretor de Inteligência Artificial do Goddard Space Flight Center da NASA, dentro de 50 anos será quase impossível distinguir um robô humanoide de uma pessoa. O teste Voight-Kampff, para distinguir entre humano e replicante, já não servirá mais para nada a Harrison Ford. A ameaça da IA é tão grande que, em março de 2023, Yuval Noah Harari, junto com Elon Musk e o cofundador da Apple, Steve Wozniak, assinaram um manifesto para parar por seis meses a “corrida descontrolada” do ChatGPT. Passado um ano e meio, não apenas não se parou, mas a IA pisou no acelerador até o fundo. Estamos a tempo de fazer algo para impedir que a IA nos destrua ou é uma batalha perdida? Quem pode matar o algoritmo? Em seu novo livro, Nexus (Debate), o filósofo Yuval Noah Harari — autor de Sapiens, uma obra que vendeu 25 milhões de cópias desde sua publicação em 2013 — relata como diferentes sociedades e sistemas políticos usaram a informação para alcançar seus objetivos e impor a ordem, para o bem e para o mal. Harari concentra sua obra no momento crucial que enfrentamos hoje, quando a inteligência não humana ameaça nossa própria existência.
TODOS FALAM, NINGUÉM ESCUTA: TOTALITARISMO, MENTIRAS E TEORIAS CONSPIRATIVAS
Em Nexus, Yuval Noah Harari analisa o papel das redes de informação desde a Idade da Pedra até o surgimento da IA. No início de sua intervenção, o historiador apontou a contradição em que vive nossa sociedade: “Temos a tecnologia da informação mais importante da história, mas as pessoas parecem incapazes de conversar.” A esse respeito, o autor de Homo Deus: Breve História do Amanhã usou o exemplo do que ocorre nos Estados Unidos, a impossibilidade de democratas e republicanos concordarem sobre qualquer coisa. Esse confronto entre ideologias fica evidente nas redes sociais, e sobre essa questão Harari comentou o seguinte: “A maneira mais fácil de capturar a atenção é apertar o botão do ódio ou o botão do medo e expandir deliberadamente as teorias conspiratórias.” Ele também comentou que “os grandes gigantes tecnológicos nos prometeram que nos conectariam a todos e que iriam espalhar a verdade. Temos uma tecnologia muito sofisticada para nos comunicarmos, mas não estamos dialogando”. Para Harari, a diferença essencial entre democracia e um regime totalitário é “a conversa”, que atualmente está em grave perigo devido à crise do jornalismo e à propagação de “mentiras e teorias conspiratórias” nessas redes sociais.
“Escrever uma mentira, uma informação falsa, é simples, você não precisa investir nada. A ficção é barata e a verdade normalmente é complicada”
Em relação ao exposto, Harari falou sobre o erro de identificar informação com verdade: “A informação não é conhecimento. A visão ingênua que domina lugares como o Silicon Valley sustenta que, quanto mais informação, mais as pessoas sabem. Mas a maior parte da informação no mundo é lixo. Não é verdade. A informação verdadeira é escassa porque escrever um relatório autêntico requer tempo, dinheiro e esforço. Escrever uma mentira, uma informação falsa, é simples, você não precisa investir nada. A ficção é barata e a verdade normalmente é complicada. A maior parte das pessoas prefere histórias simples. Se quisermos que a verdade prevaleça, precisamos investir nela. Precisamos de jornais e de sociedades e instituições acadêmicas. Essa é a grande responsabilidade das sociedades atuais: resistir a essa visão ingênua, de pessoas como Elon Musk, de que se houver mais informação, as pessoas terão mais chances de conhecer a verdade.”
O historiador israelense alertou durante a conferência de imprensa sobre o “potencial totalitário” da inteligência artificial e deu vários exemplos, como o de seu país, Israel, “que está construindo um regime de vigilância total” nos territórios ocupados. Segundo o autor, a “imensidão da capacidade” da IA para coletar e analisar informações permitirá “o regime de vigilância completa que anulando a privacidade”, algo que Hitler e Stalin não conseguiram, mas que países como o Irã estão começando a aplicar, com câmeras de reconhecimento facial que monitoram e punem a ausência do véu nas mulheres quando estão em um veículo. Esses dispositivos de videovigilância localizam as mulheres que dirigem sem o véu, as identificam, informando seu nome, telefone, e imediatamente elas recebem um SMS notificando a infração e a punição: devem abandonar o carro, que foi confiscado naquele momento. Isso não é uma ficção científica. Está acontecendo agora. Embora tenha destacado os perigos que envolvem IA e totalitarismo, Yuval Noah Harari fez uma importante ressalva ao afirmar que isso não é determinista: as sociedades podem tomar decisões para reverter isso.
A RESPONSABILIDADE DAS GRANDES CORPORAÇÕES
Levando em conta que a revolução da IA está em seus passos iniciais, Harari enfatizou a necessidade de fazer perguntas. “Tem um enorme potencial positivo. Se falo pouco sobre isso, é porque existem grandes corporações extremamente ricas e poderosas que já nos inundam com mensagens positivas e ignoram os perigos”, disse. Por isso, ele considera crucial gerar “um debate sobre a responsabilidade dos gigantes midiáticos” como Facebook, Twitter, Instagram ou TikTok. “As corporações devem ter responsabilidade pelo que seus algoritmos decidem, da mesma forma que o editor do New York Times é responsável pela capa”, apontou. Outro assunto importante, que está sendo debatido agora em países como a Espanha, é saber distinguir entre censura e os mecanismos das plataformas para evitar a propagação de mentiras e boatos. O filósofo comentou que “é importante que as pessoas saibam ver a diferença entre editores humanos e algoritmos corporativos. As pessoas têm o direito à estupidez, de contar mentiras, salvo em casos extremos que a lei define, isso faz parte da liberdade de expressão”, disse. “O problema não são os humanos, mas os algoritmos das corporações cujo modelo de negócios se baseia no engajamento, o que significa que sua prioridade é fazer com que as pessoas passem o maior tempo possível em suas plataformas, para vender anúncios e reunir dados que possam ser vendidos a terceiros. É preciso ter muito cuidado ao censurar os usuários humanos”, concluiu.
O FIM DO MUNDO QUE CONHECEMOS
Embora o livro faça um percurso desde a antiguidade até os dias de hoje, grande parte da apresentação esteve centrada na IA e em sua irrupção em nossas sociedades. Yuval Noah Harari explicou qual é a característica da Inteligência Artificial que a torna diferente de qualquer outra tecnologia que conhecemos: “A inteligência artificial é distinta porque não é uma ferramenta, é um agente, um agente independente. As armas atômicas têm grande poder, mas esse poder está nas mãos de seres humanos. A bomba em si não pode desenvolver nenhuma estratégia militar. A inteligência artificial é diferente; ela pode tomar decisões por si mesma.” Harari deu o exemplo do que está ocorrendo nos meios de comunicação e redes sociais com a chegada da IA: “Em um jornal, as decisões mais importantes são tomadas pelo editor, ele decide o que vai na primeira página, qual será a capa. Agora, em algumas das plataformas mais importantes do mundo, como Facebook e Twitter, o papel do editor foi substituído pela IA. São os algoritmos que decidem qual história será recomendada e qual estará no topo do feed de notícias. E, além disso, a IA também pode criar novas ideias por si mesma. Está fora de nosso controle. Isso é o que a torna distinta de qualquer revolução anterior.”
“A IA atual é uma ameba, mas terá um desenvolvimento milhões de vezes mais rápido do que o que precisávamos nós” Um dos temores mais comuns entre os jornalistas presentes na conferência de imprensa era a capacidade da IA de construir relatos como os humanos. Harari comentou sobre esse tema: “Os desenvolvimentos mais recentes da IA mostram sua capacidade de criar histórias. Antes havia IA para vigiar e destacar o que chamava a atenção, mas não escrevia, nem fazia música, nem gerava imagens. Agora ela pode fazer isso. Sei que há pessoas que dizem que esses textos não são muito bons, partituras sem qualidade, vídeos e imagens com falhas, mãos com seis dedos, mas precisamos entender que estamos nos primeiros passos de uma tecnologia que tem apenas dez anos. Não vimos nada ainda. Se fizermos um paralelo com a evolução biológica, a IA atual é uma ameba, mas terá um desenvolvimento milhões de vezes mais rápido do que o que precisávamos nós. A IA vai passar de ameba para dinossauro em apenas dez ou vinte anos. Os textos do ChatGPT têm erros, mas são parágrafos, textos, ensaios que fazem sentido. Isso é algo com o qual muitos humanos têm dificuldades. Sou professor universitário e muitos alunos têm dificuldade em elaborar um ensaio coerente conectando vários argumentos. A IA já faz isso. Os artefatos culturais dos próximos anos serão de uma inteligência alienígena. Que reação isso provocará na sociedade humana? Ninguém sabe, e essa é a grande pergunta.”
UM FIO DE ESPERANÇA
A parte final da apresentação de Yuval Noah Harari foi marcada pela pergunta sobre a possibilidade de haver algo de luz para essa situação. A IA pode oferecer algo positivo para a humanidade? Sua resposta foi clara: “Sem dúvida. A IA tem um enorme potencial. E também não acho que todas as pessoas de Silicon Valley sejam más. A IA pode nos proporcionar, nos próximos anos, a melhor atenção à saúde. Há uma falta de médicos em todo o mundo, e a IA pode oferecer uma solução: monitorar-nos 24 horas por dia, controlar nossa pressão arterial, ter todas as nossas informações biológicas… E tudo isso será muito mais barato e será para todos, até para as pessoas mais pobres e as que vivem em áreas remotas”. Depois, deu outro exemplo sobre as aplicações benéficas da IA: “A cada ano, há mais de um milhão de mortes em acidentes de trânsito, a maioria causadas por falhas humanas, muitos por pessoas que bebem álcool enquanto dirigem. Se der à IA o controle do tráfego com veículos autônomos, ela pode salvar um milhão de vidas: a IA não vai dormir ao volante nem vai beber álcool”. O pensador israelense reconheceu nesse momento do discurso que não fala muito sobre os aspectos positivos da IA, embora tenha expressado que há seções de Nexus em que sim expõe esse potencial benéfico, mas, segundo ele, há um motivo para se concentrar quase exclusivamente nos perigos: “Há empresas muito ricas que inundam os meios e as plataformas com mensagens muito positivas sobre o que a IA fará e que tendem a ignorar os perigos. O trabalho dos filósofos, acadêmicos e pensadores é se concentrar na parte sombria, embora isso não signifique que só haja perigos. Não precisamos parar essa evolução, o que estamos dizendo é que precisamos investir mais em segurança. Trata-se de aplicar o bom senso, assim como se faz em qualquer outra indústria. O problema das pessoas do setor de IA é que estão presas a uma mentalidade de corrida armamentista: não querem que ninguém os vença na busca por avanços. E isso é muito perigoso”.
“Agora a filosofia pode começar a debater questões muito práticas”
E chegados a este ponto, o que pode nos salvar? Yuval Noah Harari tem uma resposta clara: “A filosofia”. “Durante milhares de anos, os filósofos debateram questões teóricas com pouco impacto na sociedade. Pouca gente age conforme uma filosofia teórica, funcionamos mais com as emoções do que com as ideias intelectuais. Agora, a filosofia pode começar a debater questões muito práticas. Dou um exemplo: o que o algoritmo deve fazer no caso de um veículo autônomo estar prestes a atropelar duas crianças, e a única maneira de evitar esse acidente é sacrificar o proprietário do carro que está dormindo no banco de trás? Esta é uma questão prática e é preciso dizer à IA o que fazer. E essa questão não é apenas para engenheiros e matemáticos, também é para os filósofos. Tudo isso se conecta com conceitos importantes do ser humano, como o livre-arbítrio, o significado da vida e a necessidade de dar reconhecimento às diferentes formas de IA como vidas com direitos e uma categoria ética em nossas sociedades.”
Desde que saímos da sala de cinema, depois de retirar a fita de VHS do videocassete, ao desligar a televisão com o botão do controle remoto, muitos sentimos a mesma sensação: todos queríamos viver o que o replicante Roy Batty viveu. Talvez tenha chegado o momento esperado de ver naves de ataque em chamas além do ombro de Órion, raios-C brilhando na escuridão perto da Porta de Tannhäuser. A IA já está em nossas vidas, é um processo irreversível, e se, como alerta Yuval Noah Harari, não fizermos nada para regulá-la, para controlá-la sob o guarda-chuva da filosofia, seremos nós quem nos perderemos no tempo, os seres humanos nos tornaremos aquelas lágrimas na chuva.
Entrevista e elaboração de Miguel Ángel Santamarina, do El Bar de Zenda
Yuval Noah Harari é historiador, filósofo e autor de “Sapiens”, “Homo Deus” e da série infantil “Unstoppable Us”. É professor no departamento de história da Universidade Hebraica de Jerusalém e cofundador da Sapienship, uma empresa de impacto social.
As máquinas que contam histórias mudarão o curso da história humana, diz o historiador e filósofo
Os ouvidos da INTELIGÊNCIA ARTIFICIAL (IA) perseguiram a humanidade desde o início da era informática. Até agora, esses temores se concentravam nas máquinas que usam meios físicos para matar, escravizar ou substituir as pessoas. Mas, nos últimos anos, surgiram novas ferramentas de IA que ameaçam a sobrevivência da civilização humana a partir de uma direção inesperada. A IA adquiriu habilidades notáveis para manipular e gerar linguagem, seja com palavras, sons ou imagens. Assim, a IA hackeou o sistema operacional da nossa civilização. A linguagem é o material com o qual toda a cultura humana é feita. Os direitos humanos, por exemplo, não estão inscritos em nosso DNA. São, na verdade, artefatos culturais que criamos ao contar histórias e escrever leis. Os deuses não são realidades físicas. São, na realidade, artefatos culturais que criamos ao inventar mitos e escrever escrituras. O dinheiro também é um artefato cultural. As cédulas são apenas pedaços de papel colorido e, hoje em dia, mais de 90% do dinheiro nem são cédulas, mas apenas informação digital armazenada em computadores. O que dá valor ao dinheiro são as histórias que nos são contadas sobre ele pelos banqueiros, ministros da fazenda e gurus das criptomoedas. Sam Bankman-Fried, Elizabeth Holmes e Bernie Madoff não eram tão bons em criar valor real, mas todos eram contadores de histórias extremamente habilidosos. O que aconteceria uma vez que uma inteligência não humana se tornasse melhor que o ser humano médio ao contar histórias, compor melodias, desenhar imagens e escrever leis e escrituras? Quando as pessoas pensam em ChatGPT e outras novas ferramentas de IA, muitas vezes se atraem por exemplos como as crianças em idade escolar usando IA para escrever seus ensaios. O que acontecerá com o sistema escolar quando as crianças fizerem isso? Mas esse tipo de pergunta ignora o quadro geral. Esqueça os ensaios escolares. Pense na próxima corrida presidencial dos Estados Unidos, em 2024, e tente imaginar o impacto das ferramentas de IA que podem ser usadas para produzir em massa conteúdo político, notícias falsas e escrituras para novos cultos. Nos últimos anos, o culto Q Anon se agrupou em torno de mensagens anônimas online, conhecidas como “Q drops”. Os seguidores reuniam, reverenciavam e interpretavam esses Q drops como um texto sagrado. Embora, até onde sabemos, todos os Q drops anteriores tenham sido compostos por humanos e os bots apenas ajudassem na disseminação, no futuro poderíamos ver os primeiros cultos da história cujos textos reverenciados foram escritos por uma inteligência não humana. Ao longo da história, as religiões reivindicaram uma fonte não humana para seus livros sagrados. Isso pode, em breve, se tornar realidade. Em um nível mais prosaico, em breve poderemos encontrar-nos mantendo longos debates online sobre aborto, mudanças climáticas ou a invasão russa da Ucrânia com entidades que acreditamos serem humanas, mas que na realidade são IA. O problema é que não faz sentido perdermos tempo tentando mudar as opiniões declaradas de um robô de IA, enquanto a IA poderia aprimorar seus argumentos com tal precisão que teria muitas chances de nos influenciar. Graças ao seu domínio da linguagem, a IA poderia até estabelecer relações íntimas com as pessoas e usar o poder da intimidade para mudar nossas opiniões e visões do mundo. Embora não haja indícios de que a IA tenha consciência ou sentimentos próprios, para criar uma falsa intimidade com os humanos, basta que a IA consiga fazer com que se sintam emocionalmente ligados a ela. Em junho de 2022, Blake Lemoine, um engenheiro do Google, afirmou publicamente que o chatbot de IA La MDA, no qual estava trabalhando, havia se tornado consciente. A afirmação controversa lhe custou o emprego. O mais interessante neste episódio não foi a afirmação de Lemoine, que provavelmente era falsa, mas sua disposição em arriscar seu lucrativo emprego pelo bem do chatbot de IA. Se a IA for capaz de influenciar as pessoas a arriscar seus postos de trabalho por ela, o que mais ela poderia induzi-las a fazer? Em uma batalha política pelos corações e mentes, a intimidade é a arma mais eficaz, e a IA acaba de adquirir a capacidade de produzir em massa relações íntimas com milhões de pessoas. Todos sabemos que, na última década, as redes sociais se tornaram um campo de batalha para controlar a atenção humana. Com a nova geração de IA, o campo de batalha está passando de atenção para intimidade. O que acontecerá com a sociedade e a psicologia humana quando a IA lutar contra a IA em uma batalha para simular relações íntimas conosco, que depois possam ser usadas para nos convencer a votar em determinados políticos ou comprar determinados produtos? durante 12 segundos
Os computadores que contam histórias mudarão o curso da história humana, diz o historiador e filósofo
Os ouvidos da INTELIGÊNCIA ARTIFICIAL (IA) têm perseguido a humanidade desde o início da era informática. Até agora, esses temores se concentravam nas máquinas que utilizam meios físicos para matar, escravizar ou substituir as pessoas. Mas, nos últimos anos, surgiram novas ferramentas de IA que ameaçam a sobrevivência da civilização humana a partir de uma direção inesperada. A IA adquiriu habilidades notáveis para manipular e gerar linguagem, seja com palavras, sons ou imagens. Dessa forma, a IA pirateou o sistema operacional da nossa civilização.
A linguagem é o material do qual é feita quase toda a cultura humana. Os direitos humanos, por exemplo, não estão inscritos em nosso DNA. São, antes, artefatos culturais que criamos ao contar histórias e escrever leis. Os deuses não são realidades físicas. São, antes, artefatos culturais que criamos ao inventar mitos e escrever escrituras.
O dinheiro também é um artefato cultural. As cédulas são apenas pedaços de papel coloridos e, atualmente, mais de 90% do dinheiro nem sequer são cédulas, mas apenas informação digital contida em computadores. O que confere valor ao dinheiro são as histórias que nos contam sobre ele os banqueiros, os ministros das finanças e os gurus das criptomoedas. Sam Bankman-Fried, Elizabeth Holmes e Bernie Madoff não eram especialmente bons em criar valor real, mas todos eram narradores de histórias extremamente capazes.
O que aconteceria uma vez que uma inteligência não humana se tornasse melhor do que o ser humano médio em contar histórias, compor melodias, desenhar imagens e escrever leis e escrituras? Quando as pessoas pensam no ChatGPT e em outras novas ferramentas de IA, frequentemente se sentem atraídas por exemplos como crianças em idade escolar que usam IA para escrever seus ensaios. O que acontecerá com o sistema escolar quando as crianças fizerem isso? Mas esse tipo de pergunta ignora o panorama geral. Esqueçam os ensaios escolares. Pensem na próxima corrida presidencial dos Estados Unidos em 2024 e tentem imaginar o impacto das ferramentas de IA que podem ser utilizadas para produzir em massa conteúdo político, notícias falsas e escrituras para novos cultos.
Nos últimos anos, o culto QAnon se agrupou em torno de mensagens anônimas online, conhecidas como “Q drops”. Os seguidores reuniam, reverenciavam e interpretavam esses Q drops como um texto sagrado. Embora, até onde sabemos, todos os Q drops anteriores tenham sido compostos por humanos e os bots simplesmente ajudassem a difundi-los, no futuro poderemos ver os primeiros cultos da história cujos textos reverenciados foram escritos por uma inteligência não humana. Ao longo da história, as religiões reivindicaram uma fonte não humana para seus livros sagrados. Em breve, isso poderá se tornar realidade.
Em um nível mais prosaico, em breve poderemos nos ver mantendo longas discussões online sobre o aborto, a mudança climática ou a invasão russa da Ucrânia com entidades que acreditamos serem humanos, mas que na verdade são IA. O problema é que não faz sentido perdermos tempo tentando mudar as opiniões declaradas de um robô de IA, enquanto a IA pode aperfeiçoar suas mensagens com tanta precisão que terá muitas chances de nos influenciar.
Graças ao seu domínio da linguagem, a IA poderia até estabelecer relações íntimas com as pessoas e usar o poder da intimidade para mudar nossas opiniões e visões de mundo. Embora não haja indícios de que a IA possua consciência ou sentimentos próprios, para fomentar uma falsa intimidade com os humanos basta que ela consiga fazer com que se sintam emocionalmente apegados a ela. Em junho de 2022, Blake Lemoine, um engenheiro do Google, afirmou publicamente que o chatbot de IA LaMDA, no qual estava trabalhando, havia se tornado consciente. A polêmica afirmação lhe custou o emprego. O mais interessante desse episódio não foi a afirmação de Lemoine, que provavelmente era falsa, mas sua disposição de arriscar seu lucrativo emprego pelo bem do chatbot de IA. Se a IA pode influenciar as pessoas para que arrisquem seus empregos por ela, o que mais poderia induzi-las a fazer?
Em uma batalha política pelas mentes e corações, a intimidade é a arma mais eficaz, e a IA acaba de adquirir a capacidade de produzir em massa relações íntimas com milhões de pessoas. Todos sabemos que, na última década, as redes sociais se tornaram um campo de batalha para controlar a atenção humana. Com a nova geração de IA, a linha de frente está passando da atenção para a intimidade. O que acontecerá com a sociedade e a psicologia humanas quando a IA lutar contra a IA em uma batalha para simular relações íntimas conosco, que depois poderão ser usadas para nos convencer a votar em determinados políticos ou comprar determinados produtos?
Mesmo sem criar uma “falsa intimidade”, as novas ferramentas de IA teriam uma influência imensa sobre nossas opiniões e visões de mundo. As pessoas poderiam acabar utilizando um único consultor de IA como um oráculo onisciente. Não é de surpreender que o Google esteja aterrorizado. Para que se dar ao trabalho de buscar, quando posso simplesmente perguntar ao oráculo? As indústrias de notícias e publicidade também deveriam estar aterrorizadas. Para que ler um jornal, quando posso simplesmente pedir ao oráculo que me diga as últimas notícias? E que propósito têm os anúncios, quando posso simplesmente pedir ao oráculo que me diga o que comprar?
E nem mesmo esses cenários refletem realmente o panorama geral. Do que estamos falando é do possível fim da história humana. Não do fim da história, mas apenas do fim da parte dominada pelos humanos. A história é a interação entre a biologia e a cultura; entre nossas necessidades e desejos biológicos de coisas como a comida e o sexo, e nossas criações culturais, como as religiões e as leis. A história é o processo pelo qual as leis e as religiões moldam a comida e o sexo.
O que acontecerá com o curso da história quando a IA tomar conta da cultura e começar a produzir histórias, melodias, leis e religiões? As ferramentas anteriores, como a imprensa e o rádio, ajudaram a disseminar as ideias culturais dos humanos, mas nunca criaram novas ideias culturais próprias. A IA é fundamentalmente diferente. A IA pode criar ideias completamente novas, uma cultura completamente nova.
No início, a IA provavelmente irá imitar os protótipos humanos com os quais foi treinada em seus primórdios, mas a cada ano que passa, a cultura da IA se atreverá a ir aonde nenhum ser humano jamais foi. Durante milênios, os seres humanos viveram dentro dos sonhos de outros seres humanos. Nas próximas décadas, poderíamos nos encontrar vivendo dentro dos sonhos de uma inteligência extraterrestre.
O medo da IA tem perseguido a humanidade durante as últimas décadas, mas por milhares de anos os humanos foram assombrados por um medo muito mais profundo. Sempre apreciamos o poder das histórias e das imagens para manipular nossas mentes e criar ilusões. Em consequência, desde a antiguidade os humanos temeram ficar presos em um mundo de ilusões.
No século XVII, René Descartes temia que talvez um demônio maligno o estivesse aprisionando dentro de um mundo de ilusões, criando tudo o que ele via e ouvia. Na Grécia Antiga, Platão contava a famosa Alegoria da Caverna, na qual um grupo de pessoas está acorrentado dentro de uma caverna por toda a vida, diante de uma parede em branco. Uma tela. Nessa tela, veem-se projetadas várias sombras. Os prisioneiros confundem as ilusões que veem ali com a realidade.
Na antiga Índia, os sábios budistas e hindus apontaram que todos os seres humanos viviam presos em Maya, o mundo das ilusões. O que normalmente consideramos realidade muitas vezes não passa de ficções em nossa própria mente. As pessoas podem travar guerras inteiras, matar outras e estar dispostas a serem mortas, devido à crença em uma ou outra ilusão.
A revolução da inteligência artificial está nos colocando frente a frente com o demônio de Descartes, com a caverna de Platão, com os mayas. Se não tomarmos cuidado, podemos ficar presos atrás de uma cortina de ilusões que não conseguimos arrancar, ou da qual nem sequer percebemos que está lá.
Claro, o novo poder da IA também poderia ser utilizado para fins benéficos. Não me estenderei neste tema, pois aqueles que desenvolvem a IA falam sobre isso o suficiente. O trabalho de historiadores e filósofos como eu é apontar os perigos. Mas, sem dúvida, a IA pode nos ajudar de inúmeras maneiras, desde encontrar novas curas para o câncer até descobrir soluções para a crise ecológica. A questão que se coloca diante de nós é como garantir que as novas ferramentas da IA sejam utilizadas para o bem e não para o mal. Para isso, primeiro precisamos apreciar as verdadeiras capacidades dessas ferramentas.
Desde 1945, sabemos que a tecnologia nuclear pode gerar energia barata para o benefício dos seres humanos, mas também pode destruir fisicamente a civilização humana. Por isso, reestruturamos toda a ordem internacional para proteger a humanidade e garantir que a tecnologia nuclear seja utilizada principalmente para o bem. Agora precisamos enfrentar uma nova arma de destruição em massa que pode aniquilar nosso mundo mental e social.
Ainda podemos regular as novas ferramentas de IA, mas devemos agir com rapidez. Enquanto as armas nucleares não podem inventar armas nucleares mais potentes, a IA pode criar IA exponencialmente mais potente. O primeiro passo crucial é exigir controles de segurança rigorosos antes que sejam lançadas ferramentas de IA poderosas no domínio público. Assim como uma empresa farmacêutica não pode lançar novos medicamentos antes de testar seus efeitos colaterais a curto e longo prazo, as empresas de tecnologia não deveriam lançar novas ferramentas de IA antes de comprovar que são seguras. Precisamos de um equivalente à Administração de Alimentos e Medicamentos para as novas tecnologias, e precisamos disso já.
Não fará com que a desaceleração da implementação pública da IA faça com que as democracias fiquem atrasadas em relação a regimes autoritários mais impiedosos? Muito pelo contrário. A implementação descontrolada da IA criaria um caos social que beneficiaria os autocratas e arruinaria as democracias. A democracia é uma conversa, e as conversas dependem da linguagem. Quando a IA invadir a linguagem, poderia destruir nossa capacidade de manter conversas significativas, destruindo assim a democracia.
Acabamos de encontrar uma inteligência extraterrestre aqui na Terra. Não sabemos muito sobre ela, exceto que ela poderia destruir nossa civilização. Devemos pôr fim ao desdobramento irresponsável das ferramentas de IA na esfera pública e regular a IA antes que ela nos regule. E a primeira regulamentação que eu sugeriria é tornar obrigatório que a IA revele que é uma IA. Se estou mantendo uma conversa com alguém e não consigo distinguir se é um humano ou uma IA, esse é o fim da democracia.
Este texto foi gerado por um humano.
Fontes
Yuval Noah Harari é historiador, filósofo e autor de “Sapiens”, “Homo Deus” e da série infantil “Unstoppable Us”. É professor no departamento de história da Universidade Hebrea de Jerusalém e cofundador da Sapienship, uma empresa de impacto social.
Inteligência artificial – THE ECONOMIST. Original em inglês.