Yuval Noah Harari: “Deckard é um replicante?”
Esse é o grande debate em torno de Blade Runner. O protagonista do filme, inspirado no romance de Philip K. Dick Sonham os Androides com Ovelhas Elétricas? (1968), mantém o mistério sobre sua figura, um debate que nos aproxima de uma pergunta importante tantas décadas depois: O que nos torna humanos? Segundo afirma Omar Hatamleh, diretor de Inteligência Artificial do Goddard Space Flight Center da NASA, dentro de 50 anos será quase impossível distinguir um robô humanoide de uma pessoa. O teste Voight-Kampff, para distinguir entre humano e replicante, já não servirá mais para nada a Harrison Ford. A ameaça da IA é tão grande que, em março de 2023, Yuval Noah Harari, junto com Elon Musk e o cofundador da Apple, Steve Wozniak, assinaram um manifesto para parar por seis meses a “corrida descontrolada” do ChatGPT. Passado um ano e meio, não apenas não se parou, mas a IA pisou no acelerador até o fundo. Estamos a tempo de fazer algo para impedir que a IA nos destrua ou é uma batalha perdida? Quem pode matar o algoritmo? Em seu novo livro, Nexus (Debate), o filósofo Yuval Noah Harari — autor de Sapiens, uma obra que vendeu 25 milhões de cópias desde sua publicação em 2013 — relata como diferentes sociedades e sistemas políticos usaram a informação para alcançar seus objetivos e impor a ordem, para o bem e para o mal. Harari concentra sua obra no momento crucial que enfrentamos hoje, quando a inteligência não humana ameaça nossa própria existência.
TODOS FALAM, NINGUÉM ESCUTA: TOTALITARISMO, MENTIRAS E TEORIAS CONSPIRATIVAS
Em Nexus, Yuval Noah Harari analisa o papel das redes de informação desde a Idade da Pedra até o surgimento da IA. No início de sua intervenção, o historiador apontou a contradição em que vive nossa sociedade: “Temos a tecnologia da informação mais importante da história, mas as pessoas parecem incapazes de conversar.” A esse respeito, o autor de Homo Deus: Breve História do Amanhã usou o exemplo do que ocorre nos Estados Unidos, a impossibilidade de democratas e republicanos concordarem sobre qualquer coisa. Esse confronto entre ideologias fica evidente nas redes sociais, e sobre essa questão Harari comentou o seguinte: “A maneira mais fácil de capturar a atenção é apertar o botão do ódio ou o botão do medo e expandir deliberadamente as teorias conspiratórias.” Ele também comentou que “os grandes gigantes tecnológicos nos prometeram que nos conectariam a todos e que iriam espalhar a verdade. Temos uma tecnologia muito sofisticada para nos comunicarmos, mas não estamos dialogando”. Para Harari, a diferença essencial entre democracia e um regime totalitário é “a conversa”, que atualmente está em grave perigo devido à crise do jornalismo e à propagação de “mentiras e teorias conspiratórias” nessas redes sociais.
“Escrever uma mentira, uma informação falsa, é simples, você não precisa investir nada. A ficção é barata e a verdade normalmente é complicada”
Em relação ao exposto, Harari falou sobre o erro de identificar informação com verdade: “A informação não é conhecimento. A visão ingênua que domina lugares como o Silicon Valley sustenta que, quanto mais informação, mais as pessoas sabem. Mas a maior parte da informação no mundo é lixo. Não é verdade. A informação verdadeira é escassa porque escrever um relatório autêntico requer tempo, dinheiro e esforço. Escrever uma mentira, uma informação falsa, é simples, você não precisa investir nada. A ficção é barata e a verdade normalmente é complicada. A maior parte das pessoas prefere histórias simples. Se quisermos que a verdade prevaleça, precisamos investir nela. Precisamos de jornais e de sociedades e instituições acadêmicas. Essa é a grande responsabilidade das sociedades atuais: resistir a essa visão ingênua, de pessoas como Elon Musk, de que se houver mais informação, as pessoas terão mais chances de conhecer a verdade.”
O historiador israelense alertou durante a conferência de imprensa sobre o “potencial totalitário” da inteligência artificial e deu vários exemplos, como o de seu país, Israel, “que está construindo um regime de vigilância total” nos territórios ocupados. Segundo o autor, a “imensidão da capacidade” da IA para coletar e analisar informações permitirá “o regime de vigilância completa que anulando a privacidade”, algo que Hitler e Stalin não conseguiram, mas que países como o Irã estão começando a aplicar, com câmeras de reconhecimento facial que monitoram e punem a ausência do véu nas mulheres quando estão em um veículo. Esses dispositivos de videovigilância localizam as mulheres que dirigem sem o véu, as identificam, informando seu nome, telefone, e imediatamente elas recebem um SMS notificando a infração e a punição: devem abandonar o carro, que foi confiscado naquele momento. Isso não é uma ficção científica. Está acontecendo agora. Embora tenha destacado os perigos que envolvem IA e totalitarismo, Yuval Noah Harari fez uma importante ressalva ao afirmar que isso não é determinista: as sociedades podem tomar decisões para reverter isso.
A RESPONSABILIDADE DAS GRANDES CORPORAÇÕES
Levando em conta que a revolução da IA está em seus passos iniciais, Harari enfatizou a necessidade de fazer perguntas. “Tem um enorme potencial positivo. Se falo pouco sobre isso, é porque existem grandes corporações extremamente ricas e poderosas que já nos inundam com mensagens positivas e ignoram os perigos”, disse. Por isso, ele considera crucial gerar “um debate sobre a responsabilidade dos gigantes midiáticos” como Facebook, Twitter, Instagram ou TikTok. “As corporações devem ter responsabilidade pelo que seus algoritmos decidem, da mesma forma que o editor do New York Times é responsável pela capa”, apontou. Outro assunto importante, que está sendo debatido agora em países como a Espanha, é saber distinguir entre censura e os mecanismos das plataformas para evitar a propagação de mentiras e boatos. O filósofo comentou que “é importante que as pessoas saibam ver a diferença entre editores humanos e algoritmos corporativos. As pessoas têm o direito à estupidez, de contar mentiras, salvo em casos extremos que a lei define, isso faz parte da liberdade de expressão”, disse. “O problema não são os humanos, mas os algoritmos das corporações cujo modelo de negócios se baseia no engajamento, o que significa que sua prioridade é fazer com que as pessoas passem o maior tempo possível em suas plataformas, para vender anúncios e reunir dados que possam ser vendidos a terceiros. É preciso ter muito cuidado ao censurar os usuários humanos”, concluiu.
O FIM DO MUNDO QUE CONHECEMOS
Embora o livro faça um percurso desde a antiguidade até os dias de hoje, grande parte da apresentação esteve centrada na IA e em sua irrupção em nossas sociedades. Yuval Noah Harari explicou qual é a característica da Inteligência Artificial que a torna diferente de qualquer outra tecnologia que conhecemos: “A inteligência artificial é distinta porque não é uma ferramenta, é um agente, um agente independente. As armas atômicas têm grande poder, mas esse poder está nas mãos de seres humanos. A bomba em si não pode desenvolver nenhuma estratégia militar. A inteligência artificial é diferente; ela pode tomar decisões por si mesma.” Harari deu o exemplo do que está ocorrendo nos meios de comunicação e redes sociais com a chegada da IA: “Em um jornal, as decisões mais importantes são tomadas pelo editor, ele decide o que vai na primeira página, qual será a capa. Agora, em algumas das plataformas mais importantes do mundo, como Facebook e Twitter, o papel do editor foi substituído pela IA. São os algoritmos que decidem qual história será recomendada e qual estará no topo do feed de notícias. E, além disso, a IA também pode criar novas ideias por si mesma. Está fora de nosso controle. Isso é o que a torna distinta de qualquer revolução anterior.”
“A IA atual é uma ameba, mas terá um desenvolvimento milhões de vezes mais rápido do que o que precisávamos nós” Um dos temores mais comuns entre os jornalistas presentes na conferência de imprensa era a capacidade da IA de construir relatos como os humanos. Harari comentou sobre esse tema: “Os desenvolvimentos mais recentes da IA mostram sua capacidade de criar histórias. Antes havia IA para vigiar e destacar o que chamava a atenção, mas não escrevia, nem fazia música, nem gerava imagens. Agora ela pode fazer isso. Sei que há pessoas que dizem que esses textos não são muito bons, partituras sem qualidade, vídeos e imagens com falhas, mãos com seis dedos, mas precisamos entender que estamos nos primeiros passos de uma tecnologia que tem apenas dez anos. Não vimos nada ainda. Se fizermos um paralelo com a evolução biológica, a IA atual é uma ameba, mas terá um desenvolvimento milhões de vezes mais rápido do que o que precisávamos nós. A IA vai passar de ameba para dinossauro em apenas dez ou vinte anos. Os textos do ChatGPT têm erros, mas são parágrafos, textos, ensaios que fazem sentido. Isso é algo com o qual muitos humanos têm dificuldades. Sou professor universitário e muitos alunos têm dificuldade em elaborar um ensaio coerente conectando vários argumentos. A IA já faz isso. Os artefatos culturais dos próximos anos serão de uma inteligência alienígena. Que reação isso provocará na sociedade humana? Ninguém sabe, e essa é a grande pergunta.”
UM FIO DE ESPERANÇA
A parte final da apresentação de Yuval Noah Harari foi marcada pela pergunta sobre a possibilidade de haver algo de luz para essa situação. A IA pode oferecer algo positivo para a humanidade? Sua resposta foi clara: “Sem dúvida. A IA tem um enorme potencial. E também não acho que todas as pessoas de Silicon Valley sejam más. A IA pode nos proporcionar, nos próximos anos, a melhor atenção à saúde. Há uma falta de médicos em todo o mundo, e a IA pode oferecer uma solução: monitorar-nos 24 horas por dia, controlar nossa pressão arterial, ter todas as nossas informações biológicas… E tudo isso será muito mais barato e será para todos, até para as pessoas mais pobres e as que vivem em áreas remotas”. Depois, deu outro exemplo sobre as aplicações benéficas da IA: “A cada ano, há mais de um milhão de mortes em acidentes de trânsito, a maioria causadas por falhas humanas, muitos por pessoas que bebem álcool enquanto dirigem. Se der à IA o controle do tráfego com veículos autônomos, ela pode salvar um milhão de vidas: a IA não vai dormir ao volante nem vai beber álcool”. O pensador israelense reconheceu nesse momento do discurso que não fala muito sobre os aspectos positivos da IA, embora tenha expressado que há seções de Nexus em que sim expõe esse potencial benéfico, mas, segundo ele, há um motivo para se concentrar quase exclusivamente nos perigos: “Há empresas muito ricas que inundam os meios e as plataformas com mensagens muito positivas sobre o que a IA fará e que tendem a ignorar os perigos. O trabalho dos filósofos, acadêmicos e pensadores é se concentrar na parte sombria, embora isso não signifique que só haja perigos. Não precisamos parar essa evolução, o que estamos dizendo é que precisamos investir mais em segurança. Trata-se de aplicar o bom senso, assim como se faz em qualquer outra indústria. O problema das pessoas do setor de IA é que estão presas a uma mentalidade de corrida armamentista: não querem que ninguém os vença na busca por avanços. E isso é muito perigoso”.
“Agora a filosofia pode começar a debater questões muito práticas”
E chegados a este ponto, o que pode nos salvar? Yuval Noah Harari tem uma resposta clara: “A filosofia”. “Durante milhares de anos, os filósofos debateram questões teóricas com pouco impacto na sociedade. Pouca gente age conforme uma filosofia teórica, funcionamos mais com as emoções do que com as ideias intelectuais. Agora, a filosofia pode começar a debater questões muito práticas. Dou um exemplo: o que o algoritmo deve fazer no caso de um veículo autônomo estar prestes a atropelar duas crianças, e a única maneira de evitar esse acidente é sacrificar o proprietário do carro que está dormindo no banco de trás? Esta é uma questão prática e é preciso dizer à IA o que fazer. E essa questão não é apenas para engenheiros e matemáticos, também é para os filósofos. Tudo isso se conecta com conceitos importantes do ser humano, como o livre-arbítrio, o significado da vida e a necessidade de dar reconhecimento às diferentes formas de IA como vidas com direitos e uma categoria ética em nossas sociedades.”
Desde que saímos da sala de cinema, depois de retirar a fita de VHS do videocassete, ao desligar a televisão com o botão do controle remoto, muitos sentimos a mesma sensação: todos queríamos viver o que o replicante Roy Batty viveu. Talvez tenha chegado o momento esperado de ver naves de ataque em chamas além do ombro de Órion, raios-C brilhando na escuridão perto da Porta de Tannhäuser. A IA já está em nossas vidas, é um processo irreversível, e se, como alerta Yuval Noah Harari, não fizermos nada para regulá-la, para controlá-la sob o guarda-chuva da filosofia, seremos nós quem nos perderemos no tempo, os seres humanos nos tornaremos aquelas lágrimas na chuva.
Entrevista e elaboração de Miguel Ángel Santamarina, do El Bar de Zenda
Yuval Noah Harari é historiador, filósofo e autor de “Sapiens”, “Homo Deus” e da série infantil “Unstoppable Us”. É professor no departamento de história da Universidade Hebraica de Jerusalém e cofundador da Sapienship, uma empresa de impacto social.
0 Comments