A Importância Científica e Exploratória de Estabelecer Colônias Humanas em Marte

A Importância Científica e Exploratória de Estabelecer Colônias Humanas em Marte

A exploração espacial tem sido uma empreitada que cativa a imaginação humana há décadas. Nesse contexto, Marte, o planeta vizinho mais próximo da Terra, tornou-se um objetivo ambicioso para o estabelecimento de colônias humanas. O desejo de expandir nossa presença além do nosso planeta levou à consideração de Marte como um destino viável para a colonização. Este artigo aborda a importância científica e exploratória da criação de colônias humanas em Marte, destacando os principais impulsionadores dessa ousada iniciativa.

A Busca por Respostas Cósmicas

Marte, com sua história geológica e condições atmosféricas únicas, oferece aos cientistas uma oportunidade sem precedentes para desvendar os mistérios do sistema solar. A exploração robótica do planeta, realizada por sondas e rovers, revelou características que indicam a presença passada de água líquida em sua superfície. Essa evidência sugere que Marte pode ter abrigado condições adequadas para a vida em algum momento de sua história. O estabelecimento de colônias humanas permitiria um estudo aprofundado dessas descobertas e a busca por sinais de vida passada ou presente.

A Humanidade como Exploradora Interplanetária

Desde os primórdios da civilização, a exploração tem sido uma constante no espírito humano. Estabelecer colônias em Marte representaria um marco monumental na nossa capacidade de explorar e habitar outros mundos além da Terra. Essa missão não apenas expandiria os horizontes da humanidade, mas também forneceria um laboratório único para testar tecnologias avançadas de sobrevivência e sustentabilidade em um ambiente extraterrestre.

Rumo à Sobrevivência Interplanetária

A colonização de Marte não se trata apenas de exploração e descobertas científicas, mas também de garantir a sobrevivência da humanidade a longo prazo. Diante da possibilidade de desastres globais na Terra, a existência de colônias marcianas poderia servir como um seguro de vida para nossa espécie. A diversificação da população humana em múltiplos planetas reduziria significativamente o risco de extinção em caso de eventos catastróficos no nosso planeta de origem.

Os Principais Impulsionadores da Colonização de Marte

Várias organizações e figuras de destaque estão impulsionando ativamente a ideia de colonizar Marte. Um dos projetos mais ambiciosos é liderado pela SpaceX, fundada por Elon Musk. A empresa propôs o desenvolvimento do Sistema de Transporte Interplanetário (ITS), uma espaçonave de grande capacidade projetada para transportar pessoas a Marte e estabelecer uma colônia autossuficiente. A visão ousada de Musk é tornar Marte habitável para um milhão de pessoas no futuro.

A NASA também desempenha um papel crucial na exploração marciana, por meio do programa Artemis, que busca retornar à Lua como um passo para futuras missões tripuladas a Marte. Além disso, a agência já conduziu missões bem-sucedidas com rovers como Curiosity e Perseverance, coletando dados valiosos sobre a geologia e a atmosfera marciana.

Conclusão: Um Marco na História da Humanidade

Em suma, a importância científica e exploratória do estabelecimento de colônias humanas em Marte é inegável. O planeta representa uma oportunidade única para estudar a história geológica do sistema solar e investigar a possibilidade de vida extraterrestre. Além disso, a colonização de Marte está alinhada com o espírito humano de exploração e com a necessidade de garantir a sobrevivência interplanetária.

Os principais impulsionadores desse projeto, como SpaceX e NASA, estão pavimentando o caminho para um futuro no qual os seres humanos poderão transcender os limites da Terra e expandir sua presença no cosmos. O estabelecimento de colônias humanas em Marte seria, sem dúvida, um passo transcendental na evolução da humanidade como exploradora e colonizadora de novos mundos.

A Ética em um Mundo de Avanços Tecnológicos: Decisões Complicadas no Horizonte

A Ética em um Mundo de Avanços Tecnológicos: Decisões Complicadas no Horizonte

À medida que a humanidade continua avançando no âmbito da tecnologia, nos encontramos diante de um panorama cada vez mais complexo de dilemas éticos que acompanham esses avanços. Desde a biotecnologia até a privacidade digital e a engenharia genética, o progresso científico nos coloca em uma encruzilhada na qual as decisões éticas desempenham um papel crucial na formação do nosso futuro. Neste artigo, abordaremos com rigor científico e precisão os dilemas éticos que podem surgir em um mundo de avanços tecnológicos, analisando as implicações das decisões que enfrentamos.

Biotecnologia: Entre a Cura e a Modificação Genética:

A biotecnologia revolucionou a forma como tratamos doenças e melhoramos a qualidade de vida. No entanto, esse campo também apresenta questões éticas intrincadas. Por um lado, as terapias gênicas prometem curar doenças hereditárias e distúrbios genéticos, oferecendo esperança a quem sofre. Por outro lado, a modificação genética com fins de melhoria pode abrir a porta para a seleção de características específicas e a criação de “bebês de design”. Onde traçamos a linha entre a cura e as alterações genéticas?

Privacidade Digital: O Desafio da Coleta de Dados:

A era digital trouxe consigo uma proliferação de dados pessoais que são coletados e armazenados em quantidades massivas. À medida que a inteligência artificial e a análise de dados se tornam mais prevalentes, a privacidade digital se torna uma questão crítica. A coleta e o uso de dados pessoais levantam questões éticas sobre o consentimento, a transparência e o risco de abuso. Como equilibramos a inovação tecnológica com a proteção da privacidade individual?

Engenharia Genética: Potencial e Responsabilidade:

A engenharia genética oferece a possibilidade de alterar o DNA de plantas, animais e humanos a fim de alcançar resultados específicos. Embora isso possa ter aplicações benéficas, como melhorar culturas para combater a escassez de alimentos, também apresenta desafios éticos. A edição genética de embriões humanos levanta questões fundamentais sobre a modificação hereditária e as alterações na linha germinativa. Como garantimos que a engenharia genética seja utilizada de maneira responsável e em benefício da sociedade?

Inteligência Artificial: Viés e Autonomia:

A inteligência artificial (IA) avançou de maneira impressionante, mas também enfrenta dilemas éticos. Um dos problemas mais destacados é o viés nos algoritmos, que pode perpetuar desigualdades sociais e discriminação. Além disso, a IA levanta questões sobre a autonomia e a tomada de decisões. À medida que a IA se integra em áreas como a atenção médica e a condução autônoma, como garantimos que as decisões tomadas pelas máquinas sejam éticas e estejam alinhadas com os valores humanos?

O Papel da Ética no Futuro Tecnológico:

A ética desempenha um papel fundamental no futuro tecnológico da humanidade. À medida que avançamos, devemos considerar os princípios éticos que guiarão nossas ações e decisões. A formulação de códigos éticos e marcos regulatórios sólidos é essencial para garantir que o progresso tecnológico não minem os valores fundamentais da sociedade. A colaboração interdisciplinar entre cientistas, éticos e líderes governamentais é crucial para abordar de forma eficaz os dilemas éticos que surgem no horizonte tecnológico.

Conclusão: A Responsabilidade Ética em um Mundo em Evolução:

Em última análise, a interseção entre a tecnologia e a ética nos desafia a considerar como queremos que seja o nosso futuro. À medida que a biotecnologia, a privacidade digital, a engenharia genética e a inteligência artificial continuam transformando o nosso mundo, devemos abordar essas áreas com uma perspectiva científica e ética. A importância de tomar decisões informadas e éticas nunca foi tão evidente. À medida que enfrentamos decisões complicadas no horizonte tecnológico.

A Medicina do Futuro: Avanços em Terapias Genéticas e Longevidade

A Medicina do Futuro: Avanços em Terapias Genéticas e Longevidade

Exploramos como os avanços na medicina poderiam nos permitir viver por mais tempo e de maneira mais saudável através de terapias genéticas e tecnologias inovadoras.

A medicina moderna encontra-se em uma encruzilhada fascinante, onde a convergência da genética e da tecnologia está abrindo portas para um futuro de saúde e longevidade sem precedentes. À medida que a ciência médica avança, surge a possibilidade de transformar radicalmente a experiência humana por meio de terapias genéticas e tecnologias inovadoras. Neste artigo, exploraremos os avanços em terapias genéticas e seu potencial para prolongar e melhorar a qualidade de vida, adentrando no emocionante horizonte da medicina do futuro.

A Revolução da Terapia Gênica:

A terapia gênica, que envolve a modificação direta do material genético de um indivíduo para tratar doenças genéticas e adquiridas, evoluiu de uma teoria promissora para uma realidade científica. Por meio de técnicas como o CRISPR-Cas9, é possível editar com precisão genes defeituosos, corrigindo distúrbios genéticos em sua fonte. Essa revolução genética abriu a porta para um tratamento mais direto e personalizado para doenças que anteriormente não tinham solução.

A Luta Contra o Envelhecimento:

Um dos objetivos mais ambiciosos da medicina do futuro é enfrentar o envelhecimento. À medida que compreendemos melhor os processos moleculares e celulares que estão na base do envelhecimento, surgem novas possibilidades para intervir e retardar esse processo. A terapia gênica também pode desempenhar um papel fundamental nessa luta, atuando sobre os genes envolvidos na longevidade e na saúde celular.

Impulsionando a Regeneração Celular:

Outro campo promissor é a regeneração celular, onde a medicina regenerativa e a terapia gênica se sobrepõem. As terapias genéticas podem estimular a regeneração de tecidos e órgãos danificados, proporcionando novas esperanças para pacientes com doenças degenerativas ou lesões graves. A capacidade de reprogramar células para que assumam diferentes identidades celulares, conhecida como reprogramação celular, pode revolucionar a medicina ao permitir a geração de tecidos novos e funcionais.

Personalização da Medicina:

A medicina do futuro se baseará em uma abordagem cada vez mais personalizada e de precisão. A sequenciação do genoma humano abriu a porta para tratamentos desenhados especificamente para a composição genética única de cada indivíduo. Os avanços na edição genética permitem corrigir defeitos genéticos herdados, e a medicina regenerativa possibilita o cultivo de tecidos que se adaptam perfeitamente ao paciente. Essa personalização tem o potencial de melhorar a eficácia dos tratamentos e reduzir os efeitos colaterais.

Desafios Éticos e Regulatórios:

Embora os avanços em terapias genéticas sejam empolgantes, eles também levantam desafios éticos e regulatórios. A edição genética tem o potencial de alterar permanentemente a linha germinativa, o que afetará as futuras gerações. Além disso, o acesso equitativo a essas tecnologias deve ser considerado cuidadosamente para evitar aprofundar as desigualdades em saúde. A comunidade científica e os reguladores devem trabalhar juntos para garantir que os avanços sejam implementados de maneira responsável e segura.

Em Conclusão: Um Horizonte de Possibilidades Médicas:

Em resumo, a medicina do futuro está no limiar de uma era de avanços sem precedentes em terapias genéticas e longevidade. A terapia gênica, a regeneração celular e a personalização da medicina têm o potencial de transformar radicalmente a forma como abordamos a saúde e o envelhecimento. À medida que a ciência médica avança, é fundamental que continuemos a considerar os aspectos éticos e regulatórios para garantir que esses avanços beneficiem a humanidade como um todo. Estamos nos aproximando do ápice de uma revolução médica que poderá oferecer uma vida mais longa e saudável para as gerações vindouras, e é nosso dever abraçar essa emocionante fronteira da medicina.l futuro.

Inteligência Artificial III Visões de Harari

Inteligência Artificial III Visões de Harari

O tema da Inteligência Artificial, com seu enorme alcance e o pouco que realmente sabemos – em muitos casos ainda estamos em uma fase intuitiva – gerou uma autêntica avalanche de estudos, opiniões, controvérsias e debates acalorados que praticamente acontecem diariamente.

Nosso Laboratório entende que um dos melhores serviços que pode prestar a todas aquelas pessoas e organizações que acompanham nosso trabalho é oferecer uma Série selecionada dessas opiniões, posições e debates, levados praticamente ao dia em que se produzem, para manter genuinamente informados aqueles que estão atentos ao que está acontecendo e à nossa visão.

Por sinal, o Laboratório está trabalhando em seu Microlab de Inteligência Artificial e, oportunamente, fará saber suas conclusões e percepções, mas a urgência do tema não admite muitas demoras. Essa é a razão pela qual hoje iniciamos uma Série sobre Inteligência Artificial, que esperamos seja o fermento para análise, reflexão e conclusões sobre a projeção que um tema dessa magnitude nos obriga a abordar. Ninguém, nem governos, nem organismos internacionais, nem organismos regionais, think tanks e indivíduos podem permanecer indiferentes à sua evolução.

Dentro de nossa série sobre Inteligência Artificial, decidimos hoje analisar as últimas declarações e artigos de Yuval Harari. Como é de conhecimento geral, o Dr. Harari é historiador, filósofo e autor de “Sapiens”, “Homo Deus” e da série infantil “Unstoppable Us”. Ele é professor no departamento de história da Universidade Hebraica de Jerusalém e cofundador da Sapienship, uma empresa de impacto social. Geralmente é ouvido como uma autoridade importante na interpretação do futuro, que realiza do ponto de vista sociológico e filosófico.

Harari disse ao The Guardian que “a IA hackeou o sistema operacional da civilização humana”. Esta é uma frase muito forte e que sem dúvida chama a atenção, podendo justificar uma possibilidade que ninguém sabe se ocorrerá. Com total franqueza e com todo o respeito ao Dr. Harari, em alguns casos, isso pode ser tomado como uma afirmação temerária, que eventualmente fundamenta-se no prestígio de uma carreira acadêmica muito importante, mas que justifica em alguns casos certas afirmações que nos soam um pouco apocalípticas. Não sabemos qual a probabilidade de isso acontecer. Às vezes, como aqui com Harari, também são incompreensíveis. Mas dizê-lo em 2023 é chamativo e serve, assim como os tiktoks virais que exageram, para hackear nossa atenção, que é o que mais rapidamente se hackeia.

É lógico pensar que a IA pode trazer problemas graves, mas faltam certezas. Se o “padrinho da IA” (Geoffrey Hinton, Prêmio Turing 2018, que analisaremos em outro artigo desta série) se equivocou em sua previsão há seis anos, ele pode errar novamente agora. Harari também incluiu em um artigo em março de 2023 no New York Times que metade dos “pesquisadores em IA” acredita que há 10% de chances de que a IA nos mate a todos. Mas não é verdade. Esse artigo o colocou na discussão e o projetou, saltando para outros meios e redes, garantindo “tabelas” para manter a posição de super especialista. Isso deveria, em todo caso, chamar cada opinante à prudência, pois o que é verdade é que não sabemos.

A verdade é que todos devemos ser muito prudentes nesse tema. Da mesma maneira que dissemos que é preciso ter cuidado com Altman, também devemos ter cuidado com outros eventuais profetas, e concentrar-nos no que realmente está acontecendo e, quando não estamos certos – e eventualmente muito inseguros – regular o avanço de alguns fatos sobre os quais podemos ter certezas de que podem ser potencialmente perigosos.

Os temas da inteligência artificial perseguem a humanidade desde o início da era dos computadores, de acordo com o que Harari nos diz. Até o momento, esses temores se concentravam nas máquinas que utilizavam meios físicos para matar, escravizar ou substituir as pessoas. Mas, nos últimos anos, surgiram novas ferramentas de inteligência artificial que parecem ameaçar a sobrevivência da civilização humana a partir de uma direção inesperada. É verdade que a Inteligência Artificial parece ter adquirido algumas habilidades notáveis para manipular e gerar linguagem, seja com palavras, sons ou imagens. A partir daí, Harari sustenta que a Inteligência Artificial hackeou, assim, o sistema operacional de nossa civilização. Pode ser que sim ou pode ser que não, vamos com calma. É verdade que surgiram manifestações que não entendemos e até certos vieses que ainda não conseguimos explicar, mas de lá a afirmar que estamos nas mãos de Hal, a maravilhosa máquina de 2001: Uma Odisseia no Espaço, há uma grande distância.

A ideia não é refutar nem o Dr. Harari nem o Dr. Hinton. A ideia é colocar moderação em um debate que está esquentando demais, onde há afirmações um pouco temerárias, onde há muitas coisas que ainda não sabemos e com as quais devemos ter cautela. Mas uma coisa é isso, e outra é adiantar que a Inteligência Artificial está prestes a assumir a condução da civilização humana. Enfim, há alguns de nós que confiamos bastante na inteligência humana, ao menos por enquanto, e mesmo com alguns que parecem caminhar por um caminho complicado em relação ao desenvolvimento tecnológico.

A argumentação de Harari é muito interessante: ele nos diz que a linguagem é o material do qual quase toda a cultura humana é feita. Os direitos humanos, por exemplo, não estão inscritos em nosso DNA. Na verdade, são artefatos culturais que criamos ao contar histórias e escrever leis. Os deuses não são realidades físicas. Na verdade, são artefatos culturais que criamos ao inventar mitos e escrever escrituras.

O dinheiro também é um artefato cultural. As cédulas de banco são apenas pedaços de papel colorido e, atualmente, mais de 90% do dinheiro nem são cédulas, mas sim apenas informações digitais em computadores. O que dá valor ao dinheiro são as histórias que banqueiros, ministros da Fazenda e gurus das criptomoedas nos contam sobre ele. Sam Bankman-Fried, Elizabeth Holmes e Bernie Madoff não eram particularmente bons em criar valor real, mas todos eram narradores extremamente habilidosos. Certamente, podemos adicionar a esses comentários que o dinheiro, que é uma mercadoria, tem sua concepção de valor baseada puramente na fé.

O que aconteceria uma vez que uma inteligência não humana fosse melhor que o ser humano médio para contar histórias, compor melodias, desenhar imagens e escrever leis e escrituras? Quando as pessoas pensam no ChatGPT e outras novas ferramentas de Inteligência Artificial, muitas vezes são atraídas por exemplos como crianças em idade escolar que o usam para escrever seus ensaios (por sinal, há pessoas que têm uma notória tendência para aplicar a lei do mínimo esforço; agora bem, e dependendo da frase popular “feita a lei, feita a trapaça”, sabemos que a toda ação corresponde uma reação). Com isso, o que acontecerá com o sistema escolar quando as crianças fizerem isso? Mas esse tipo de pergunta perde o panorama geral. Esqueça os ensaios escolares. Pense na próxima corrida presidencial dos EUA em 2024 e tente imaginar o impacto das ferramentas de IA que podem ser usadas para produzir conteúdo político em massa, notícias falsas e escrituras para novos cultos. Todas essas afirmações no final da frase são elementos para reflexão. Sem dúvida, a influência – e já vimos nas manipulações de dados do Facebook, por exemplo – é possível, especialmente quando a inteligência humana tem a tentação de descansar em sucedâneos não totalmente confiáveis.

Nos últimos anos, o culto ao QAnon se formou em torno de mensagens anônimas online, conhecidas como “Q drops”. Os seguidores coletaram, veneraram e interpretaram essas gotas Q como um texto sagrado. Embora, até onde sabemos, todos os Q drops anteriores tenham sido compostos por humanos, e os bots apenas ajudaram a divulgá-los, no futuro poderíamos ver os primeiros cultos na história cujos textos venerados foram escritos por uma inteligência não humana. As religiões ao longo da história afirmaram uma fonte não humana para seus livros sagrados. Em breve, isso pode se tornar uma realidade. Sem dúvida, é uma possibilidade. E uma possibilidade inquietante.

Em um nível mais prosaico, é possível que em breve nos encontremos realizando longas discussões online sobre o aborto, as mudanças climáticas ou a invasão russa da Ucrânia com entidades que acreditamos serem humanas, mas que, na verdade, são inteligência artificial. O problema é que não faz sentido dedicarmos tempo para tentar mudar as opiniões declaradas de um bot de inteligência artificial, enquanto ele poderia aprimorar suas mensagens com tanta precisão que tem boas chances de nos influenciar.

Através de seu domínio da linguagem, a inteligência artificial poderia até estabelecer relações íntimas (temos evidências de que isso aconteceu, em atos isolados, mas aconteceu) com as pessoas e usar o poder da intimidade para mudar nossas opiniões e visões de mundo. Embora, por enquanto, não haja indícios (são questões com as quais precisamos trabalhar seriamente) de que a inteligência artificial tenha consciência ou sentimentos próprios, para fomentar uma intimidade falsa com os humanos basta que ela consiga fazer com que se sintam emocionalmente ligados a ela. Em junho de 2022, Blake Lemoine, um engenheiro do Google, afirmou publicamente que o chatbot no qual estava trabalhando havia se tornado sensível. A controversa afirmação lhe custou o emprego. O mais interessante desse episódio não foi a afirmação do Sr. Lemoine, que provavelmente era duvidosa ou, ao menos, influenciada por uma percepção emocional que não tinha peso racional para justificar a afirmação. Agora, se a inteligência artificial pode influenciar as pessoas a arriscarem seus empregos por ela, o que mais ela poderia induzi-las a fazer?

Uma batalha a ser travada:

Harari diz que estamos diante de uma batalha política pelas mentes e corações, a intimidade é a arma mais eficiente, e a inteligência artificial acaba de obter a capacidade de produzir relações íntimas em massa com milhões de pessoas. Todos sabemos que, durante a última década, as redes sociais se tornaram um campo de batalha para controlar a atenção humana, e que, aliás, se tornaram o principal local onde as pessoas, nesta evolução particular das relações humanas, buscam suas relações de afeto. E aqui, concordo fortemente com Harari, com a nova geração de inteligência artificial, a linha de frente da batalha está passando da atenção para a intimidade. O que acontecerá, então, com a sociedade e a psicologia humana quando a inteligência artificial lutar contra a inteligência emocional em uma batalha para fingir relações íntimas conosco, que depois podem ser usadas para nos convencer a votar em políticos específicos ou comprar produtos específicos? E ainda, algo que pode ser muito mais complexo, que é a delicadeza nas relações entre humanos. Por certo, aqui é preciso investigar e fazer isso com o maior ênfase possível.

Mesmo sem criar uma “intimidade falsa”, as novas ferramentas da inteligência artificial teriam uma imensa influência em nossas opiniões e visões de mundo. As pessoas podem acabar utilizando um único conselheiro dessa inteligência como um oráculo onisciente e de uma só parada (há muitas pessoas esperando por isso, e não é uma afirmação gratuita, pois podemos observar isso todos os dias nas redes sociais, e em particular algumas delas. Não é preciso individualizá-las neste momento. Já chegará esse momento). Não é de se admirar que alguns dos responsáveis do Google estejam aterrorizados (embora não queiram perder o trem do imenso negócio que está por trás de tudo isso). Por que se dar o trabalho de procurar, quando posso apenas perguntar ao oráculo? As indústrias de notícias e publicidade também deveriam estar aterrorizadas. Por que ler um jornal quando posso simplesmente pedir ao oráculo que me diga as últimas notícias? E qual é o propósito dos anúncios, quando posso simplesmente pedir ao oráculo que me diga o que comprar? Vejamos, a Amazon e outros já descobriram isso há muito tempo, trata-se apenas de potencializar isso.

Harari, o fim da história humana e a necessidade de agir com cautela em algumas afirmações:

Mesmo esses cenários não capturam realmente o panorama geral. O que estamos falando é potencialmente do fim da história humana. Não é o fim da história, apenas o fim da sua parte dominada pelos humanos. A história é a interação entre biologia e cultura; entre nossas necessidades e desejos biológicos de coisas como comida e sexo, e nossas criações culturais como religiões e leis. A história é o processo pelo qual as leis e as religiões moldam a comida e o sexo. Estamos aqui à beira de um terreno perigoso e o ponto onde eu estimo que Harari queria chegar desde o início. A inversão do controle humano para o controle da inteligência artificial e, por que não perguntar?, que controle humano poderia se erguer atrás da inteligência artificial…? Por certo, isso por si só já daria para um Tratado.

Continua Harari, partindo da base da suposição de que essa inversão de controle de inteligências realmente aconteça: O que acontecerá com o curso da história quando a inteligência artificial assumir o controle da cultura e começar a produzir histórias, melodias, leis e religiões? As ferramentas anteriores, como a imprensa e o rádio, ajudaram a difundir as ideias culturais dos humanos, mas nunca criaram novas ideias culturais próprias. A IA é fundamentalmente diferente. A IA pode criar ideias completamente novas, uma cultura completamente nova.

No começo, a inteligência artificial provavelmente imitará os protótipos humanos nos quais foi treinada em sua infância. Mas a cada ano que passa, a cultura desse tipo de inteligência irá ousadamente para onde nenhum humano foi antes. Durante milênios, os seres humanos viveram dentro dos sonhos de outros humanos. Nas próximas décadas, poderíamos nos encontrar vivendo dentro dos sonhos de uma inteligência alienígena. Por certo, a referência alienígena não responde aos conceitos comuns, não estamos falando de seres extraterrestres, mas de inteligências não humanas, ainda que tenham sido criadas – paradoxalmente – por humanos.

Isso que vimos é de grande interesse. O que segue, muito relacionado com os sonhos e com o storytelling, fica a cargo de Harari. Não estou tão de acordo. É subordinar a mente humana a mitos e sonhos e, essa, é uma questão sobre a qual discutir longamente. Assim, Harari afirma que o medo da inteligência artificial perseguiu a humanidade apenas durante as últimas décadas (e estaríamos partindo da base que um conjunto amplo da humanidade sabe e teme a inteligência artificial, o que francamente me parece artificial). Mas durante milhares de anos, os seres humanos foram perseguidos por um medo muito mais profundo. Sempre apreciamos o poder das histórias e das imagens para manipular nossa mente e criar ilusões. Consequentemente, desde a antiguidade, os humanos temeram ficar presos em um mundo de ilusões (o medo dos sonhos?, quando os sonhos foram o motor do avanço dos humanos. Francamente, me parece excessivo…, com todo respeito pelas construções e pelo pensamento do Mestre Harari).

No século XVII, René Descartes temia que talvez um demônio maligno o estivesse aprisionando dentro de um mundo de ilusões, criando tudo o que via e ouvia. Na Grécia Antiga, Platão contou a famosa Alegoria da Caverna, na qual um grupo de pessoas está acorrentado dentro de uma caverna durante toda a vida, diante de uma parede em branco. Uma tela. Nessa tela, veem projetadas várias sombras. Os prisioneiros confundem as ilusões que veem ali com a realidade. Sem dúvida, mas estamos nos referindo a Mestres, o homem e a mulher do povo, que lutam diariamente pelo pão, questão que não mudou durante séculos, isso está um pouco distante dessas dissertações filosóficas.

Adiciona, fazendo uso de sua teoria, o autor: na Índia Antiga, os sábios budistas e hindus apontaram que todos os humanos viviam aprisionados dentro de Maya, o mundo das ilusões. O que normalmente tomamos como realidade muitas vezes são apenas ficções em nossas próprias mentes. As pessoas podem empreender guerras inteiras, matando outros e desejando que as matem, devido à sua crença nesta ou naquela ilusão. Outro dos elementos que podemos discutir e longamente.

Alguma boa notícia parece chegar:

Claro, o novo poder da inteligência artificial também poderia ser usado para bons propósitos. Não vou me deter nisso, pois as pessoas que a desenvolvem falam bastante sobre isso. O trabalho de historiadores e filósofos como eu é apontar os perigos. Mas certamente, a IA pode nos ajudar de inúmeras formas, desde encontrar novas curas para o câncer até descobrir soluções para a crise ecológica. A pergunta que enfrentamos é como garantir que as novas ferramentas sejam usadas para o bem e não para o mal. Para fazer isso, primeiro devemos apreciar as verdadeiras capacidades dessas ferramentas.

Desde 1945 sabemos que a tecnologia nuclear poderia gerar energia barata em benefício dos humanos, mas também poderia destruir fisicamente a civilização humana. Portanto, remodelamos toda a ordem internacional para proteger a humanidade e garantir que a tecnologia nuclear seja utilizada principalmente para o bem. Agora temos que lidar com uma nova arma de destruição massiva que pode aniquilar nosso mundo mental e social.

Ainda podemos regular as novas ferramentas de IA, mas devemos agir rapidamente. Enquanto as armas nucleares não podem inventar armas nucleares mais poderosas, a inteligência artificial pode criar uma inteligência exponencialmente mais poderosa. O primeiro passo crucial é exigir controles de segurança rigorosos antes que as poderosas ferramentas sejam lançadas ao domínio público. Assim como uma empresa farmacêutica não pode lançar novos medicamentos antes de testar seus efeitos colaterais a curto e longo prazo, as empresas de tecnologia não deveriam lançar novas ferramentas de inteligência artificial antes de serem seguras. Precisamos de um equivalente da Administração de Alimentos e Medicamentos para novas tecnologias, e precisamos disso para ontem. O que, por sinal, é uma ideia completamente compartilhável e combatível no sentido de fazer campanha para isso.

A próxima pergunta de Harari é mais do que interessante. A desaceleração dos desdobramentos públicos da inteligência artificial não fará com que as democracias fiquem para trás de regimes autoritários mais impiedosos? Pelo contrário. Os desdobramentos dessa tecnologia não regulamentados criariam caos social, o que beneficiaria os autocratas e arruinaria as democracias. A democracia é uma conversa, e as conversas se baseiam na linguagem. Quando a tecnologia invade a linguagem, ela pode destruir nossa capacidade de ter conversas significativas, destruindo assim a democracia. Nesse sentido – e sem atribuí-lo a Harari – o caso mais claro é o da República Popular da China.

Finalmente, Harari termina com uma sentença apocalíptica, mas muito válida. Acabamos de encontrar uma inteligência extraterrestre, aqui na Terra. Não sabemos muito sobre ela, exceto que poderia destruir nossa civilização. Devemos pôr fim ao desdobramento irresponsável de ferramentas de inteligência artificial na esfera pública e regulamentá-las antes que elas nos regulamentem. E a primeira regulamentação que sugeriria é tornar obrigatório que a inteligência artificial tenha a obrigação de revelar que é o que é. “Se estou tendo uma conversa com alguém e não consigo dizer se é um ser humano ou uma inteligência artificial, esse é o fim da democracia.”


QAnon ou Q: (abreviação de Q-Anônimo) é uma das principais teorias da conspiração da extrema direita americana, que detalha uma suposta trama secreta organizada por um suposto “Estado profundo” contra Donald Trump e seus seguidores.

A ideia geral da trama é que há atores de Hollywood, identificados como politicamente progressistas, políticos do Partido Democrata e funcionários de alto escalão que participam de uma rede internacional de tráfico sexual de crianças e cometem atos pedófilos; e que Trump está investigando e perseguindo-os para prevenir um suposto golpe de Estado orquestrado por Barack Obama, Hillary Clinton e George Soros. Os meios de comunicação descreveram o QAnon como um “ramo” da teoria da conspiração Pizzagate, e muitos o consideram uma atualização dos protocolos dos sábios de Sion.

Embora tenha origem nos Estados Unidos, há um movimento QAnon fora dos Estados Unidos, inclusive no Reino Unido e na França desde 2020, com um movimento “particularmente forte e crescente” na Alemanha e no Japão. Os adeptos japoneses do QAnon também são conhecidos como “JAnon”.

Os seguidores do QAnon comumente rotulam suas postagens nas redes sociais com a hashtag #WWG1WGA, que significa o lema “Where We Go One, We Go All” (traduzido como Onde vamos um, vamos todos), derivado do filme White Squall de 1996.

A teoria começou com uma postagem, em outubro de 2017, feita por um anônimo no fórum 4chan que usava o nome Q. Este era, aparentemente, um indivíduo americano, mas mais tarde cresceu até se tornar um grupo de pessoas, que afirmava ter acesso a informações classificadas sobre a administração Trump. “Q” é uma referência à autorização de acesso Q utilizada pelo Departamento de Energia dos Estados Unidos, necessária para acessar dados restritos de alto segredo e informações de segurança nacional. Segundo a cadeia NBC, pelo menos três pessoas pegaram a postagem original de “Q” e logo a republicaram em várias plataformas como 4chan, como “FBIAnon”, “HLIAnon”, “CIAAnon” e “WH Insider Anon”.

Os seguidores do QAnon começaram a aparecer nos comícios de campanha da reeleição de Trump em agosto de 2018, recebendo bastante promoção nas redes sociais e algumas estações de rádio, chegando a organizar comícios nas proximidades da Casa Branca. Em agosto de 2019, o FBI publicou um relatório no qual classificava o QAnon como uma fonte potencial de terrorismo interno, a primeira vez que essa agência classificava um grupo derivado de uma teoria da conspiração dessa maneira. Segundo a análise da organização Media Matters for America, em outubro de 2020, Trump havia amplificado as mensagens do QAnon pelo menos 265 vezes ao retuitar ou mencionar 152 contas do Twitter afiliadas ao QAnon, às vezes várias vezes por dia. Os seguidores do QAnon se referem a Donald Trump como “Q+”.

O número exato de adeptos do QAnon é incerto, mas grande parte de sua atividade é online. O site do mural de imagens 8chan (renomeado como 8kun em 2019) é o lar online do QAnon, já que é o único lugar onde “Q” publica mensagens. Em junho de 2020, em uma postagem no 8chan, Q exortou seus seguidores a fazer um “juramento de soldados digitais”; coisa que muitos fizeram, usando a hashtag do Twitter #TakeTheOath. Em julho de 2020, o Twitter proibiu milhares de contas afiliadas ao QAnon e alterou seus algoritmos para reduzir a propagação dessa teoria da conspiração. Uma análise interna do Facebook informada em agosto de 2020 encontrou milhões de seguidores em milhares de grupos e páginas; o Facebook agiu para remover e restringir a atividade do QAnon, e em outubro disse que proibiria completamente essa teoria da conspiração de sua plataforma. Os seguidores também migraram para fóruns de mensagens dedicados, incluindo EndChan, onde se organizaram para travar uma guerra de informações na tentativa de influenciar as eleições de 2020.

Série de Inteligência Artificial II Comitê do Senado

Série de Inteligência Artificial II Comitê do Senado

O tema da Inteligência Artificial, com seu enorme alcance e o pouco que realmente sabemos – em muitos casos ainda estamos na fase intuitiva – gerou uma verdadeira catarata de estudos, opiniões, controvérsias e debates acalorados que praticamente acontecem diariamente.

Nosso Laboratório entende que um dos melhores serviços que pode prestar a todas as pessoas e organizações que acompanham nosso trabalho é oferecer uma Série selecionada dessas opiniões, posições e debates, praticamente atualizados no dia em que acontecem, para manter genuinamente informados aqueles que estão atentos ao que está ocorrendo e à nossa visão.

Certamente, o Laboratório está trabalhando em seu Microlab de Inteligência Artificial e, oportunamente, divulgará suas conclusões e percepções, mas a urgência do tema não permite muitas demoras. Essa é a razão pela qual hoje iniciamos uma Série sobre Inteligência Artificial, que esperamos que seja o fermento para análises, reflexões e conclusões sobre a projeção que um tema dessa magnitude nos obriga a abordar. Ninguém, nem governos, nem organismos internacionais, nem organismos regionais, think tanks e indivíduos podem permanecer indiferentes à sua evolução. Como sempre, esperamos que nosso serviço possa ser útil.

No que já se tornou uma situação clássica nos Estados Unidos, a reunião entre o fundador da OpenAI, Samuel Altman, e o Subcomitê do Senado, da qual falamos em posts anteriores, terminou em uma reunião simpática onde não foram tomadas resoluções, foram feitas declarações enfáticas e demonstrou a vigência, nesses tempos de disrupção tecnológica, de como a técnica milenar do lobby ainda funciona perfeitamente. Mas também demonstrou algo muito mais preocupante: a escassa compreensão da política em relação ao conteúdo e aos alcances da tecnologia, o que é tão perigoso quanto os eventuais riscos da aplicação tecnológica em determinadas áreas. Infelizmente, a frase que diz que a tecnologia vai de elevador (para cima) e a política vai pela escada (para baixo), parece ser confirmada mais uma vez. Certamente, os Estados Unidos são um dos países desenvolvidos com o maior grau de atraso na regulamentação de muitos aspectos tecnológicos, que já foram resolvidos, por exemplo, pela União Europeia ou Japão.

Carlos Ares, economista do Conselho da Cidade de Barcelona, e um dos principais referenciais em matéria tecnológica, disse, com seu humor habitual, mas também com sua perspicaz apreciação, um dos diagnósticos mais certeiros feitos sobre Altman: “O CEO da OpenAI pede mais regulamentação para a indústria da inteligência artificial. ‘Meu pior medo é que essa tecnologia dê errado. E se der errado, pode dar muito errado.’ (Lembremos que Sam Altman é um desses preparacionistas que estamos acostumados a ver nos filmes, que vivem nas montanhas e têm um arsenal de armas, latas de conserva e utensílios de todo tipo para sobreviver a um ataque zumbi, uma invasão de extraterrestres ou à sua própria inteligência artificial)”. Conhecendo os capitães da tecnologia, a avaliação parece mais que acertada.

Altman e os legisladores concordaram que os novos sistemas de inteligência artificial precisam ser regulamentados, mas ainda não está claro como isso acontecerá.

O tom das audiências no Congresso com executivos da indústria tecnológica nos últimos anos pode ser descrito como antagônico. Mark Zuckerberg, Jeff Bezos e outros grandes controladores de empresas tecnológicas foram criticados no Capitólio por legisladores irritados com suas empresas. Esta reunião parece ter mudado essa tônica de confronto, especialmente pela atitude do depoente, proativa e “preocupada”, o que o diferenciou das apresentações anteriores, geralmente defendidas e em certo tom de negacionismo, o que resultou em climas pouco amigáveis nas trocas.

Altman fez sua estreia pública no Capitólio quando o interesse pela IA disparou. Os gigantes tecnológicos investiram esforços e bilhões de dólares no que dizem ser uma tecnologia transformadora, mesmo com as crescentes preocupações sobre o papel da IA na disseminação de informações errôneas, na destruição de empregos e, um dia, na inteligência humana.

Mas Altman, CEO da OpenAI, uma empresa emergente de São Francisco, testemunhou perante os membros de um Subcomitê do Senado e concordou amplamente com eles sobre a necessidade de regular a tecnologia de IA cada vez mais poderosa criada dentro de sua empresa e outras como Google e Microsoft (e, de passagem, coloca os holofotes sobre a concorrência mais dura. Indubitavelmente, Altman e seus conselheiros formam uma equipe extraordinária de estrategistas).

No que é seu primeiro testemunho no Congresso, Altman implorou aos legisladores que regulamentassem a inteligência artificial enquanto os membros do Comitê mostravam uma compreensão incipiente da tecnologia (desenvolveremos isso em uma seção mais adiante neste artigo). A audiência destacou a profunda inquietação que os tecnólogos e o governo sentem pelos danos potenciais da IA. Mas essa inquietação não se estendeu a Altman, que teve uma audiência amigável com os membros do Subcomitê. A audiência durou três horas e foi realmente educativa para um conjunto de membros políticos com escasso conhecimento da profundidade do problema. Isso não significa que os legisladores não estejam inquietos, mas sim que a inquietação é mais pela influência do ambiente do que por uma real compreensão do fenômeno.

Dentro das atividades de lobby, Altman também abordou a tecnologia de sua empresa durante um jantar com dezenas de membros da Câmara, na noite anterior à audiência legislativa, e se reuniu em privado com vários senadores antes da audiência. Ele ofereceu uma estrutura flexível para gerenciar o que acontecerá a seguir com os sistemas de desenvolvimento rápido que alguns acreditam que podem mudar fundamentalmente a economia. Ficou claro que os membros do Subcomitê do Senado para Privacidade, Tecnologia e Lei não planejavam um interrogatório rigoroso para Altman, já que agradeceram a ele pelas reuniões privadas e por comparecer à audiência. Cory Booker, democrata de Nova Jersey, referiu-se repetidamente a Altman pelo primeiro nome. Vendo o contexto, isso não parece ser surpreendente.

“Se algo pode dar errado, pode dar muito errado”:

“Eu acho que, se essa tecnologia der errado, ela pode dar muito errado. E queremos nos expressar sobre isso”, disse Altman. “Queremos trabalhar com o governo para evitar que isso aconteça.” Essa frase de Altman é particularmente preocupante. Se interpretarmos isso com cuidado, veremos que na realidade não sabemos o que pode dar errado, o que, por si só, já é grave. Então, não se entende porque a OpenAI está anunciando que em breve conectará o ChatGPT à Internet. Usuários que pagarem pelo ChatGPT Plus, que usa o modelo GPT-4, terão acesso a uma função de navegação na web que fornecerá informações atualizadas. Não sabemos o que pode dar errado, mas vamos em frente! Uau!

O acesso generalizado às novas ferramentas de IA da OpenAI e do Google indica que a “guerra da IA” só está se intensificando à medida que as grandes empresas tecnológicas competem para criar a IA mais poderosa e fácil de usar.

A preocupação já chegou ao Presidente Joseph Biden e seus assessores, o que parece indicar que a questão não se encerrará com essa simples audiência. Isso colocou a tecnologia no centro das atenções em Washington. Biden disse, neste mês, em uma reunião com um grupo de executivos de empresas de IA, que “o que estão fazendo tem um enorme potencial e perigo”.

As sugestões apresentadas ao Senado e as respostas:

A Altman se juntaram na audiência Christina Montgomery, diretora de privacidade e confiança da IBM, e Gary Marcus, um conhecido professor e crítico frequente da tecnologia de Inteligência Artificial. O mais interessante, como veremos a seguir, foi que o principal problema do titular da OpenAI não foi nenhum dos legisladores, mas precisamente a lógica implacável do Dr. Marcus.

Altman disse que a tecnologia de sua empresa pode destruir alguns empregos, mas também criar outros novos, e que será importante que “o governo descubra como queremos mitigar isso”. Ecoando uma ideia sugerida pelo Dr. Marcus, ele propôs a criação de uma agência que emita licenças para o desenvolvimento de modelos de IA em larga escala, normas de segurança e testes que os modelos de IA devem passar antes de serem lançados ao público.

“Acreditamos que os benefícios das ferramentas que implementamos até agora superam amplamente os riscos, mas garantir sua segurança é vital para o nosso trabalho”, afirmou Altman.

No entanto, não estava claro como os legisladores responderiam ao chamado para regular a IA. O histórico do Congresso em relação à regulamentação tecnológica é desanimador. Dezena de projetos de lei sobre privacidade, liberdade de expressão e segurança falharam na última década devido às disputas partidárias e à feroz oposição das grandes empresas de tecnologia.

Os Estados Unidos têm ficado para trás em relação ao mundo em termos de regulamentações sobre privacidade, liberdade de expressão e proteção infantil. Também estão atrasados nas regulamentações sobre Inteligência Artificial. Os legisladores da União Europeia estão prontos para introduzir regras para a tecnologia no final deste ano, e a China já criou leis de Inteligência Artificial que se alinham com suas leis de censura, como era de se esperar do Reino do “Big Brother”.

O senador Richard Blumenthal, democrata de Connecticut e presidente do painel do Senado, afirmou que a audiência foi a primeira de uma série para aprender mais sobre os possíveis benefícios e danos da IA, com o objetivo de eventualmente “escrever as regras”.

Ele também reconheceu o fracasso do Congresso em se atualizar com a introdução de novas tecnologias no passado. “Nosso objetivo é desmistificar e responsabilizar essas novas tecnologias para evitar alguns dos erros do passado”, disse Blumenthal. “O Congresso não cumpriu com o momento das redes sociais”. E, aliás, ainda não cumpriu.

Os membros do Subcomitê sugeriram a criação de uma agência independente para supervisionar a IA; regras que obriguem as empresas a revelar como seus modelos funcionam e os conjuntos de dados que utilizam; e normas antitruste para evitar que empresas como Microsoft e Google monopolizem o mercado nascente.

“O diabo estará nos detalhes”, disse Sarah Myers West, diretora executiva do AI Now Institute, um centro de pesquisa sobre políticas relacionadas à tecnologia e à Inteligência Artificial. Ela afirmou que as sugestões de Altman para as regulamentações não são suficientes e deveriam incluir limites sobre como a IA é usada na vigilância e no uso de dados biométricos. Ela apontou que Altman não demonstrou nenhum indício de desacelerar o desenvolvimento da ferramenta ChatGPT da OpenAI. “É uma grande ironia ver uma postura de preocupação com os danos de pessoas que estão lançando rapidamente para uso comercial o sistema responsável por esses mesmos danos”, disse Sarah West.

A lacuna entre compreensão política e avanço tecnológico:

Alguns legisladores na audiência ainda mostraram a lacuna persistente nos conhecimentos tecnológicos entre Washington e o Vale do Silício. Lindsey Graham, republicana da Carolina do Sul, perguntou repetidamente aos testemunhas se um escudo de responsabilidade para plataformas online como Facebook e Google também se aplica à Inteligência Artificial.

Altman, calmo e sereno, tentou várias vezes estabelecer uma distinção entre IA e redes sociais. “Precisamos trabalhar juntos para encontrar uma abordagem totalmente nova”.

Alguns membros do Subcomitê também estavam relutantes em tomar medidas drásticas contra uma indústria com uma grande promessa econômica para os Estados Unidos e que compete diretamente com adversários como a China. Certamente, os políticos americanos não conseguem estabelecer claramente o que são os perigos de uma tecnologia e o que é a geopolítica tecnológica de seu país.

Os chineses estão criando IA que “reforçam os valores fundamentais do Partido Comunista Chinês e o sistema chinês”, disse Chris Coons, democrata de Delaware. “E me preocupa como promovemos a IA que reforça e fortalece os mercados abertos, as sociedades abertas e a democracia”.

Algumas das perguntas e comentários mais difíceis para Altman vieram do Dr. Marcus, que apontou que a OpenAI não tem sido transparente sobre os dados que utiliza para desenvolver seus sistemas. Ele expressou dúvidas sobre a previsão de Altman de que novos empregos substituirão os eliminados pela Inteligência Artificial.

“Aqui temos oportunidades sem precedentes, mas também enfrentamos uma tempestade perfeita de irresponsabilidade corporativa, implantação generalizada, falta de regulamentação adequada e pouca confiabilidade inerente”, disse o Dr. Marcus.

As empresas de tecnologia argumentaram que o Congresso deve ter cuidado com as regras gerais que agrupam diferentes tipos de IA. Na audiência de terça-feira, a Sra. Montgomery, da IBM, pediu uma lei de IA semelhante às regulamentações propostas pela Europa, que descreve vários níveis de risco. Ela pediu regras que se concentrem em usos específicos, não que regulamentem a tecnologia em si.

“Essencialmente, a IA é apenas uma ferramenta, e as ferramentas podem servir para diferentes propósitos”, disse ela, acrescentando que o Congresso deveria adotar uma “abordagem de regulação de precisão para a IA”.

Enquanto isso, a competição aumenta:

Por sinal, a OpenAI não é a única empresa que colocou em operação o que está sendo discutido. A visão mais completa que pode ser oferecida neste momento, e levando em consideração os projetos mais importantes, nos mostra:


ChatGPT. ChatGPT, o modelo de linguagem de inteligência artificial de um laboratório de pesquisa, OpenAI, tem sido destaque desde novembro por sua capacidade de responder a perguntas complexas, escrever poesias, gerar códigos, planejar férias e traduzir idiomas. O GPT-4, a última versão apresentada em meados de março, pode até responder a imagens (e passar no Exame da Ordem dos Advogados).

Bing. Dois meses depois do lançamento do ChatGPT, a Microsoft, principal investidora e parceira da OpenAI, adicionou um chatbot semelhante, capaz de ter conversas abertas por texto sobre praticamente qualquer tema, ao seu motor de busca Bing. Mas foram as respostas ocasionalmente imprecisas, enganosas e estranhas do bot que atraíram grande parte da atenção após o seu lançamento.

Bard. O chatbot do Google, chamado Bard, foi lançado em março para um número limitado de usuários nos Estados Unidos e no Reino Unido. Originalmente concebido como uma ferramenta criativa destinada a redigir e-mails e poesias, pode gerar ideias, escrever postagens em blogs e responder perguntas com fatos ou opiniões.

Ernie. Ernie, abreviação de Representação Melhorada através da Integração de Conhecimento, acabou sendo um fracasso depois que foi revelado que a demonstração "ao vivo" prometida do bot foi gravada.

error: Content is protected !!