Neuralink, uma das empresas do complexo de Elon Musk, recebeu a autorização da Administração de Alimentos e Medicamentos dos Estados Unidos para a experimentação de implantes cerebrais em humanos, questão que por enquanto – teremos que acreditar piamente no assunto – havia sido desenvolvida exclusivamente em animais. Em princípio, a autorização destina-se, de forma limitada, a buscar uma melhoria (falar de cura é arriscado por enquanto) e uma restauração em condições cerebrais seriamente danificadas. A propósito, bem entendido, são passos rumo ao transhumanismo. E, falando de transhumanismo…
Neuralink, uma das empresas do complexo de Elon Musk, anunciou que obteve a aprovação da Administração de Alimentos e Medicamentos dos Estados Unidos (FDA) para realizar estudos em humanos de seus implantes cerebrais, testados até agora apenas em animais. A empresa adiantou a luz verde da FDA para os primeiros estudos em humanos em sua conta no Twitter. “Representa um primeiro passo importante que algum dia permitirá que nossa tecnologia ajude muitas pessoas”, escreveu a empresa. No início de dezembro, Musk havia afirmado que a Neuralink, uma empresa que não ficou imune às controvérsias por seus experimentos com animais, estava pronta para realizar implantes cerebrais em seres humanos no prazo de seis meses. Naquela ocasião, Musk destacou que a FDA expressou preocupação sobre o possível superaquecimento do implante (que inclui microcabo no tecido cerebral), pois isso poderia resultar no vazamento de substâncias químicas do implante para o cérebro. A funcionalidade do implante será “ler” a atividade cerebral para transmitir comandos que possam ajudar a restaurar algumas funções cerebrais gravemente danificadas após um infarto ou esclerose lateral amiotrófica, que causam severos danos na capacidade de comunicação. Até agora, os implantes cerebrais foram desenvolvidos em apenas uma direção: do cérebro para o exterior (normalmente, um computador que processa os sinais), mas o projeto da Neuralink aspira ser capaz de transferir informações também na direção oposta, para o cérebro. A Neuralink está desenvolvendo paralelamente dois tipos de implantes: um para restaurar a visão “mesmo naqueles que nunca a tiveram” e outro para restaurar funções corporais básicas em pessoas com paralisia devido a danos na medula espinhal. Agora, vamos falar um pouco sobre a Neuralink, a empresa pioneira em tudo isso, que devemos seguir com cuidado no futuro para observar com mais detalhes sua evolução e, em particular, seus desenvolvimentos. Neuralink Corporation é uma empresa de neurotecnologia dos Estados Unidos especializada no desenvolvimento de interfaces cérebro-computador implantáveis, também conhecidas como Brain-Machine Interfaces (BMI), fundada por Elon Musk. Atualmente, desenvolve um dispositivo capaz de tratar pacientes com deficiências causadas por distúrbios neurológicos por meio de estimulação cerebral direta. E, segundo declarações de Musk, a tecnologia da Neuralink visa, a longo prazo, alcançar uma simbiose total com a inteligência artificial. Atualmente, a empresa está realizando experimentos com animais em colaboração com a Universidade da Califórnia, Davis. A Neuralink foi fundada em 2016 por Elon Musk, Ben Rapoport, Dongjin Seo, Max Hodak, Paul Merolla, Philip Sabes, Tim Gardner, Tim Hanson e Vanessa Tolosa. Em abril de 2017, o blog Wait But Why noticiou que a empresa tinha como objetivo fabricar dispositivos para tratar doenças cerebrais graves a curto prazo, com o objetivo final de melhorar a condição humana, um conceito por vezes chamado de transumanismo. Musk afirmou que seu interesse por essa ideia surgiu parcialmente do conceito de ficção científica do “cordão neural” no universo fictício de The Culture, uma série de 10 romances de Iain M. Banks. Musk definiu o cordão neural como uma “camada digital sobre a córtex”, que não necessariamente implicaria uma inserção cirúrgica extensa, e sim, idealmente, um implante por meio de uma veia ou artéria. Musk explicou que o objetivo a longo prazo é alcançar uma “simbiose com inteligência artificial”, que ele vê como uma ameaça existencial para a humanidade, caso não seja adequadamente controlada. A partir de 2017, algumas neuropróteses puderam interpretar sinais cerebrais e permitir que pessoas com deficiência controlassem seus braços e pernas protéticos. Musk falou sobre a intenção de conectar essa tecnologia a implantes que, em vez de simplesmente ativar o movimento, permitissem interagir rapidamente com outros tipos de softwares e dispositivos externos. A partir de 2020, a Neuralink tem sede no Distrito Mission de São Francisco, dividindo o antigo edifício da fábrica Pioneer com a OpenAI, outra empresa cofundada por Musk. Musk era o proprietário majoritário da Neuralink em setembro de 2018, mas não ocupou o cargo executivo. O papel de CEO foi desempenhado por Jared Birchall, que também ocupava o cargo de diretor financeiro e presidente. Birchall também atuou como executivo em várias outras empresas fundadas ou cofundadas por Musk. A marca “Neuralink” foi adquirida de seus proprietários anteriores em janeiro de 2017. Em agosto de 2020, apenas dois dos oito cientistas fundadores permaneciam na empresa, de acordo com um artigo da Stat News que informou que a Neuralink havia enfrentado “anos de conflitos internos nos quais prazos acelerados entraram em conflito com o ritmo lento e incremental da ciência.” Não é surpresa, considerando Musk. Desde a sua fundação, a Neuralink tem se caracterizado por um alto grau de discrição ao revelar informações, pois a existência da empresa só foi anunciada ao público em 2017, e informações sobre a tecnologia que estavam sendo desenvolvidas não seriam divulgadas até 2019. A empresa recebeu 158 milhões de dólares em patrocinadores, dos quais 100 milhões foram investidos pelo próprio Musk, e conta com 90 funcionários. A marca “Neuralink” foi adquirida de seus proprietários anteriores em janeiro de 2017. A equipe da empresa é composta por especialistas em áreas diversas como neurociência, bioquímica, robótica, matemática aplicada, maquinaria, entre outras. Atualmente, a empresa busca especialistas em diferentes áreas científicas para expandir sua equipe. Os membros fundadores são: durante 22 segundos
A companhia Neuralink, de propriedade de Elon Musk, anunciou que recebeu a aprovação da Administração de Fármacos e Alimentos (FDA, em inglês) para realizar estudos em humanos de seus implantes cerebrais, testados até agora em animais.
A empresa divulgou a luz verde da FDA para os primeiros estudos em humanos em sua conta no Twitter. “Representa um primeiro passo importante que algum dia permitirá que nossa tecnologia ajude muitas pessoas”, escreveu a empresa.
No início de dezembro, Musk havia assegurado que Neuralink, uma empresa que não esteve isenta de polêmica por seus experimentos com animais, estava pronta para realizar implantes cerebrais em seres humanos no prazo de seis meses.
Naquela ocasião, Musk apontou que a FDA havia expressado preocupação com o possível superaquecimento do implante (que inclui microcables no tecido cerebral), pois isso poderia resultar na fuga de elementos químicos do implante para a massa cerebral.
A função do implante será a de “ler” a atividade cerebral para poder transmitir comandos que ajudem a restaurar algumas funções cerebrais gravemente danificadas após um infarto ou uma esclerose lateral amiotrófica, que resultam em sérios danos à capacidade comunicativa.
Até agora, os implantes cerebrais foram desenvolvidos em apenas uma direção: do cérebro para o exterior (geralmente um computador que processa os sinais), mas o projeto da Neuralink aspira a ser capaz de transferir informação também na outra direção, para o cérebro.
A Neuralink está desenvolvendo, em paralelo, dois tipos de implantes: um para restaurar a visão “até mesmo naqueles que nunca a tiveram” e outro para restabelecer as funções corporais básicas em pessoas com paralisia devido a danos na medula espinhal.
Agora, vamos falar um pouco sobre a Neuralink, a empresa que é pioneira em tudo isso e que devemos acompanhar com cuidado no futuro, para poder observar em detalhe sua evolução e, em particular, seus desenvolvimentos.
A Neuralink Corporation é uma empresa de neurotecnologia estadunidense, especializada no desenvolvimento de interfaces cérebro-computador, implantáveis, também conhecidos como Brain-Machine Interfaces ou BMI, fundada por Elon Musk.
Atualmente, estão desenvolvendo um dispositivo capaz de tratar pacientes que sofrem de incapacidades causadas por distúrbios neurológicos por meio de estimulação cerebral direta. E, segundo declarações de Musk, a tecnologia desenvolvida pela Neuralink busca, a longo prazo, alcançar uma simbiose total com a inteligência artificial. Atualmente, está desenvolvendo experimentações em animais em conjunto com a Universidade da Califórnia, Davis.
A Neuralink foi fundada em 2016 por Elon Musk, Ben Rapoport, Dongjin Seo, Max Hodak, Paul Merolla, Philip Sabes, Tim Gardner, Tim Hanson e Vanessa Tolosa.
Em abril de 2017, o blog Wait ButWhy informou que a companhia tinha como objetivo fabricar dispositivos para tratar doenças cerebrais graves a curto prazo, com o objetivo final da melhoria humana, às vezes chamado de transhumanismo. Musk disse que seu interesse na ideia surgiu em parte do conceito de ficção científica de “cordão neural” no universo fictício de The Culture (La Cultura), uma série de 10 romances de Iain M. Banks.
Musk definiu o cordão neural como uma “camada digital por cima da corteza” que não implicaria necessariamente uma inserção cirúrgica extensa, mas idealmente um implante através de uma veia ou artéria. Musk explicou que o objetivo a longo prazo é alcançar “simbiose com a inteligência artificial”, que ele vê como uma ameaça existencial para a humanidade se não for controlada. A partir de 2017, algumas neuropróteses podem interpretar sinais cerebrais e permitir que pessoas com deficiência controlem seus braços e pernas protéticos. Musk falou em apontar para vincular essa tecnologia com implantes que, em vez de ativar o movimento, possam interagir em velocidade de banda larga com outros tipos de software e dispositivos externos.
A partir de 2020, a Neuralink tem sua sede no Distrito Mission de San Francisco, compartilhando o antigo edifício da fábrica Pioneer com a OpenAI, outra empresa co-fundada por Musk. Em setembro de 2018, Musk era o proprietário majoritário da Neuralink, mas não ocupava um cargo executivo. O papel de diretor executivo desempenhado por Jared Birchall, que também foi incluído como diretor financeiro e presidente da Neuralink, e como executivo de várias outras empresas que Musk fundou ou cofundou, tem sido descrito como formal. A marca comercial “Neuralink” foi comprada de seus proprietários anteriores em janeiro de 2017.
Em agosto de 2020, apenas dois dos oito cientistas fundadores permaneciam na companhia, segundo um artigo da Stat News que informou que a Neuralink havia vivenciado “anos de conflito interno nos quais prazos acelerados colidiram com o ritmo lento e incremental da ciência”. Com Musk em cena, isso não deveria ter chamado atenção.
Desde sua fundação, a equipe da Neuralink se caracterizou por seu alto grau de discrição na hora de revelar informações, já que a existência da companhia não foi anunciada ao público até 2017, e informações sobre a tecnologia que estavam desenvolvendo não foram reveladas até 2019.
A companhia recebeu 158 milhões de dólares em patrocínio, dos quais 100 milhões foram investidos pelo próprio Musk, e conta com 90 funcionários.
A marca “Neuralink” foi adquirida de seus proprietários anteriores em janeiro de 2017.
A companhia é formada por um grupo de especialistas em distintas áreas, tais como neurociência, bioquímica, robótica, matemática aplicada, maquinário, entre outras. Atualmente, está buscando especialistas em distintas áreas científicas para compor sua equipe.
Seus membros fundadores são:
Elon Musk.
Max Hodak, presidente da companhia. Anteriormente trabalhou no desenvolvimento de interfaces cérebro-computador na Universidade de Duke.
Matthew McDougall, chefe de Neurocirurgia na Neuralink e neurocirurgião no California Pacific Medical Center. Anteriormente estava empregado em Stanford, onde trabalhava em laboratórios que implantavam e projetavam interfaces cérebro-computador.
Vanessa Tolosa, diretora de Interfaces Neurais. Anteriormente dirigia uma equipe de neurotecnologia no Lawrence Livermore National Laboratory que trabalhava com uma grande variedade de tecnologia sobre próteses tecnológicas utilizadas tanto em um âmbito clínico quanto acadêmico.3
DJ Seo, diretor do Sistema de Implantações. Foi o co-inventor do “neural dust”, uma tecnologia que desenvolveu enquanto estudava na UC Berkeley.
Philip Sabes, cientista sênior. Anteriormente era professor de Fisiologia na UC San Francisco e liderava um laboratório que estudava como o cérebro processava sinais sensoriais e motores.
Tim Gardner, professor de biologia na Universidade de Boston que trabalhou na implantação de interfaces cérebro-computador em aves.4
Ben Rapoport, neurocirurgião com um PhD em engenharia elétrica e ciências computacionais do MIT.
Tim Hanson, pesquisador no Berkeley Sensor and Actuator Center.
Neuralink tem como objetivo a curto prazo criar interfaces cérebro-computador que possam tratar diversas doenças causadas por distúrbios neurológicos. Essas interfaces têm o potencial de ajudar pessoas com uma ampla gama de distúrbios clínicos. Pesquisadores demonstraram que, com o uso dessas interfaces, pacientes foram capazes de controlar cursos de computadores, próteses robóticas e sintetizadores de fala, o que demonstra seu potencial uso na área médica para tratar pacientes com deficiências biomecânicas devido a distúrbios neurológicos. Todos os estudos experimentando interfaces cérebro-computador foram realizados com sistemas que não possuem mais de 256 eletrodos. A Neuralink está desenvolvendo um sistema de Interface Cérebro-Computador (BCI, na sigla em inglês), também chamada de BMI (Interface Cérebro-Máquina). Os BCIs (Interfaces Cérebro-Computador) podem ser usados para tratar distúrbios neurológicos e fornecer informações sobre o funcionamento do cérebro. Karageorgos et al. apresentaram o HALO (Arquitetura de Hardware para BCI de Baixa Potência), uma arquitetura para BCI implantáveis, que permite o tratamento de distúrbios como a epilepsia. O HALO também registra/processa dados que podem ser usados para uma melhor compreensão do cérebro. A epilepsia é caracterizada por ataques epilépticos definidos por crises incontroladas e atividade elétrica excessiva nas células do cérebro. As sinais neurais de predição da epilepsia podem ser usados para prever ataques. Quando ocorre um aumento da excitação cerebral, o cérebro precisa de sinapses inibidoras para regular a atividade das células internas. Os BCIs então estimulam eletricamente essas células para reduzir a gravidade das convulsões. No entanto, o tempo entre o início da convulsão até a estimulação deve ser de dezenas de milissegundos. Além disso, é necessário usar hardware de baixo consumo para que a implantação seja segura e efetiva a longo prazo. Enquanto alguns desses estudos têm provado que a troca de informações entre máquinas e cérebros é possível, o desenvolvimento das interfaces cérebro-computador tem sido limitado pela incapacidade de coletar informações de um número maior de neurônios. Por isso, a Neuralink está buscando desenvolver um dispositivo capaz de aumentar consideravelmente a quantidade de neurônios dos quais as informações podem ser extraídas e estimuladas de maneira segura e por longo período. Ou seja, estimular uma maior quantidade de neurônios em várias regiões do cérebro de forma seletiva. Como objetivo a longo prazo, espera-se que as interfaces cérebro-computador se tornem disponíveis para o público geral e sejam integradas como uma tecnologia essencial no cotidiano, assim como hoje todos consideram os telefones móveis e computadores portáteis essenciais no dia a dia. Musk tem declarado frequentemente que acredita que a inteligência artificial (IA) representa um risco para os seres humanos, devido à possibilidade de a IA superar a capacidade humana em determinadas áreas. Para Musk, a melhor solução seria, em vez de continuar a desenvolver sistemas de IA externos aos seres humanos, atingir uma simbiose total com a IA, permitindo à humanidade controlar a tecnologia. Isso seria alcançado ao criar uma camada de IA sobre a córtex cerebral, sistema que a Neuralink está desenvolvendo. O interesse de Musk por interfaces cérebro-computador vem, em parte, da influência de um conceito de ficção científica, conhecido como “Neural Lace”, dentro do universo fictício de La Cultura, uma série de 10 livros escrita por Iain Banks. No futuro, as pessoas poderiam se tornar telepáticas e se comunicar sem palavras, acessando diretamente os pensamentos. Além dos pensamentos, experiências sensoriais poderiam ser comunicadas entre as pessoas, como mensagens neurais, permitindo a transmissão de experiências de audição, visão e paladar. Algo como desfrutar de uma refeição ou saltar de paraquedas poderia ser experimentado virtualmente com sensações reais. Alguns especialistas acreditam que, dentro de 20 anos, seja possível criar imagens dos pensamentos humanos. Os IMCs também poderiam oferecer oportunidades para melhorar o cérebro, tornando-o mais eficiente, seja de forma invasiva ou não invasiva. Os IMCs poderiam ajudar os seres humanos a lembrar mais e melhor, aprender mais rápido, tomar melhores decisões e resolver problemas sem preconceitos causados pelo treinamento convencional. Atualmente, a inteligência artificial (IA) é uma ferramenta importante, permitindo o funcionamento de várias interfaces neuronais. Esses BMI usam IA para converter sinais neurais em dados digitais, como interpretar os comandos do cérebro para mover uma prótese. No futuro, talvez surja uma relação mais compleja entre os IMCs e a IA. As pessoas têm capacidade de decisão e inteligência emocional, enquanto os computadores podem processar consideráveis quantidades de dados rapidamente. Alguns especialistas affirmam que ao integrar a inteligência artificial com a humana por meio de BMI, poderão surgir impactos benéficos para as pessoas. Em 2019, durante uma apresentação ao vivo realizada na Academia de Ciências da Califórnia, o time da Neuralink mostrou um protótipo no qual estava trabalhando. Esse sistema envolve sondas ultrafinas a serem insertadas no cérebro, um robô neurocirúrgico que realiza a operação e um sistema eletrônico de alta densidade capaz de processar as informações extraídas das células nervosas. De acordo com a Neuralink, o sistema que está sendo desenvolvido usará sondas biocompatíveis, que serão implementadas no cérebro por meio de um processo automatizado executado por um robô cirúrgico. Essas sondas têm como objetivo localizar sinais elétricos no cérebro, utilizando uma série de eletrodos conectados a elas. Este experimento já foi realizado com um macaco, que aprendeu a jogar Pong telepaticamente. Musk espera que essa tecnologia seja usada futuramente para ajudar a humanidade a se comunicar de forma telepática. durante 20 segundos
A Neuralink tem como objetivo, a curto prazo, criar interfaces cérebro-computador que possam tratar diferentes doenças causadas por distúrbios neurológicos. Essas interfaces têm o potencial de ajudar pessoas com uma ampla variedade de distúrbios clínicos. Pesquisadores demonstraram que, com o uso delas, pacientes foram capazes de controlar cursores de computadores, próteses robóticas e sintetizadores de fala, o que comprova seu potencial uso na área médica para tratar pacientes que apresentam deficiências devido a distúrbios neurológicos. Todos os estudos experimentando com interfaces cérebro-computador foram realizados utilizando sistemas que não contam com mais de 256 eletrodos.
A Neuralink está construindo um sistema Brain Computer Interface (BCI) completamente integrado, também chamado BMI (Brain-Machine-Interface). Os BCI podem ser usados para tratar distúrbios neurológicos e revelar informações acerca das funções cerebrais. Karageorgos et al. apresentaram o HALO (Arquitetura de hardware para BCI de baixa potência), uma arquitetura para BCI implantáveis que permite o tratamento de distúrbios, como a epilepsia. O HALO também registra e processa dados que podem ser utilizados para uma melhor compreensão do cérebro.
A epilepsia é caracterizada por ataques epilépticos definidos por episódios incontrolados e atividade elétrica excessiva dos neurônios. Os sinais neurais são processados para prever convulsões. Quando ocorre um aumento na excitação cerebral, o cérebro necessita de sinapses inibitórias para atenuar e regular a atividade de outras células. Em seguida, os BCI estimulam eletricamente os neurônios para mitigar a gravidade das convulsões. Contudo, o intervalo entre o início da convulsão e a estimulação deve ser de dezenas de milissegundos. Além disso, é necessário hardware de baixo consumo para uma implantação segura e crônica.
Embora tais estudos tenham demonstrado que é possível a transferência de informação entre máquinas e o cérebro, o desenvolvimento de interfaces cérebro-computador tem sido limitado devido à incapacidade desses sistemas de coletar informações de um número maior de neurônios. Por essa razão, a equipe da Neuralink busca desenvolver um dispositivo capaz de aumentar a ordem de magnitude dos neurônios dos quais se possa extrair informações e estimulá-los de forma segura e duradoura por meio de um procedimento simples e automatizado. Ou seja, coletar informações e estimular seletivamente a maior quantidade possível de neurônios ao longo de várias áreas do cérebro.
Como objetivo a longo prazo, espera-se que as interfaces cérebro-computador estejam disponíveis para o público geral e se integrem como uma tecnologia imprescindível no cotidiano, semelhante à forma como, atualmente, tecnologias como telefones móveis e computadores portáteis são de uso essencial.
Musk declarou em múltiplas ocasiões sua crença de que a inteligência artificial representa um risco para os seres humanos, devido à possibilidade de que ela supere em habilidades a espécie humana. Para ele, a melhor solução para esse problema seria, em vez de continuar desenvolvendo sistemas de IA externos aos seres humanos, alcançar uma simbiose total com a inteligência artificial, de modo que ela possa ser controlada. Isso seria alcançado criando uma camada de inteligência artificial sobre a corteza cerebral, sistema que está sendo desenvolvido com a Neuralink.
O interesse de Musk por interfaces cérebro-computador começou, em parte, devido à influência de um conceito de ficção científica chamado “Neural Lace”, que faz parte do universo fictício descrito em La Cultura, uma série de romances escritos por Iain Banks.
As pessoas poderiam se tornar telepáticas e serem capazes de se comunicar sem palavras, acessando os pensamentos. Além dos pensamentos, as experiências sensoriais poderiam ser comunicadas de humano para humano, como se fossem “cartas neurais”, onde ouvir, ver e saborear algo seria possível. Alternativamente, experiências de vida, como desfrutar de uma refeição ou fazer um salto de paraquedas, poderiam ser vividas virtualmente, oferecendo sensações como se fossem reais. É plausível que, dentro dos próximos 20 anos, seja possível criar imagens do que as pessoas estão pensando.
Os IMC talvez também ofereçam oportunidades para melhorar o próprio cérebro, seja de forma invasiva ou não invasiva. Os IMC poderiam nos ajudar a lembrar mais e melhor, aprender mais rapidamente, tomar melhores decisões e resolver problemas sem vieses, embora isso exija um treinamento rigoroso.
Atualmente, a inteligência artificial (IA) “é uma importante ferramenta tecnológica que permite o funcionamento de muitas interfaces neurais”. Os BMI utilizam IA para converter sinais neurais em dados digitais, por exemplo, para interpretar instruções do cérebro para mover um braço protético. No futuro, poderá surgir uma relação mais complexa entre os IMC e a IA. Os computadores e os cérebros são diferentes, mas podem ser vistos como complementares. Os humanos possuem capacidade de decisão e inteligência emocional, enquanto os computadores têm a capacidade de processar uma quantidade considerável de dados rapidamente. Por isso, vários especialistas em tecnologia acreditam que podem surgir impactos benéficos ao vincular a inteligência humana e a artificial por meio dos BMI.
Em 2019, durante uma apresentação ao vivo realizada na Academia de Ciências da Califórnia, a equipe da Neuralink revelou ao público a tecnologia do primeiro protótipo em que estavam trabalhando. Trata-se de um sistema que envolve sondas ultrafinas que serão inseridas no cérebro, um robô neurocirúrgico que realizará as operações e um sistema eletrônico de alta densidade capaz de processar as informações provenientes dos neurônios.
Segundo a equipe da Neuralink, o sistema que está sendo desenvolvido utilizará sondas biocompatíveis que serão inseridas no cérebro por meio de um processo automatizado realizado por um robô cirúrgico. O objetivo dessas sondas é localizar sinais elétricos no cérebro por meio de uma série de eletrodos conectados a elas. Esse experimento já foi realizado com um macaco, ao qual foram concedidas habilidades para jogar Pong telepaticamente. Elon Musk deseja que esse invento sirva para algo na futura humanidade para possibilitar a comunicação telepática.
As sondas são compostas principalmente de poliamida e recobertas com um fino filme de ouro, ambos materiais biocompatíveis, de modo que as probabilidades de o cérebro as considerar como corpo estranho, e, por consequência, rejeitá-las, diminuem. Cada sonda é composta por uma área de fios que contém eletrodos capazes de localizar sinais elétricos no cérebro e uma área sensorial onde o fio interage com um sistema eletrônico que permite a amplificação e aquisição do sinal cerebral. Cada sonda contém 48 ou 96 fios, cada um com 32 eletrodos independentes, alcançando assim um sistema de até 3072 eletrodos por formação. A grande quantidade de eletrodos que essas sondas contêm permite a aquisição de sinais cerebrais mais precisos e em áreas mais extensas do cérebro. Estudos envolvendo a inserção de sondas no cérebro demonstraram que, devido à rigidez dessas, o corpo as reconhece como material estranho e, em consequência, gera tecido para se livrar delas, tornando-as inutilizáveis a longo prazo. Por essa razão, a Neuralink anunciou que desenvolveu um robô capaz de inserir rapidamente múltiplas sondas flexíveis, minimizando assim os traumatismos que possam desencadear uma reação de rejeição. Esse robô possui uma cabeça de inserção com uma agulha de 40 μm de diâmetro feita de tungstênio-rênio, projetada para se prender aos laços de inserção, feitos para transportar e inserir as sondas individuais, e para penetrar as meninges e o tecido cerebral. O robô é capaz de inserir até 6 sondas (192 eletrodos) por minuto. Para alcançar maior compreensão sobre o funcionamento cerebral, a equipe da Neuralink anunciou que desenvolveu um sistema capaz de converter os sinais elétricos captados pelos eletrodos em informações representadas em código binário. Esse sistema, denominado Circuito Integrado de Aplicação Específica (ASIC), possui uma interface de gravação com 1.536 canais, 256 amplificadores capazes de serem programados individualmente (“pixels análogos”), conversores analógico-digitais dentro do chip (“ADCs”) e um controle de circuito periférico capaz de serializar as informações digitalizadas obtidas. Vários cientistas especialistas em neurologia se pronunciaram sobre a intenção de Musk e dos membros da Neuralink de construir uma interface cérebro-computador. A resposta da comunidade científica tem sido mista. Mary Lou Jepsen, fundadora da Openwater, uma empresa que também trabalha na área de interfaces cérebro-computador com o objetivo de criar um sistema de telepatia, expressou preocupação pelas reações de rejeição que as sondas possam provocar. Thomas Oaxley, CEO da Synchron, uma empresa australiana que também está desenvolvendo um sistema de inserção de sondas cerebrais que evitem qualquer penetração direta com o tecido cerebral, e, portanto, não causem traumatismo, afirma que não se devem esperar resultados eficazes em breve, pois a tecnologia ainda não está suficientemente avançada para isso. No entanto, considera que, dado que Musk está disposto a investir grandes quantias em sua empresa, será “emocionante ver o que ele irá desenvolver”. durante 17 segundos
As sondas são compostas majoritariamente de poliamida e revestidas com um fino filme de ouro, ambos materiais biocompatíveis, de modo que as probabilidades de o cérebro considerá-las como um corpo estranho, e, por conseguinte, rejeitá-las, diminuem.
Cada sonda é composta por uma área de fios que contém eletrodos capazes de localizar sinais elétricos no cérebro, e uma área sensorial onde o fio interage com um sistema eletrônico que permite a amplificação e aquisição do sinal cerebral. Cada sonda contém 48 ou 96 fios, cada um com 32 eletrodos independentes; alcançando assim um sistema de até 3072 eletrodos por formação.
A grande quantidade de eletrodos que essas sondas contêm permite a aquisição de sinais cerebrais mais precisos e em áreas mais extensas do cérebro.
Estudos envolvendo a inserção de sondas no cérebro demonstraram que, devido à rigidez destas, o corpo as reconhece como material estranho e, consequentemente, gera tecido para se livrar delas, o que, a longo prazo, as torna inservíveis. Por essa razão, a Neuralink anunciou que havia desenvolvido um robô capaz de inserir, de forma rápida, múltiplas sondas flexíveis para, assim, minimizar traumatismos que possam desencadear uma reação de rejeição.
Dito robô dispõe de uma cabeça de inserção com uma agulha de 40 μm de diâmetro feita de tungstênio-rênio, projetada para se prender aos laços de inserção, feitos para transportar e inserir sondas individuais, e para penetrar as meninges e o tecido cerebral.
O robô é capaz de inserir até 6 sondas (192 eletrodos) por minuto.
Para alcançar uma melhor compreensão sobre o funcionamento cerebral, a equipe da Neuralink anunciou que havia desenvolvido um sistema capaz de converter os sinais elétricos captados pelos eletrodos em informação representada em código binário.
Dito sistema, denominado Circuito Integrado de Aplicação Específica (ASIC, pelas siglas em inglês), conta com uma interface de gravação de 1.536 canais, 256 amplificadores capazes de ser programados individualmente (“píxeis analógicos”), conversores analógico-digitais dentro do chip (“ADCs”) e um controle de circuito periférico capaz de serializar a informação digitalizada obtida.
Vários cientistas especialistas em neurologia se pronunciaram sobre a intenção de Musk e dos membros da Neuralink de construir uma interface cérebro-computador. A resposta da comunidade científica tem sido mista. Mary Lou Jepsen, fundadora da Openwater, uma companhia que também atua na área das interfaces cérebro-computador com o objetivo de criar um sistema de telepatia, expressou preocupação com as reações de rejeição que as sondas possam ocasionar. Thomas Oaxley, CEO da Synchron, companhia australiana que também está desenvolvendo um sistema para inserir sondas cerebrais que evite qualquer penetração direta no tecido cerebral, e, por conseguinte, não cause traumatismos, diz que não se devem esperar resultados efetivos em breve, pois a tecnologia não é suficientemente avançada para alcançá-lo. No entanto, ele considera que, visto que Musk está disposto a investir grandes quantias de dinheiro em sua empresa, será “emocionante ver o que venha a desenvolver”.
O AUGE DA INTELIGÊNCIA ARTIFICIAL. A AUTOMATIZAÇÃO PODERÁ REDEFINIR O MERCADO DE TRABALHO SEM DEIXAR NINGUÉM PARA TRÁS?
Os especialistas acreditam que a IA automatizará parcialmente os empregos impactados, ao mesmo tempo em que promoverá o surgimento de novos perfis profissionais. Paralelamente, será necessário enfrentar desafios como a requalificação profissional e as questões éticas.
O AUGE DA INTELIGÊNCIA ARTIFICIAL. A AUTOMATIZAÇÃO PODERÁ REDEFINIR O MERCADO DE TRABALHO SEM DEIXAR NINGUÉM PARA TRÁS?
Quase todas as atividades profissionais possuem processos que podem ser automatizados para alcançar maior eficiência. Embora o uso da tecnologia não seja novidade em nenhum setor, há uma expansão crescente da inteligência artificial (IA) para economizar tempo e custos, ao mesmo tempo em que aumenta a produtividade.
Recentemente, com a chegada da IA generativa ao grande público — como o ChatGPT —, essa tendência afeta tanto empregos intelectuais quanto físicos. Diante dessa nova realidade no mercado de trabalho, já surgem vozes a favor e contra a robotização devido ao seu impacto no setor profissional. Paralelamente, crescem os debates sobre como capacitar os trabalhadores e quais são as implicações éticas dessa convivência entre humanos e máquinas inteligentes.
A relevância deste momento histórico exige um contínuo intercâmbio de opiniões qualificadas. Por isso, El Confidencial organizou uma mesa-redonda com o tema “O futuro do trabalho: automação para mais e melhor emprego”. O painel de especialistas contou com representantes de empresas impactadas pela robotização e IA, companhias de tecnologia e acadêmicos especializados. Entre os participantes estavam:
Iñaki Ugarte, diretor-geral de Operações de Primeira Milha da Amazon Espanha;
Belén Martín, vice-presidente de Cloud Híbrida da IBM Consulting;
Manuel Espiñeira, diretor de Soluções Digitais da Minsait (Indra);
Ignacio López Sánchez, professor catedrático de Organização de Empresas da Universidade Complutense de Madri (UCM).
Os três fatores que aceleram a automação
Para contextualizar o boom da automação, Iñaki Ugarte apontou três fatores que impulsionam sua disseminação:
Novas tecnologias, como a era digital e o big data;
Gerações Millennials e Z, que já são trabalhadores migrantes ou nativos digitais;
Contexto internacional, marcado pelo pós-pandemia e pelo cenário geopolítico, que obrigam a relocalizar a indústria.
Sobre o receio de que a robotização elimine empregos, Ugarte foi direto: “Longe de reduzir o número de empregos, na verdade estamos criando novos postos de trabalho”.
Os novos empregos criados pela IA
A dúvida que surge é quais tipos de empregos estão sendo gerados com a chegada da IA no mercado de trabalho. Belén Martín trouxe exemplos concretos:
“Prompt engineer” (engenheiro de prompts): profissionais especializados em formular perguntas eficientes para inteligências artificiais.
“Treinador ético de algoritmos”: responsável por evitar vieses sociais nos sistemas de IA.
Martín destacou que não são apenas cargos para áreas de exatas (como ciência, tecnologia, engenharia e matemática). Profissionais de humanidades, como linguistas e filósofos, também terão um papel fundamental.
“Nos últimos três meses, surgiram perfis como o ‘prompt engineer’ e o treinador ético de algoritmos” – Belén Martín (IBM).
Automação parcial e o futuro das profissões
Segundo Manuel Espiñeira, da Minsait, a automação será parcial na maioria dos empregos. Ele explicou:
60% dos postos de trabalho podem ter parte de suas tarefas automatizadas.
Apenas 7% dos empregos são automatizáveis em mais de 50% de seus processos.
Espiñeira citou um exemplo histórico: na década de 1950, um relatório dos EUA listava 270 profissões que poderiam desaparecer com a automação. No fim, apenas a profissão de ascensorista deixou de existir.
O especialista reforçou que a IA não substituirá profissões inteiras, mas aprimorará a tomada de decisões. “Um médico, por exemplo, pode usar IA para obter um diagnóstico mais preciso, mas a profissão de médico continuará existindo“, afirmou.
O professor Ignacio López Sánchez concordou: “Tarefas repetitivas são mais fáceis de automatizar, mas muitas funções exigem raciocínio e não serão substituídas”. Segundo ele, a questão central é:
“Seremos capazes de oferecer aos trabalhadores a formação necessária para essas novas funções? O que acontecerá com aqueles cujos empregos desaparecerão? Eles poderão ser reciclados e treinados para os novos perfis?”
Requalificação profissional, flexibilidade educacional e ética
Para Iñaki Ugarte, a transformação digital não pode deixar ninguém para trás. No entanto, o grande desafio é o sistema educacional, que precisa se adaptar rapidamente às novas demandas.
Belén Martín concordou e ressaltou que “requalificar trabalhadores é a única maneira de preservar empregos e, ao mesmo tempo, fortalecer o senso de pertencimento dentro das empresas”.
Diante desse cenário, a automação se apresenta não como uma ameaça, mas como um agente de transformação, onde a formação contínua e a supervisão ética desempenharão um papel essencial na construção do futuro do trabalho.
““60% dos empregos automatizarão parte de suas tarefas, mas apenas 7% o farão em mais de 50% de seus processos”, Manuel Espiñeira (Minsait)
Para evidenciar o quórum nesse tema, Manuel Espiñeira também apontou que “o currículo acadêmico requer mais flexibilidade, especialmente quando afeta novas tecnologias”. “Até o momento, o sistema universitário ensina a pensar, mas são as empresas que ensinam a colocar em prática o que foi aprendido”, ressaltou. Esse raciocínio foi complementado por seu colega de debate, López Sánchez, ao reivindicar que “as adaptações deveriam ser rápidas, assim como a identificação de quais cargos são demandados. Isso não podemos fazer a partir do ambiente acadêmico, são as empresas que devem colocar sobre a mesa suas necessidades, como geradoras de riqueza e emprego que são, e comunicá-las às universidades. Ainda assim” — insistiu o catedrático da UCM — “continuará existindo, pelo menos por enquanto, o problema de que os ensinos regulamentados são especialmente difíceis de modificar na Espanha e na Europa”.
Na última parte do debate, surgiu um tema clássico quando se fala de automatização e IA: as implicações éticas. “Ficou demonstrado que, ao treinar inteligências artificiais, são transferidos os vieses sociais que nós, seres humanos, temos. Ficam marcas do desenvolvedor na própria tecnologia. Existem muitos exemplos disso nas últimas décadas. Um dos maiores desafios é, precisamente, garantir que isso não aconteça”, admitiu Belén Martín. Como solução para esse problema, Iñaki Ugarte aconselhou “usar as pessoas como ferramentas, ou seja, formar grupos variados e representativos nos quais a diversidade social esteja garantida para evitar a transferência de vieses à IA”.
Outra solução complementar, desta vez apontada por Ignacio López Sánchez, é “criar organismos supervisores, como já acontece em outros âmbitos onde existem entidades como a Comissão Nacional do Mercado de Valores ou o Banco Central Europeu, por exemplo. Mas, sim, trataria-se de supervisionar, não de regular”. Manuel Espiñeira endossou suas palavras e acrescentou que “a regulação excessiva pode limitar o próprio desenvolvimento da IA e outras tecnologias associadas”. Para concluir, o especialista da Minsait explicou que “o verdadeiro desafio é alcançar um ponto de equilíbrio em matéria de regulação”.
Equipe de análise do Laboratório do Futuro. Encontro – Mesa Redonda do jornal El Confidencial, Espanha – Tema: A ascensão da IA: A automação poderá redefinir o mercado de trabalho sem deixar ninguém para trás?
UMA VISÃO FILOSÓFICA DA INTELIGÊNCIA ARTIFICIAL “DEMOCRACIAS FRACAS, CAPITALISMO E INTELIGÊNCIA ARTIFICIAL SÃO UMA COMBINAÇÃO PERIGOSA”
Mark Coeckelbergh: “Democracias fracas, capitalismo e inteligência artificial são uma combinação perigosa”. O filósofo aponta que as instituições devem recorrer a especialistas para regular a tecnologia, mas sem esquecer os cidadãos.
Mark Coeckelbergh atraiu a atenção de um público pouco acostumado a debates filosóficos: alunos de engenharia lotaram uma sala para ouvir este especialista em ética da tecnologia, convidado pelo Instituto de Robótica e Informática Industrial da Universitat Politècnica de Catalunya. Coeckelbergh, autor prolífico — dois de seus livros foram publicados em espanhol pela editora Cátedra, Ética da Inteligência Artificial (2021) e Filosofia Política da Inteligência Artificial (2023) — sabe o quão importante é construir pontes entre aqueles que desenvolvem tecnologias e aqueles que devem pensar em como usá-las.
Pergunta. Os estudantes, engenheiros e as grandes empresas de tecnologia levam em conta os aspectos éticos da inteligência artificial (IA)?
Resposta. As pessoas estão cientes de que essa tecnologia afetará nossas vidas, porque ela já está presente em todos os lugares, mas, ao mesmo tempo, estamos confusos, pois as mudanças são muito rápidas e complexas. Por isso, acredito que é importante que, desde a educação e a pesquisa, façamos o possível para buscar um caminho interdisciplinar, entre a filosofia, a programação e a robótica, para tentar resolver esses problemas éticos.
Pergunta. E em relação à política?
Resposta. Sim, precisamos criar mais vínculos entre especialistas e políticos, mas sem que apenas a opinião técnica seja levada em conta. Devemos pensar em como organizar nossa democracia para que a visão dos especialistas seja considerada, mas que as decisões continuem sendo nossas. As empresas de tecnologia estão cada vez mais poderosas, e isso é um problema, pois a soberania das nações e das cidades está diminuindo. Quanto do nosso futuro tecnológico devemos deixar nas mãos da iniciativa privada e quanto deve ser público e controlado pelas democracias?
Pergunta. A inteligência artificial é uma ameaça para a democracia ou as democracias já estão enfraquecidas?
Resposta. A democracia já é vulnerável porque, na verdade, não temos democracias completas. É como quando perguntaram a Gandhi o que ele achava da civilização ocidental e ele disse que era uma boa ideia. O mesmo acontece com a democracia: é uma boa ideia, mas não está completa. Para mim, não basta votar e eleger maiorias, pois esse sistema é muito vulnerável ao populismo, não é suficientemente participativo e não leva os cidadãos a sério. Falta educação e conhecimento para alcançar uma democracia real, e o mesmo ocorre na tecnologia. As pessoas precisam entender que a tecnologia também é política e se perguntar se é bom para a democracia que infraestruturas de comunicação, como o Twitter, estejam em mãos privadas.
Pergunta. De que forma a inteligência artificial ameaça a democracia?
Resposta. Estamos lidando com a tecnologia sem reflexão, usamos de forma acrítica, mas ela nos molda e nos usa como instrumentos de poder, controle e exploração dos nossos dados. Enquanto poucos lucram, o resto de nós é explorado por meio dos dados. Isso afeta as democracias, pois, por não serem muito resilientes, as tendências políticas se polarizam ainda mais com a tecnologia. Essa combinação de democracias frágeis, capitalismo e inteligência artificial é perigosa. No entanto, acredito que a IA pode ser usada de maneira mais construtiva, para melhorar a vida de todos e não apenas de alguns.
Pergunta. Alguns veem a inteligência artificial como uma forma de trabalhar menos e ter mais liberdade, enquanto outros a consideram uma ameaça para seus empregos.
Resposta. Acho que a inteligência artificial, neste momento, fortalece quem já tem uma posição privilegiada ou uma boa educação. Por exemplo, essas pessoas podem usá-la para abrir uma empresa. Mas haverá mudanças no mercado de trabalho, uma certa transformação da economia, e precisamos nos preparar. Por outro lado, o argumento de que a tecnologia torna as coisas mais fáceis… Até agora, ela gerou empregos precários, como os motoristas de Uber, e também empregos que podem ser bons, mas são estressantes. Por exemplo, todos somos escravos do e-mail, que chegou como uma solução.
Pergunta. Então, o problema não é tanto a tecnologia, mas o sistema?
Resposta. É a combinação das duas coisas, mas, de fato, essas novas possibilidades tecnológicas nos forçam a questionar o sistema mais do que nunca. Hoje, é no campo da tecnologia que ocorrem os grandes conflitos políticos.
Pergunta. Qual é o impacto da inteligência artificial na mídia?
Resposta. Nesse contexto, o problema não é que as pessoas acreditem em uma mentira, mas sim que não saibam distinguir o que é mentira e o que é verdade. O jornalismo de qualidade é muito importante para fornecer contexto e ajudar a entender o mundo. Acredito que pode ajudar as pessoas a terem mais conhecimento, mesmo que a inteligência artificial seja usada para algumas tarefas do ofício. Filósofos, jornalistas e educadores devem fornecer ferramentas para interpretar o mundo, porque quando falta conhecimento e reina a confusão, é mais fácil que surja um líder com uma solução simples e populista, como já aconteceu em alguns países da Europa.
Pergunta. A tecnologia pode fazer com que os governos se tornem mais tecnocráticos?
Resposta. Os políticos estão confusos, sentem a pressão dos lobbies e criam marcos regulatórios, mas os cidadãos nunca têm voz nesse processo. Os Estados se tornam cada vez mais burocráticos porque concedem poder a quem controla a inteligência artificial. Então, quem é o responsável? Esse tipo de sistema, como disse Hannah Arendt, leva a horrores. Devemos combater isso com regulamentações que permitam entender por que os algoritmos tomam certas decisões e identificar quem é o responsável.
Equipe de análise do Laboratório do Futuro. Artigo/Reportagem de Josep Cata Figuls.
A RÁPIDA REGULAÇÃO DA INTELIGÊNCIA ARTIFICIAL NA REPÚBLICA POPULAR DA CHINA
O rascunho da regulamentação como uma mistura de restrições sensatas sobre os riscos da IA e uma continuação da forte tradição do governo chinês de intervenção agressiva na indústria tecnológica.
Em abril (2023), houve um grande desenvolvimento no espaço da Inteligência Artificial na China. O regulador chinês da Internet publicou um rascunho de regulamento sobre Inteligência Artificial generativa. Denominado “Medidas para a Gestão de Serviços de Inteligência Artificial Generativa”, o documento não menciona nenhuma empresa específica, mas a forma como está redigido deixa claro que foi inspirado no lançamento incessante de chatbots de modelos de linguagem grande na China e nos Estados Unidos.
Na semana passada, participei do podcast da CBC News “Nothing Is Foreign” para falar sobre o rascunho da regulamentação e o que significa para o governo chinês tomar medidas tão rápidas em uma tecnologia ainda muito nova.
Como disse no podcast, vejo o rascunho da regulamentação como uma mistura de restrições sensatas sobre os riscos da IA e uma continuação da forte tradição do governo chinês de intervenção agressiva na indústria tecnológica.
Muitas das cláusulas do rascunho do regulamento são princípios que os críticos da IA defendem no Ocidente: os dados usados para treinar modelos generativos de IA não devem infringir a propriedade intelectual ou a privacidade; os algoritmos não devem discriminar os usuários por motivos de raça, etnia, idade, gênero e outros atributos; as empresas de IA devem ser transparentes sobre como obtiveram os dados de treinamento e como contrataram humanos para rotular os dados.
Ao mesmo tempo, há regras que outros países provavelmente rejeitariam. O governo exige que as pessoas que usam essas ferramentas generativas de inteligência artificial se registrem com sua identidade real, assim como em qualquer plataforma social na China. O conteúdo gerado pelo software de IA também deve “refletir os valores fundamentais do socialismo”.
Nenhum desses requisitos é surpreendente. O governo chinês tem regulado com mão pesada as empresas de tecnologia nos últimos anos, punindo plataformas por moderação frouxa e incorporando novos produtos ao regime de censura estabelecido.
O documento torna essa tradição regulatória fácil de ver: há menção frequente a outras regras que foram aprovadas na China, sobre dados pessoais, algoritmos, deepfakes, cibersegurança, etc. De certa forma, parece que esses documentos distintos estão lentamente formando uma rede de regras que ajudam o governo a lidar com novos desafios na era tecnológica.
O fato de que o governo chinês pode reagir tão rapidamente a um novo fenômeno tecnológico é uma faca de dois gumes. A força dessa abordagem, que analisa cada nova tendência tecnológica separadamente, “está na precisão, criando soluções específicas para problemas específicos”, escreveu Matt Sheehan, membro da Carnegie Endowment for International Peace. “A fraqueza está na sua natureza fragmentada, com os reguladores sendo forçados a redigir novas regulamentações para novas aplicações ou problemas”. Se o governo estiver ocupado jogando whack-a-mole com novas regras, pode perder a oportunidade de pensar estrategicamente sobre uma visão de longo prazo da IA. Podemos contrastar essa abordagem com a da UE, que tem trabalhado há anos em uma Lei de Inteligência Artificial “enormemente ambiciosa”, como explicou recentemente minha colega Melissa. (Uma revisão recente do rascunho da Lei de IA incluiu regulamentações sobre IA generativa).
Há um ponto que não mencionei no podcast, mas que acho fascinante. Apesar da natureza restritiva do documento, ele também é um estímulo tácito para que as empresas continuem trabalhando com IA. A multa máxima proposta por violar as regras é de 100.000 RMB, cerca de 15.000 dólares, uma quantia insignificante para qualquer empresa que tenha a capacidade de construir grandes modelos de linguagem.
Claro, se uma empresa for multada toda vez que seu modelo de IA violar as regras, os valores podem se acumular. Mas o tamanho da multa sugere que as regras não foram feitas para assustar as empresas e impedir que invistam em IA. Como escreveu recentemente Angela Zhang, professora de direito na Universidade de Hong Kong, o governo está desempenhando múltiplos papéis: “O governo chinês não deve ser visto apenas como um regulador, mas também como um defensor, patrocinador e investidor em IA. Os ministérios que defendem o desenvolvimento da IA, juntamente com os patrocinadores e investidores estatais, estão preparados para se tornar um potente contrapeso contra a regulamentação rígida da IA”.
Podem levar alguns meses até que os reguladores finalizem o rascunho, e mais alguns meses até que entre em vigor. Mas sei que muitas pessoas, incluindo eu, estarão atentas a qualquer mudança.
Quem sabe? Quando a regulamentação entrar em vigor, pode haver outro novo produto viral de Inteligência Artificial que obrigue o governo a elaborar ainda mais regras.
Equipe de análise do Laboratório do Futuro/publicação do MIT – Massachusetts Institute of Technology (Estados Unidos).
Artigo de Zeyi Yang.
Tradução do inglês: equipe de tradução e interpretação do Laboratório do Futuro.
Pausar os desenvolvimentos de IA não é suficiente. Precisamos encerrar tudo
Yudkowsky é um teórico da decisão dos EUA e lidera pesquisas no Instituto de Pesquisa de Inteligência de Máquinas. Ele tem trabalhado na aliança da Inteligência Geral Artificial desde 2001 e é amplamente considerado um dos fundadores do campo.
Uma carta aberta publicada no final de maio de 2023 pede que “todos os laboratórios de IA pausem imediatamente, por pelo menos 6 meses, o treinamento de sistemas de IA mais poderosos que o GPT-4”.
Essa moratória de 6 meses seria melhor do que nenhuma moratória. Tenho respeito por todos que se manifestaram e assinaram. É uma melhoria marginal.
Eu me abstive de assinar porque acredito que a carta subestima a gravidade da situação e pede muito pouco para resolvê-la.
A questão-chave não é a inteligência “competitiva com a humana” (como diz a carta aberta); é o que acontece depois que a IA alcança uma inteligência superior à humana. Os limiares críticos podem não ser óbvios, definitivamente não podemos calcular de antemão o que acontece e quando, e atualmente parece possível que um laboratório de pesquisa cruze linhas críticas sem perceber.
Muitos pesquisadores imersos nesses temas, incluindo eu, esperam que o resultado mais provável de construir uma IA super-humanamente inteligente, sob qualquer circunstância remotamente parecida com as atuais, seja que, literalmente, todos na Terra morram. Não como em “talvez, possivelmente, uma chance remota”, mas como em “isso é o que obviamente aconteceria”. Não é que, em princípio, não seja possível sobreviver criando algo muito mais inteligente do que você; é que isso exigiria precisão, preparação e novos conhecimentos científicos, além de, provavelmente, não ter sistemas de IA compostos por conjuntos gigantescos e inescrutáveis de números fracionários.
Sem essa precisão e preparação, o resultado mais provável é uma IA que não faz o que queremos e não se importa conosco ou com a vida senciente em geral. Esse tipo de preocupação é algo que, em princípio, poderia ser incorporado a uma IA, mas não estamos prontos e atualmente não sabemos como fazer isso.
Na ausência dessa preocupação, o que acontece é que “a IA não te ama, nem te odeia, e você é feito de átomos que ela pode usar para outra coisa”.
O resultado provável da humanidade enfrentando uma inteligência sobre-humana hostil é uma perda total. As metáforas válidas incluem “uma criança de 10 anos tentando jogar xadrez contra o Stockfish 15”, “o século XI tentando lutar contra o século XXI” e “Australopithecus tentando lutar contra o Homo sapiens”.
Para visualizar uma IA sobre-humana hostil, não imagine um pensador inteligente e sem vida vivendo na Internet e enviando e-mails mal-intencionados. Imagine uma civilização alienígena inteira, pensando milhões de vezes mais rápido que os humanos, inicialmente confinada a computadores, em um mundo de criaturas que são, de sua perspectiva, extremamente estúpidas e lentas. Uma Inteligência Artificial suficientemente inteligente não permanecerá confinada aos computadores por muito tempo. No mundo atual, ela pode enviar sequências de DNA por e-mail para laboratórios que produzem proteínas sob demanda, permitindo que uma IA inicialmente confinada à Internet construa formas de vida artificiais ou inicie diretamente a fabricação molecular pós-biológica.
Se alguém criar uma IA muito poderosa nas condições atuais, espero que todos os membros da espécie humana e toda a vida biológica na Terra morram pouco depois.
Não há um plano proposto sobre como poderíamos fazer tal coisa e sobreviver. A intenção abertamente declarada da OpenAI é fazer com que alguma futura IA realize nossa tarefa de alinhamento de IA. Apenas ouvir que esse é o plano deveria ser suficiente para que qualquer pessoa sensata entrasse em pânico. O outro laboratório líder em IA, DeepMind, não tem nenhum plano.
Um parêntese: nada desse perigo depende de as IAs serem ou poderem ser conscientes; ele é intrínseco à noção de sistemas cognitivos poderosos que otimizam e calculam resultados que atendem a critérios suficientemente complexos. Dito isso, seria negligente em meus deveres morais como humano se eu não mencionasse também que não temos ideia de como determinar se os sistemas de IA são conscientes, já que não sabemos decodificar nada do que acontece nas gigantescas matrizes inescrutáveis. Assim, em algum momento, sem percebermos, podemos criar mentes digitais que são verdadeiramente conscientes e deveriam ter direitos e não deveriam ser propriedade de ninguém.
A regra que a maioria das pessoas conscientes desses problemas teria apoiado 50 anos atrás era que, se um sistema de IA pode falar fluentemente e diz que é autoconsciente e exige direitos humanos, isso deveria ser um obstáculo para que as pessoas simplesmente possuíssem essa Inteligência Artificial e a utilizassem além desse ponto. Já ultrapassamos essa antiga linha na areia. E provavelmente isso foi correto. Concordo que as IAs atuais provavelmente estão apenas imitando a conversa sobre autoconsciência de seus dados de treinamento. Mas destaco que, com o pouco entendimento que temos dos mecanismos internos desses sistemas, na verdade, não sabemos.
Se esse é o nosso estado de ignorância para o GPT-4, e o GPT-5 for um salto de capacidade tão grande quanto foi do GPT-3 para o GPT-4, acredito que não poderemos mais dizer com justificativa que “provavelmente não é autoconsciente” se permitirmos que fabriquem o GPT-5. Simplesmente será “Não sei; ninguém sabe”. Se você não pode ter certeza se está criando uma IA autoconsciente, isso é alarmante não apenas pelas implicações morais da parte “autoconsciente”, mas porque não ter certeza significa que você não faz ideia do que está fazendo. E isso é perigoso, e você deveria parar.
Em 7 de fevereiro, Satya Nadella, CEO da Microsoft, vangloriou-se publicamente de que o novo Bing faria o Google “sair e provar que pode dançar”. “Quero que as pessoas saibam que os fizemos dançar”, disse ele.
Não é assim que o CEO da Microsoft falaria em um mundo racional. Isso mostra um abismo esmagador entre a seriedade com que estamos tratando o problema e a seriedade com que deveríamos ter tratado há 30 anos.
Não vamos fechar esse abismo em seis meses.
Passaram-se mais de 60 anos desde que a noção de inteligência artificial foi proposta e estudada pela primeira vez até alcançarmos as capacidades atuais. Resolver a segurança da inteligência sobre-humana, não a segurança perfeita, mas a segurança no sentido de “não matar literalmente a todos”, poderia levar razoavelmente pelo menos metade desse tempo. E o problema de tentar isso com inteligência sobre-humana é que, se você errar na primeira tentativa, não pode aprender com os erros, porque está morto. A humanidade não aprende com o erro, se levanta e tenta de novo, como em outros desafios que superamos na nossa história, porque todos nós teremos desaparecido.
Tentar fazer algo certo na primeira tentativa realmente crítica é uma tarefa extraordinária, tanto na ciência quanto na engenharia. Não estamos chegando nem perto do nível de rigor necessário para fazê-lo com sucesso. Se aplicássemos ao campo emergente da Inteligência Geral Artificial os padrões mínimos de rigor de engenharia que são aplicados a uma ponte projetada para transportar alguns milhares de carros, todo o campo seria fechado amanhã.
Não estamos preparados. Não estamos no caminho para estarmos preparados dentro de um período razoável. Não há um plano. O progresso nas capacidades da IA é enorme, muito à frente do progresso na sua alinhamento ou mesmo da compreensão do que diabos está acontecendo dentro desses sistemas. Se realmente fizermos isso, todos nós morreremos.
Muitos pesquisadores que trabalham nesses sistemas acreditam que estamos avançando rumo a uma catástrofe, e mais deles ousam dizer isso em particular do que em público; mas acreditam que não podem impedir unilateralmente essa queda para frente, pois outros continuarão mesmo que renunciem aos seus empregos. E então todos pensam que também podem continuar. Este é um estado de coisas estúpido e uma maneira indigna para a Terra morrer, e o resto da humanidade deveria intervir neste ponto e ajudar a indústria a resolver seu problema de ação coletiva.
Alguns dos meus amigos me informaram recentemente que, quando pessoas de fora da indústria de IA ouvem pela primeira vez sobre o risco de extinção da Inteligência Geral Artificial, sua reação é “talvez não devêssemos construir AGI, então”.
Ouvir isso me deu um pequeno lampejo de esperança, porque é uma reação mais simples, mais sensata e francamente mais racional do que qualquer outra que ouvi nos últimos 20 anos tentando fazer alguém na indústria levar isso a sério. Qualquer pessoa que fale assim merece ouvir quão grave é a situação na realidade, e não ser informada de que uma moratória de seis meses resolverá o problema.
Em 16 de março, minha parceira me enviou este e-mail. (Mais tarde, ela me deu permissão para compartilhá-lo aqui).
“Nina perdeu um dente! Da maneira normal que as crianças perdem, não por descuido! Ver o GPT-4 superar aqueles testes padronizados no mesmo dia em que Nina atingiu um marco da infância provocou uma onda emocional que me fez perder a cabeça por um minuto. Tudo está indo rápido demais. Tenho medo de que compartilhar isso aumente sua própria dor, mas prefiro que você me conheça do que cada um de nós sofra sozinho.”
Quando a conversa interna gira em torno da dor de ver sua filha perder seu primeiro dente e pensar que ela pode não ter a chance de crescer, acredito que já passamos do ponto de jogar xadrez político sobre uma moratória de seis meses.
Se houvesse um plano para a Terra sobreviver e bastasse aprovar uma moratória de seis meses, eu apoiaria esse plano. Mas não há tal plano.
Isto é o que realmente precisaria ser feito:
A moratória sobre novos grandes treinamentos deve ser indefinida e mundial. Não pode haver exceções, nem mesmo para governos ou militares. Se a política começar pelos EUA, a China deve ver que os EUA não estão buscando uma vantagem, mas tentando impedir uma tecnologia terrivelmente perigosa que não pode ter um verdadeiro dono e que matará todos nos EUA, na China e na Terra. Se eu tivesse liberdade infinita para redigir leis, poderia fazer uma única exceção para que Inteligências Artificiais fossem treinadas exclusivamente para resolver problemas em biologia e biotecnologia, sem serem treinadas com textos da internet, e não em um nível onde começam a falar ou planejar; mas se isso complicasse minimamente o problema, eu descartaria imediatamente essa proposta e simplesmente diria para desligar tudo.
Desliguem todos os grandes clusters de GPU (as grandes fazendas de computadores onde as IAs mais poderosas são refinadas). Fechem todas as grandes corridas de treinamento. Imponham um limite à quantidade de poder computacional que qualquer um pode usar para treinar um sistema de IA e reduzam-no ao longo dos próximos anos para compensar algoritmos de treinamento mais eficientes. Sem exceções para governos e militares. Façam acordos multilaterais imediatos para impedir que atividades proibidas sejam transferidas para outros lugares. Acompanhem todas as GPUs vendidas. Se a inteligência indicar que um país fora do acordo está construindo um cluster de GPU, tenham menos medo de um conflito armado entre nações do que da violação da moratória; estejam dispostos a destruir um centro de dados rebelde por meio de um ataque aéreo.
Não enquadrem isso como um conflito entre interesses nacionais, deixem claro que qualquer um que fale sobre corridas armamentistas é um tolo. O fato de vivermos ou morrermos juntos nisso não é uma política, mas um fato da natureza. Deixem explícito na diplomacia internacional que a prevenção de cenários de extinção da IA é considerada uma prioridade acima da prevenção de um intercâmbio nuclear total, e que países aliados com armas nucleares estão dispostos a correr algum risco de confronto nuclear se isso for necessário para reduzir o risco de grandes corridas de treinamento de IA.
Esse é o tipo de mudança política que faria com que minha parceira e eu nos abraçássemos e disséssemos que um milagre aconteceu, e agora existe uma chance de Nina viver. As pessoas sensatas que ouvem sobre isso pela primeira vez e dizem com razão “talvez não devêssemos” merecem ouvir, honestamente, o que seria necessário para que isso acontecesse. E quando a sua proposta de política é tão grande, a única maneira de que ela seja aprovada é se os legisladores perceberem que, se continuarem fazendo negócios como de costume e adotando o que é politicamente fácil, isso significará que seus próprios filhos também morrerão.
Não estamos prontos. Não estamos no caminho para estarmos significativamente mais preparados no futuro previsível. Se continuarmos com isso, todos morreremos, inclusive as crianças que não escolheram isso e que não fizeram nada de errado.
Equipe de análise do Laboratório do Futuro/Revista Time (Inglaterra). Artigo de Eliezer Yudkowsky.
Tradução do inglês: equipe de tradução e interpretação do Laboratório do Futuro.