O tema da Inteligência Artificial, com seu enorme alcance e o pouco que na realidade sabemos – em muitos casos ainda estamos na fase intuitiva – deu origem a uma autêntica catarata de estudos, opiniões, controvérsias e debates acalorados que praticamente ocorrem diariamente.
Nosso Laboratório entende que um dos melhores serviços que pode prestar a todas aquelas pessoas e organizações que acompanham nosso trabalho é oferecer uma Série selecionada dessas opiniões, posições e debates, atualizados praticamente no dia em que acontecem, para manter genuinamente informados aqueles que estão atentos ao que está acontecendo e à nossa visão.
Aliás, o Laboratório está trabalhando em seu Microlab de Inteligência Artificial e oportunamente divulgará suas conclusões e percepções, mas a urgência do tema não permite muitas demoras. Essa é a razão pela qual hoje iniciamos uma Série, a de Inteligência Artificial, que esperamos seja o fermento de análise, reflexão e conclusões sobre a projeção que um tema dessa magnitude nos obriga a abordar. Ninguém, nem governos, nem organismos internacionais, nem organismos regionais, think tanks e indivíduos podem permanecer indiferentes à sua evolução.
Como sempre, esperamos que nosso serviço possa ser útil.
BBC: As 3 etapas da Inteligência Artificial (IA), em qual estamos e por que muitos pensam que a terceira pode ser fatal.
Desde que foi lançado no final de novembro de 2022, o ChatGPT, o chatbot que usa inteligência artificial (IA) para responder perguntas ou gerar textos sob demanda de usuários, se tornou o aplicativo de internet com o crescimento mais rápido da história.
A adoção massiva do GPT marca um recorde dentro dos instrumentos da internet e suas consequências são palpáveis:
Em apenas dois meses, o aplicativo chegou a ter 100 milhões de usuários ativos. Para o popular TikTok, demorou nove meses para alcançar essa marca. E para o Instagram, dois anos e meio, segundo dados da empresa de monitoramento tecnológico Sensor Town.
“Nos 20 anos em que acompanhamos a internet, não conseguimos lembrar de um aumento mais rápido de um aplicativo de internet para consumidores”, afirmaram analistas do UBS (União dos Bancos Suíços), que reportaram o recorde em fevereiro de 2023.
A popularidade massiva do ChatGPT, desenvolvido pela empresa OpenAI, com o apoio financeiro da Microsoft, despertou todo tipo de discussões e especulações sobre o impacto que já está tendo e terá em nosso futuro próximo a inteligência artificial generativa.
Trata-se do ramo da IA que se dedica a gerar conteúdo original a partir de dados existentes (geralmente extraídos da internet) em resposta a instruções de um usuário.
Os textos (de ensaios, poesias e piadas até códigos de computação) e imagens (diagramas, fotos, obras de arte de qualquer estilo e muito mais) produzidos por IAs generativas como o ChatGPT, DALL-E, Bard e AlphaCode – para citar apenas algumas das mais conhecidas – são, em alguns casos, tão indistinguíveis do trabalho humano, que já foram usados por milhares de pessoas para substituir seu trabalho habitual.
Desde estudantes que usam para fazer os deveres até políticos que encomendam seus discursos – o Representante Democrata Jake Auchincloss estreou o recurso no Congresso dos EUA – ou fotógrafos que inventam fotos de coisas que não aconteceram (e até ganham prêmios por isso, como o alemão Boris Eldagsen, que conquistou o primeiro lugar no último Sony World Photography Award por uma imagem criada por IA).
Esta mesma nota poderia ter sido escrita por uma máquina e provavelmente você não perceberia.
O fenômeno levou a uma revolução nos recursos humanos, com empresas como o gigante tecnológico IBM anunciando que deixará de contratar pessoas para preencher cerca de 8.000 postos de trabalho que poderão ser geridos por IA.
Um relatório do banco de investimentos Goldman Sachs estimou no final de março de 2023 que a IA poderia substituir um quarto de todos os empregos realizados hoje por humanos, embora também crie mais produtividade e novos trabalhos.
À medida que a IA avança, maior é sua capacidade de substituir nosso trabalho.
Se todas essas mudanças te sobrecarregam, prepare-se para um dado que pode ser ainda mais desconcertante.
É que, com todos os seus impactos, o que estamos vivendo agora é apenas a primeira etapa no desenvolvimento da IA.
Segundo os especialistas, o que pode vir em breve – a segunda etapa – será muito mais revolucionário.
E a terceira e última, que pode ocorrer muito pouco tempo depois daquela, é tão avançada que alterará completamente o mundo, mesmo à custa da existência do ser humano.
As três etapas:
As tecnologias de Inteligência Artificial são classificadas pela sua capacidade de imitar as características humanas.
- Inteligência Artificial Estreita (ANI):
A categoria mais básica de IA é mais conhecida pela sua sigla em inglês: ANI, por Artificial Narrow Intelligence.
Chama-se assim porque foca estreitamente em uma única tarefa, realizando um trabalho repetitivo dentro de um intervalo predefinido por seus criadores.
Os sistemas de ANI geralmente são treinados utilizando um grande conjunto de dados (por exemplo, da internet) e podem tomar decisões ou realizar ações baseadas nesse treinamento.
Uma ANI pode igualar ou superar a inteligência e a eficiência humana, mas apenas na área específica em que opera.
Um exemplo são os programas de xadrez que utilizam IA. São capazes de vencer o campeão mundial dessa disciplina, mas não podem realizar outras tarefas.
As ANI podem superar os humanos, mas apenas em uma área específica.
É por isso que também são chamadas de “IA fraca”.
Todos os programas e ferramentas que utilizam IA hoje, até as mais avançadas e complexas, são formas de ANI. E esses sistemas estão em toda parte.
Os smartphones estão cheios de aplicativos que utilizam essa tecnologia, desde os mapas com GPS que permitem se localizar em qualquer lugar do mundo ou saber o clima, até os programas de música e vídeos que conhecem seus gostos e fazem recomendações.
Também os assistentes virtuais como Siri e Alexa são formas de ANI. Assim como o buscador do Google e o robô que limpa sua casa.
O mundo empresarial também utiliza muito essa tecnologia. Ela é usada nos computadores internos dos carros, na fabricação de milhares de produtos, no mundo financeiro e até em hospitais, para realizar diagnósticos.
Até sistemas mais sofisticados como os carros autônomos (ou veículos sem motorista) e o popular ChatGPT são formas de ANI, pois não podem operar fora do intervalo predefinido pelos seus programadores, e, portanto, não podem tomar decisões por conta própria.
Também não possuem autoconhecimento, outra característica da inteligência humana.
No entanto, alguns especialistas acreditam que os sistemas programados para aprender automaticamente (machine learning), como o ChatGPT ou o AutoGPT (um “agente autônomo” ou “agente inteligente” que utiliza informações do ChatGPT para realizar certas subtarefas de forma autônoma), poderiam passar para a próxima etapa de desenvolvimento.
- Inteligência Artificial Geral (AGI)
Esta categoria – Inteligência Artificial Geral – é alcançada quando uma máquina adquire capacidades cognitivas no nível humano.
Ou seja, quando pode realizar qualquer tarefa intelectual que uma pessoa faz.
A AGI tem a mesma capacidade intelectual que um humano.
Também é conhecida como “IA forte”.
Acredita-se tanto que estamos à beira de alcançar esse nível de desenvolvimento, que em março passado mais de 1.000 especialistas em tecnologia pediram às empresas de IA que interrompam o treinamento, por pelo menos seis meses, dos programas mais poderosos que o GPT-4, a versão mais recente do ChatGPT.
“Sistemas de IA com inteligência que compete com a humana podem representar grandes riscos para a sociedade e a humanidade”, advertiram em uma carta aberta, entre outros, o cofundador da Apple, Steve Wozniak, e o dono da Tesla, SpaceX, Neuralink e Twitter, Elon Musk (que foi um dos cofundadores da OpenAI antes de renunciar ao conselho por desacordos com a liderança da empresa).
Na carta, publicada pela organização sem fins lucrativos Future of Life Institute, os especialistas disseram que, se as empresas não concordarem rapidamente em interromper seus projetos, “os governos deveriam intervir e instituir uma moratória” para que possam ser desenhadas e implementadas medidas de segurança robustas.
Embora isso seja algo que – por enquanto – não tenha ocorrido, o governo dos Estados Unidos convocou os donos das principais empresas de IA – Alphabet, Anthropic, Microsoft e OpenAI – para acordar “novas ações para promover a inovação responsável de IA”.
“A IA é uma das tecnologias mais poderosas do nosso tempo, mas para aproveitar as oportunidades que ela apresenta, primeiro devemos mitigar seus riscos”, declarou a Casa Branca em um comunicado no dia 4 de maio.
O Congresso dos EUA, por sua vez, convocou nesta terça-feira o CEO da OpenAI, Sam Altman, para responder perguntas sobre o ChatGPT.
Durante a audiência no Senado, Altman disse que é “crucial” que sua indústria seja regulada pelo governo à medida que a IA se torna “cada vez mais poderosa”.
Carlos Ignacio Gutiérrez, pesquisador de políticas públicas no Future of Life Institute, explicou à BBC Mundo que um dos grandes desafios que a IA apresenta é que “não existe um corpo colegiado de especialistas que decidem como regulá-la, como acontece, por exemplo, com o Painel Intergovernamental sobre Mudanças Climáticas (IPCC)”.
Na carta dos especialistas, eles definiram quais eram suas principais preocupações.
“Deveríamos desenvolver mentes não-humanas que eventualmente poderiam nos superar em número, ser mais inteligentes, nos tornar obsoletos e nos substituir?”, questionaram.
“Deveríamos correr o risco de perder o controle de nossa civilização?”.
Isso nos leva ao terceiro e último estágio da IA.
- Superinteligência Artificial (ASI):
A preocupação desses cientistas da computação tem a ver com uma teoria bem estabelecida que sustenta que, quando alcançarmos a AGI, pouco tempo depois chegaremos ao último estágio no desenvolvimento dessa tecnologia: a Superinteligência Artificial, que ocorre quando a inteligência sintética supera a humana.
O filósofo da Universidade de Oxford e especialista em Inteligência Artificial Nick Bostrom define a superinteligência como “um intelecto que é muito mais inteligente do que os melhores cérebros humanos em praticamente todos os campos, incluindo a criatividade científica, a sabedoria geral e as habilidades sociais”.
[Nick Bostrom (em sueco, Niklas Boström) é um filósofo sueco da Universidade de Oxford, nascido em 1973. É conhecido por seus trabalhos sobre o princípio antrópico, o risco existencial, a ética sobre o aperfeiçoamento humano, os riscos da superinteligência e o consequencialismo. Obteve um PhD na Escola de Economia e Ciência Política de Londres no ano de 2000. Em 1998, Bostrom cofundou junto a David Pearce a Associação Transhumanista Mundial.
Em 2004, cofundou junto a James Hughes o Instituto para a Ética e as Tecnologias Emergentes. Em 2006, foi o diretor fundador do Future of Humanity Institute na Universidade de Oxford. O FHI é um centro de pesquisa multidisciplinar único, onde um grupo de pesquisadores destacados, vindos das áreas de matemática, informática, filosofia, entre outras disciplinas, se reúne para trabalhar em questões de grande porte para a humanidade.
Em 2011, fundou o Programa Oxford Martin sobre os Impactos da Tecnologia Futurista e é o diretor fundador do Instituto Futuro da Humanidade na Universidade de Oxford.
É autor de mais de 200 publicações, incluindo: Superinteligência: caminhos, perigos, estratégias (2014), um bestseller segundo o New York Times, e Sesgo antrópico: efeitos da seleção de observação na ciência e na filosofia (2002). Em 2009 e 2015, a revista Foreign Policy o incluiu em sua lista dos 100 pensadores globais destacados. O trabalho de Bostrom sobre a superinteligência e sua preocupação com o risco existencial que ela representa para a humanidade no novo século chegou a influenciar o pensamento de Elon Musk e Bill Gates.
Bostrom nasceu em 10 de março de 1973 em Helsingborg, Suécia. Desde jovem, não gostava da escola e terminou seus últimos anos de ensino médio estudando em casa, optando por se educar sozinho em uma grande variedade de disciplinas, como antropologia, arte, literatura e ciência.
Obteve um B.A. (Bachelor of Arts) em filosofia, matemática, lógica matemática e inteligência artificial na Universidade de Gotemburgo, e um mestrado em Filosofia e Física, além de neurociência computacional, pela Universidade de Estocolmo e pelo King’s College de Londres, respectivamente. Enquanto estudava na Universidade de Estocolmo, pesquisou a relação entre linguagem e realidade, estudando o filósofo analítico Willard Van Orman Quine. Em 2000, obteve um PhD em filosofia na Escola de Economia de Londres. Manteve-se por dois anos (2000-2002) como educador na Universidade de Yale.
Bostrom deu conselhos sobre políticas além de consultorias para uma ampla gama de governos e organizações. Foi consultor para o Escritório Governamental de Ciência do Reino Unido e membro especialista da Agenda do Conselho para Riscos Catastróficos do Fórum Econômico Mundial. É membro consultor da diretoria do Instituto de Pesquisa da Inteligência das Máquinas, do Instituto para o Futuro da Vida, do Instituto de Questões Fundamentais em Física e Cosmologia, e consultor externo para o Centro para o Estudo do Risco Existencial de Cambridge.
Um aspecto importante das pesquisas de Bostrom foca no futuro da humanidade e nos resultados a longo prazo. Ele introduziu o conceito de “risco existencial”, que define como o risco de que “um resultado adverso possa devastar a origem da vida inteligente na Terra ou restringir seu potencial permanente de forma drástica”. Bostrom, a partir de posições transhumanistas, alerta sobre os riscos que isso pode trazer e os chama de riscos existenciais. Além disso, menciona alguns dos riscos existenciais (aqueles relacionados à ação humana).
- Mau uso das tecnologias.
- Guerras nucleares.
- Pandemias.
- Aristocracia pós-humana.
- Mau programa de uma superinteligência.
- Superinteligência autônoma que assume os valores de poder.
- Criogenização e superpopulação.
- Controle do estado, de instituições, ONGs, movimentos religiosos, etc. que não permitam certas aplicações para o aprimoramento humano (transhumanidade).
- Dificuldades tecnológicas. Que a transhumanidade não possa ser colocada em prática.
- Esgotamento dos recursos naturais antes que possam ser criados artificialmente.
E reconhece como um dos maiores riscos o mau uso da tecnologia, com fins hegemônicos, o consumismo e o militarismo, entre outros fatores, que trouxeram como consequência a contaminação, a degradação dos ecossistemas e o esgotamento dos recursos. No mau uso das tecnologias, também se considera os erros humanos, como o caso de um vírus escapar de um laboratório.
No livro Risco Catastrófico Global (2008), os editores Nick Bostrom e Milan Ćirković caracterizaram a relação entre o risco existencial e a cada vez mais ampla gama de riscos catastróficos de grande escala, e relacionaram o risco existencial com os efeitos da seleção do observador e a paradoxo de Fermi. Em um artigo de 2013 para o jornal Global Policy, Bostrom oferece uma taxonomia do risco existencial e propõe uma reconceptualização da sustentabilidade em termos dinâmicos: como uma trajetória para o desenvolvimento destinada a minimizar o risco existencial.
Em 2005, Bostrom fundou o Instituto para o Futuro da Humanidade, que pesquisa o futuro distante da civilização humana. Também é assessor do Centro para o Estudo do Risco Existencial.
Em seu livro Superinteligência: Caminhos, Perigos, Estratégias (2014), Nick Bostrom define a superinteligência como “um intelecto que é muito mais inteligente do que os melhores cérebros humanos em praticamente qualquer campo, incluindo a criatividade científica, sabedoria geral e habilidades sociais”. Além disso, ele argumenta que, com “um desempenho cognitivo que excede enormemente o dos humanos em virtualmente todos os domínios de interesse”, os agentes superinteligentes poderiam prometer benefícios substanciais para a sociedade, mas também representar um risco existencial significativo. Portanto, Bostrom afirma que é crucial que abordemos o campo da inteligência artificial com cautela e tomemos medidas ativas para mitigar o risco que enfrentamos.
Em seu livro, ele também menciona que o verdadeiro desafio não está tanto na inteligência que as máquinas sejam capazes de alcançar, mas no desenvolvimento moral de nossa espécie. No final, como já postulou Jean-Paul Sartre, estamos condenados a ser livres. E isso pode ser perigoso, mas também uma excelente oportunidade para dar outro salto evolutivo.
A aceleração das tecnologias continuará aumentando até chegar a um ponto que escapa às capacidades dos humanos (singularidade tecnológica). Pode-se alcançar uma inteligência artificial por força bruta, ou seja, dada a velocidade da máquina, ela pode analisar exaustivamente todas as possíveis soluções. Esse é o caso do xadrez, onde a inteligência da máquina se baseia em sua velocidade para calcular as variantes, o que lhe permite prever o que pode acontecer no tabuleiro.
Em janeiro de 2015, Nick Bostrom, Stephen Hawking, Max Tegmark, Elon Musk, Martin Rees e Jaan Tallinn, entre outros, assinaram uma carta aberta em nome do Instituto para o Futuro da Vida, alertando sobre os potenciais perigos da inteligência artificial. Na carta, eles reconheciam que “é importante e oportuno investigar como desenvolver sistemas de inteligência artificial que sejam sólidos e benéficos, e que existem direções de pesquisa concretas que podem ser perseguidas hoje em dia”. Em vez de alertar sobre um desastre existencial, a carta pede mais pesquisa para colher os benefícios da IA “ao mesmo tempo em que se evitam os possíveis contratempos”.
Esta carta está assinada não apenas por pessoas não relacionadas com a IA, como Hawking, Musk e Bostrom, mas também por importantes pesquisadores em computação (entre eles Demis Hassabis, um dos principais pesquisadores em IA), já que, afinal, se desenvolverem uma inteligência artificial que não compartilha os melhores valores humanos, isso significará que não foram inteligentes o suficiente para controlar suas próprias criações.
Bostrom publicou inúmeros artigos sobre o raciocínio antrópico, assim como o livro Sesgo antrópico: efeitos da seleção de observação na ciência e filosofia, no qual critica as formulações anteriores sobre o princípio antrópico, incluindo as de Brandon Carter, John Leslie, John Barrow e Frank Tipler.
Bostrom acredita que o mau manejo da informação indicativa é uma falha comum em muitas áreas da investigação (incluindo cosmologia, filosofia, teoria da evolução, teoria dos jogos e física quântica) e argumenta que é necessária uma teoria antrópica para lidar com essas questões. Bostrom introduziu o “suposto de auto prova” e o “suposto de auto indicação” e mostrou como ambos levam a conclusões diferentes em vários casos, apontando que, em certos experimentos de pensamento, cada um deles é afetado por paradoxos ou implicações contraintuitivas. Ele sugeriu que, para avançar, seria necessário estender o suposto de auto prova para um “forte suposto de auto prova”, o qual substitui os “observadores” por “momentos do observador”, permitindo que a classe de referência seja relativizada (e criou uma expressão para isso na “equação da observação”).
Em trabalhos posteriores, Bostrom descreveu o fenômeno da “sombra antrópica”, um efeito da seleção de observação que impede os observadores de perceber certos tipos de catástrofes em seu passado geológico e evolutivo recente. Os tipos de catástrofes que se encontram na sombra antrópica tendem a ser subestimados, a menos que sejam feitas correções estatísticas.
Bostrom se mostra a favor de alcançar o “aperfeiçoamento humano”, ou a “autoaperfeiçoamento e a perfectibilidade humana por meio da aplicação ética da ciência”, enquanto critica as posturas bio-conservadoras.
Bostrom, junto com o filósofo Toby Ord, propôs o teste inverso. Dado o viés irracional do status quo humano, como pode-se distinguir entre uma crítica válida aos mudanças propostas em uma qualidade humana e uma crítica motivada pela resistência à mudança? O teste inverso tenta resolver isso perguntando se seria bom alterar essa qualidade na direção oposta.
Em 1998, Bostrom cofundou junto com o filósofo David Pearce a Associação Transhumanista Mundial, hoje chamada Humanity+. Em 2004, cofundou junto com o sociólogo James Hughes o Instituto para a Ética e as Tecnologias Emergentes, embora atualmente ele não esteja mais envolvido em nenhuma dessas organizações.
Em 2009, a revista Foreign Policy mencionou Bostrom em sua lista de pensadores globais, por “não aceitar limites no potencial humano”.
A Humanity Plus, anteriormente conhecida como Associação Transhumanista Mundial, foi fundada originalmente por Nick Bostrom e David Pearce. É um movimento cultural e intelectual internacional cujo objetivo final é transformar a condição humana por meio do desenvolvimento e fabricação de tecnologias amplamente disponíveis, que, por sua vez, também melhorem as capacidades humanas, tanto a nível físico quanto psicológico ou intelectual, baseadas em nanotecnologia, engenharia genética e cibernética.
A Humanity Plus é uma organização sem fins lucrativos que trabalha para promover a discussão sobre as possibilidades de melhoria radical das capacidades humanas por meio das tecnologias. Muitos teóricos e defensores do transhumanismo buscam aplicar a razão, a ciência e a tecnologia para reduzir a pobreza, as doenças, as deficiências e a desnutrição em todo o mundo. O transhumanismo se distingue por seu enfoque particular na aplicação das tecnologias para a melhoria dos corpos humanos de forma individual.
A Humanity Plus tem diversos objetivos, sendo alguns deles:
- Apoiar a discussão e a conscientização pública sobre as tecnologias emergentes.
- Defender o direito das pessoas em sociedades livres e democráticas de adotar tecnologias que expandam as capacidades humanas.
- Antecipar e propor soluções para as potenciais consequências das novas tecnologias.
- Estimular e apoiar ativamente o desenvolvimento de tecnologias emergentes que se considere que tenham um benefício positivo suficientemente provável.
Bostrom sugeriu que uma política tecnológica voltada para reduzir o risco existencial deveria buscar influenciar a ordem em que várias capacidades tecnológicas são alcançadas, propondo o princípio do desenvolvimento tecnológico diferencial. Este princípio defende que os seres humanos deveriam retardar o desenvolvimento de tecnologias perigosas, especialmente aquelas que aumentam o risco existencial, e acelerar o desenvolvimento de tecnologias benéficas, particularmente aquelas que nos protejam do risco existencial proveniente da natureza ou de outras tecnologias.
0 Comments