“É impossível interagir com o ChatGPT sem pensar” O docente da Universidade de Navarra opina que os resultados na aprendizagem já não são importantes e que é preciso focar no ensino da reflexão aos alunos sobre o processo
Dois anos após seu surgimento, o ChatGPT continua alimentando o debate educacional. A balança, no entanto, começa a se inclinar — ainda que lentamente — a favor daqueles que começaram a se perguntar: como integrá-lo à sala de aula? Francesc Pujol (58 anos, Barcelona) sabe que não há uma única resposta, mas, acima de tudo, assegura que o mundo docente não pode mais ignorar essa ferramenta. Professor de economia e liderança na Universidade de Navarra, onde leciona há 26 anos, conhece bem os riscos, limitações e oportunidades que essa tecnologia disruptiva oferece. Ele reuniu essas experiências em dois livros sobre o uso da inteligência artificial no ensino. Também lidera o IAdocents, um grupo de trabalho no campus, e já formou cerca de 900 professores (universitários e do ensino médio) sobre como integrar melhor a IA em sala de aula.
Pergunta: O ChatGPT derrotou os professores? Resposta: Conheço muitos professores que estão em uma fase de derrota, aceitando que essa ferramenta entrou na sala de aula sem permissão e que precisam fazer algo a respeito. De repente, todos os trabalhos dos alunos são maravilhosos, incríveis, profundos, mas depois, quando esses mesmos alunos fazem as provas, têm desempenho tão bom ou tão ruim quanto nos anos anteriores. Tiveram que aceitar que existe uma ferramenta capaz de gerar resultados de alto nível e, em muitos casos, de forma reativa. Alguns dizem: não vou mais pedir trabalhos, vou concentrar tudo nas provas finais ou parciais. Mas também há uma proporção crescente de professores universitários e do ensino médio que está se preparando para responder a essa mudança.
P: Qual é a chave para que essa transição seja pacífica? R: É lógico que os professores pensem que o foco deve ser entender melhor a ferramenta, como funciona e como dar as instruções corretas. No entanto, essa não é a chave. O foco está na tarefa. Em repensar o processo e não o resultado. Os resultados cada vez dizem menos sobre o conhecimento, a aprendizagem ou o esforço dos alunos, porque são gerados por um programa. O essencial é acompanhar o processo. Existem duas formas de canalizar isso: você pode pedir um trabalho que documente o processo com evidências ou trabalhar diretamente com eles em sala. O objetivo é documentar, tornar visível e avaliável a evolução até chegar a uma resposta.
P: Qual é o esforço que os professores devem fazer agora? R: Isso obriga a pensar constantemente em coisas que antes não era necessário pensar, como: que aprendizado esse trabalho traz ao aluno em seu processo de conhecimento e reflexão? Antes da IA, se você pedia um trabalho a um aluno, sabia que ele ia aprender de qualquer forma, porque teria que construir essa informação por conta própria. Agora o conteúdo do trabalho não fornece informação, então é preciso pensar em como avaliar o processo. Isso leva diretamente ao centro da pedagogia e da vocação docente, porque é preciso repensar o que se quer que os alunos aprendam.
P: É importante que isso também aconteça no ensino médio? R: No ensino médio está em jogo muita coisa. Com o mau uso da IA na universidade você obtém muitos trabalhos ruins e, em geral, baixo aprendizado. No ensino médio, o problema é que, por causa da má integração da IA, eles aprendam a pensar menos justo na fase em que estão desenvolvendo suas capacidades cognitivas, seu espírito crítico, sua capacidade de análise. É crucial agir. Todas essas capacidades podem atrofiar se o ChatGPT resolver todos os problemas e o professor não intervir. A função do professor deve ser mitigar os riscos dessa nova ferramenta e multiplicar as potencialidades do seu valor agregado.
P: Então, como aproveitar essa tecnologia em sala de aula? R: Usado corretamente, o ChatGPT permite ver todos os elementos relevantes de um problema, o programa sabe atribuir pesos diferentes a cada um dos elementos que compõem um trabalho escrito, identificar argumentos relevantes em um texto e, portanto, se o aluno for capaz de entender esse processo, isso o ajuda a melhorar a capacidade de análise e também a desenvolver o espírito crítico.
P: Como o senhor integra a IA generativa em sala de aula? R: Os alunos devem me apresentar dois documentos, um com o ensaio e outro com o making of do texto. Neste último, peço que identifiquem todas as partes do ensaio, as instruções que seguiram para elaborar cada parágrafo, o que fizeram para melhorar uma resposta se estava muito simplista ou as perguntas complementares que realizaram. Essa é a zona à qual devemos levar os alunos. Se um aluno deixa passar uma afirmação falsa no trabalho, recebe nota zero diretamente. Também costumo mostrar, com permissão dos alunos, as melhores práticas para que eles possam aprender uns com os outros.
P: O processo de aprendizagem está melhorando? R: Graças ao ChatGPT, obrigo os alunos a explicitar o processo de reflexão sobre os conteúdos que geraram com o programa, então, no mínimo, eles serão obrigados a ler os conteúdos. Porque não devemos nos enganar: antes do ChatGPT as pessoas também não aprendiam muito, pois copiavam conteúdos encontrados no Google. Agora o problema é que podem gerar conteúdos com falsidades. Ou aprendem a identificar essas falsidades ou terão um problema gigantesco no futuro profissional. A função do professor deve ser mitigar os riscos dessa nova ferramenta e multiplicar as potencialidades
P: Que lições o senhor tira desse processo? R: Como professor, desfruto desses textos e posso aprender, porque evidentemente antes um ensaio de um aluno universitário não me trazia nada, pois expunha coisas muito básicas. Agora aparecem conteúdos muito interessantes e valiosos, e reflexões profundas que, embora não tenham sido elaboradas por eles, são validadas por eles. Os alunos se acostumam a trabalhar com análises mais detalhadas e ricas em nuances, e isso é algo que vão assimilar. Eu sei que essa nova forma de trabalho os obriga a pensar, porque é impossível interagir com o ChatGPT sem pensar.
P: Como isso vai evoluir nos próximos dois anos? R: Muito em breve, essas ferramentas não vão apenas responder perguntas, mas executar tarefas completas, como análises detalhadas de um modelo de negócio de uma startup, o desenvolvimento de um caso jurídico ou diretamente um trabalho final de graduação. Isso também nos obriga a repensar a forma como se faz pesquisa. Surgirão melhores metodologias e atividades que documentem todo o processo desenvolvido pelo ChatGPT e validado por um aluno. Já existem ferramentas que registram tudo o que acontece quando os alunos usam IA.
P: Para onde estamos indo? R: A capacidade humana de acompanhar essa rápida transformação tecnológica está ficando para trás. É muito difícil acompanhar o ritmo. E muito mais difícil ainda é incorporar essa mudança no âmbito social e organizacional. A cultura organizacional avança mais devagar do que as necessidades. Vemos que o que estamos fazendo está obsoleto, não faz muito sentido, mas não damos conta, porque não temos capacidade de reação para aplicar agora, já. Isso requer uma revisão e um amplo reajuste. E é preciso ter em conta que pode haver disparidade entre uma instituição e outra, entre um país e outro, entre quem tem mais recursos e quem tem menos. Essas são as perguntas que teremos que enfrentar muito em breve.
Luis Enrique Velasco é um jornalista e colaborador especializado em temas de educação, tecnologia e inovação. Contribui com reportagens e entrevistas que exploram o impacto das novas ferramentas digitais no ensino e na aprendizagem.
• As grandes empresas de tecnologia ignoram a DeepSeek e seus investidores: vão gastar cerca de 290 bilhões de euros em inteligência artificial em 2025. • Durante suas recentes apresentações de resultados trimestrais, as grandes empresas de tecnologia confirmaram sua intenção de seguir adiante com os investimentos massivos no desenvolvimento de modelos e construção de infraestruturas de IA.
Quando a DeepSeek veio à tona há algumas semanas e demonstrou — por meio da publicação de um artigo acadêmico — que era possível desenvolver e treinar um modelo de inteligência artificial (IA) tão potente quanto os mais avançados da OpenAI, tudo indicava que as Big Tech tomariam nota. Se essa startup chinesa podia competir com a desenvolvedora do ChatGPT utilizando microchips da Nvidia consideravelmente menos potentes do que os que a empresa de Jensen Huang está tentando comercializar hoje, as grandes companhias do setor tecnológico poderiam cortar os investimentos em IA.
Além disso, o modelo desenvolvido pela empresa de Liang Wenfeng parecia ter chegado no momento certo para que isso acontecesse: poucos dias antes das apresentações de resultados trimestrais das principais empresas de tecnologia, nas quais seus acionistas poderiam questioná-las por continuarem investindo tanto dinheiro em inteligência artificial, quando a DeepSeek havia demonstrado que isso não era necessário.
No entanto, parece que nem os investidores especializados nesse setor, nem a própria startup chinesa conseguiram mudar o rumo dos gastos massivos em IA. Como relata o Financial Times, as quatro principais empresas do setor tecnológico nos Estados Unidos — Alphabet (Google), Amazon, Meta (Facebook) e Microsoft — planejam investir em inteligência artificial mais de 300 bilhões de dólares (cerca de 289 bilhões de euros na cotação atual) durante o ano de 2025.
Os 300.000 milhões se devem em grande parte à Amazon, que superou seus rivais diretos e anunciou um gasto previsto para este ano de mais de 100.000 milhões de dólares (96.000 milhões de euros) em infraestrutura de IA. Por exemplo, para a construção de novos centros de dados para sua subsidiária, Amazon Web Services ou AWS.
Segundo informou o meio britânico, o investimento em inteligência artificial dessas quatro companhias já aumentou 63% no ano passado, atingindo níveis históricos, mas agora os executivos dessas organizações prometeram acelerar ainda mais seus gastos em IA, ignorando assim as preocupações dos acionistas quanto às enormes quantias que estão sendo destinadas a essa tecnologia emergente.
Vale lembrar aqui que, tanto a Microsoft quanto a controladora do Google (Alphabet) chegaram a perder nestes dias até 200.000 milhões de dólares (192.000 milhões de euros) em valor de mercado após apresentarem resultados financeiros mais fracos do que o esperado em suas respectivas divisões de computação em nuvem.
O diretor do fundo de crescimento concentrado dos Estados Unidos na Alliance Bernstein, Jim Tierney, declarou ao Financial Times que “o entusiasmo desenfreado em todo o setor pelos Sete Magníficos foi substituído por focos de ceticismo e criou algumas situações de ‘vamos ver, me mostre'”.
“As preocupações que eu tinha desde o verão se ampliaram hoje”, reconheceu esse analista da bolsa, que acrescentou: “Se virmos — ou quando virmos — a aceleração do crescimento da nuvem no Google ou no Azure [da Microsoft], ou virmos melhorar a aceitação do Copilot, os investidores se sentirão mais à vontade para investir na Alphabet ou na Microsoft. Enquanto isso, os modelos de IA mais baratos e comercializados provavelmente amplificarão as preocupações dos acionistas”.
Ramón Armero é jornalista e editor que contribui para o Business Insider Espanha. Ele colaborou com jornalistas como Hugh Langley e Hasan Chowdhury em artigos relacionados a inteligência artificial e empresas de tecnologia. Em março de 2025, Armero foi o tradutor de um artigo sobre a vigilância do DeepSeek pelos Estados Unidos, publicado no Business Insider Espanha.
Ray Kurzweil acertou muitas previsões que, anos atrás, pareciam totalmente inverossímeis. Ele é um dos grandes profetas tecnológicos do mundo e afirma que, a partir de 2032, deixaremos de envelhecer graças à IA.
Colaboração de Marc Mestres
A ideia da imortalidade tem sido um sonho da humanidade desde tempos imemoriais. Mas, segundo Ray Kurzweil, um dos futuristas mais influentes do mundo e atual pesquisador principal do Google, a possibilidade de deter o envelhecimento e reverter a idade biológica pode estar a apenas alguns anos de se tornar realidade.
Kurzweil, que acertou muitas de suas previsões tecnológicas no passado, afirma que a convergência entre Inteligência Artificial (IA), biotecnologia e nanotecnologia permitirá que, a partir de 2032, para cada ano que vivermos, ganharemos outro, alcançando assim a chamada “Velocidade de Escape da Longevidade”.
A IA como a chave para a imortalidade:
Em uma recente entrevista ao El País, Kurzweil detalha sua visão sobre o futuro da humanidade e como a IA desempenhará um papel fundamental em deter o envelhecimento e aprimorar a biologia humana. Segundo o tecnólogo, a ciência já está avançando para uma fase em que a IA será capaz de desenvolver soluções médicas personalizadas em tempo real, acelerando a descoberta de medicamentos e permitindo que a longevidade humana aumente exponencialmente.
“Agora, quando você vive um ano, perde outro da sua longevidade. Mas por volta de 2032, para cada ano que viver, você ganhará outro. Sua saúde retrocederá no tempo”, afirmou Kurzweil.
Essa proposta baseia-se no que ele chama de “Lei dos Retornos Acelerados”, que indica que o progresso tecnológico segue uma curva exponencial e não linear. Ou seja, os avanços que antes levavam décadas para se desenvolver agora acontecem em questão de anos ou até meses.
Nanorrobôs no corpo humano:
O próximo passo. Outro dos pilares que sustentam a previsão de Kurzweil é o uso de nanorrobôs na medicina, um tema que ele abordou em seu livro The Singularity is Nearer e que foi analisado em um artigo publicado pela Popular Mechanics.
Os nanorrobôs são esferas de sílica com meio micrômetro de diâmetro envolvidas por inúmeras enzimas de urease. Estas reagem com a ureia presente na nossa urina e produzem movimento.
Segundo o futurista, nas próximas duas décadas os nanorrobôs poderão circular pela corrente sanguínea humana, reparando células danificadas, eliminando toxinas e rejuvenescendo órgãos e tecidos. “Os nanobôs poderão manter o corpo em um estado de saúde ideal indefinidamente. Poderão até substituir completamente os órgãos biológicos, se necessário”, explica à Popular Mechanics.
Em sua visão de futuro, o corpo humano poderia ser composto em mais de 99,9% por tecnologia, permitindo até mesmo a fusão total entre o cérebro e a nuvem.
Realidade ou ficção científica?:
Previsões acertadas. Embora muitas de suas previsões tenham gerado ceticismo na comunidade científica, o fato é que muitas de suas afirmações passadas acabaram se cumprindo. Em seu livro A Singularidade Está Próxima, publicado em 2005, Kurzweil previu que, em 2029, a Inteligência Artificial superaria a inteligência humana — algo que, hoje em dia, parece cada vez mais próximo com o avanço de modelos como o GPT-4, Gemini ou DeepMind.
O pesquisador insiste que a humanidade está a caminho de transcender suas limitações biológicas e que, em questão de duas décadas, poderíamos alcançar um ponto em que morrer de velhice deixaria de ser uma inevitabilidade e se tornaria uma opção.
«Atacando diretamente o poder e a influência dos gigantes tecnológicos, os europeus ainda podem criar uma alternativa. Só assim a tecnologia poderá continuar contribuindo para a nossa prosperidade comum, em vez de se tornar uma ferramenta de dominação que permita a uma minúscula elite subjugar o restante da humanidade.»
Um texto de Daron Acemoğlu, Prêmio Nobel de Economia. Peças de doutrinas Poderes da IA
Enquanto os líderes mundiais se reúnem em Paris hoje e amanhã para a Cúpula de Ação sobre a IA, estamos diante de um momento crucial na trajetória da inteligência artificial. O conjunto de tecnologias comumente denominado IA já transformou indústrias e promete remodelar sociedades. Mas a pergunta crucial continua sendo: no interesse de quem está ocorrendo essa transformação e que tipo de futuro está sendo construído?
O biólogo Theodosius Dobzhansky pronunciou esta frase famosa: «Nada em biologia faz sentido, exceto à luz da evolução». Na era da IA, poderíamos dizer que «nada faz sentido exceto à luz das lutas pelo poder». Essa profunda rivalidade determina quem controla a IA, a que interesses ela serve e quais valores guiam seu desenvolvimento. Atualmente, a maior parte desse poder está concentrada nas mãos de alguns poucos gigantes tecnológicos.
A história nos ensina os perigos da concentração excessiva de poder. Na Europa medieval, os avanços na agricultura aumentaram a produtividade, mas mal melhoraram a vida dos trabalhadores. A nobreza e o clero, que possuíam os bens e controlavam a riqueza, desfrutaram de todos os frutos da melhoria da tecnologia e da organização agrícola, enquanto os trabalhadores continuavam lutando na pobreza. Essa é uma questão que também se coloca hoje. O caminho que a inteligência artificial tomar também determinará a distribuição dos benefícios econômicos entre a população e moldará o tecido das sociedades em que vivemos.
A história nos ensina os perigos da concentração de poder. Duas direções principais são bastante óbvias.
A primeira é a busca incessante pela inteligência artificial geral, e depois pela superinteligência, em que as máquinas superam os humanos em quase todas as tarefas. Embora essa visão possa suscitar temores de uma tomada de poder por parte das máquinas, a principal ameaça nesse cenário provém, na verdade, do poder descontrolado daqueles que projetam e controlam esses sistemas. Um futuro assim aumentaria drasticamente a desigualdade. Ao nos privar de toda capacidade de ação, também diminuiria e diluiria o que significa ser humano.
Podemos nos perguntar se a inteligência artificial geral é realmente alcançável num futuro próximo. Mesmo que fosse, é pouco provável que traga consigo os aumentos de produtividade prometidos. Um cenário mais provável é, de fato, que sistemas de IA inferiores substituam os trabalhadores em tarefas nas quais eles trazem experiência e perspicácia — minando o valor econômico em vez de criá-lo.
O segundo caminho é o que meus colegas e eu chamamos de IA “pró-trabalhadores” ou “pró-humana”. Essa visão considera a IA como uma ferramenta para capacitar os indivíduos e tornar os trabalhadores mais produtivos, fornecendo-lhes informações contextuais e confiáveis que complementem seus conhecimentos. A prioridade é dar aos indivíduos o controle sobre seus próprios dados e permitir-lhes realizar uma gama mais ampla de tarefas com maior confiança e autonomia.
Ao contrário da primeira, essa segunda visão não é um devaneio.
A IA já pode criar sistemas que realmente ajudam trabalhadores e cidadãos. Mas esse potencial será subaproveitado se se basear numa arquitetura projetada para imitar e superar os humanos em vez de apoiá-los. Em vez de criar ferramentas para melhorar a tomada de decisões, muitas empresas parecem preocupadas em desenvolver modelos que produzam pastiches completamente vazios — ou outras imitações superficiais e sem vida. Para preservar o que nos torna humanos — e deixar a criação no lugar que lhe cabe —, a IA deve se libertar dos grilhões da mera imitação. Deve fornecer conselhos claros e interpretáveis aos responsáveis humanos, para ajudá-los a tomar decisões mais informadas.
A IA atual já pode criar sistemas que realmente ajudem os trabalhadores e os cidadãos.
Até agora, a trajetória seguida pela indústria de alta tecnologia reflete decisões deliberadas, enraizadas em motivos tanto econômicos quanto ideológicos. Do ponto de vista ideológico, a indústria é movida por sonhos de inteligência artificial geral e superinteligência — e de poder remodelar a própria sociedade graças a novas tecnologias hegemônicas.
Do ponto de vista econômico, as Big Tech prosperaram com modelos que geram lucros massivos mediante a automatização de tarefas, a redução dos custos da mão de obra e o monopólio da publicidade digital, com pouco interesse em capacitar os trabalhadores ou fortalecer as democracias. Novos modelos empresariais mais benéficos para a sociedade poderiam substituir esse paradigma se fosse dada uma oportunidade real às novas empresas.
Infelizmente, as condições atuais do mercado facilitam o domínio das empresas já estabelecidas, porque dispõem de todo o capital — para comprar ou enterrar concorrentes —, todos os dados, bases de clientes colossais e a cumplicidade de legisladores que parecem ter abdicado da política de concorrência.
Se o mundo tinha a ilusão de que o poder das grandes empresas tecnológicas seria contido pela regulação do governo dos EUA, as imagens dos oligarcas tecnocesaristas na posse de Donald Trump destruíram essa ideia. Protegidas e apoiadas pela nova administração norte-americana, as empresas da Big Tech têm uma orientação clara em sua implacável busca pela IA: planejam usar a tecnologia como uma ferramenta para estabelecer seu domínio e remodelar os mercados globais para servir a seus próprios interesses.
A IA deve ir além da imitação. Deve fornecer conselhos claros e interpretáveis aos responsáveis humanos pela tomada de decisões, para ajudá-los a tomar decisões mais bem informadas.
Mas não se trata de desistir. A história não está escrita.
Num momento em que as relações entre os Estados Unidos e a União Europeia estão cada vez mais tensas, a Cúpula de Paris oferece aos europeus a oportunidade de recuperar o controle do seu futuro, começando pela IA. A Europa não pode se tornar um consumidor passivo desses sistemas, projetados sem levar em conta a soberania econômica, a capacidade de inovação ou os valores democráticos. O recente surgimento do LLM da DeepSeek demonstra que a inovação ainda pode superar o tamanho — se criarmos as condições para isso.
Atacando diretamente o poder e a influência dos gigantes tecnológicos — por exemplo, por meio da aplicação sistemática e estratégica da legislação sobre concorrência — e adotando uma visão da IA centrada naquilo que nos torna humanos, os governos europeus ainda podem criar uma alternativa: um ambiente verdadeiramente competitivo.
Só então a tecnologia poderá continuar contribuindo para a prosperidade dos trabalhadores e dos cidadãos, em vez de se tornar uma ferramenta de dominação que permita a uma minúscula elite subjugar o restante da humanidade.
Sources
Daron Acemoğlu, « The Simple Macroeconomics of AI« , MIT, 5 de abril de 2024.
Daron Acemoğlu, David Autor, Simon Johnson, « Can we Have Pro-Worker AI ? Choosing a path of machines in service of minds« , Policy Memo, Shaping the Future of Work, MIT septiembre de 2023.
Katharine Miller, « Privacy in an AI Era : Comment protégeons-nous nos informations personnelles ?«, Universidad de Stanford, 18 de marzo de 2024.
Richie Koch, « Big Tech has already made enough money in 2024 to pay all its 2023 fines« , Proton, 8 de enero de 2024.
Camilla Hodgson, « Tech companies axe 34,000 jobs since start of year in pivot to AI« , The Financial Times, 11 de febrero de 2024.
A empresa pioneira no campo da IA encerrou 2024 com um anúncio que surpreendeu a comunidade. A ferramenta ainda não está disponível para o público em geral.
Em novembro de 2022, a OpenAI surpreendeu o mundo com o lançamento do ChatGPT, seu famoso chatbot impulsionado por Inteligência Artificial. Mais de dois anos após esse marco, a empresa apresentou o O3, uma nova família de modelos de raciocínio que prometem revolucionar ainda mais o campo da tecnologia.
Em detalhes, a companhia liderada por Sam Altman apresentou duas versões de seu novo algoritmo: O3 padrão – projetado para processar grandes quantidades de dados e realizar tarefas gerais – e O3 mini opera, com uma quantidade sensivelmente menor de parâmetros e ideal para executar tarefas mais específicas. Assim, a novidade da OpenAI dá um passo adiante e tenta se aproximar da consagração de uma Inteligência Artificial Geral (AGI, na sigla em inglês).
Lançado em 20 de dezembro de 2024, o novo desenvolvimento da OpenAI alcançou avanços notáveis em: raciocínio abstrato, matemática avançada e programação, entre outros. O3 pertence a uma nova família de produtos baseados no ChatGPT que, ao contrário do chatbot reconhecido e de seu antecessor O1, investe mais tempo – e dinheiro – para avaliar alternativas antes de gerar uma resposta para o usuário.
A avaliação ARC-AGI, projetada para medir os avanços das diferentes ferramentas no caminho para se tornarem uma AGI, atingiu uma pontuação de 87,5%, um desempenho comparável ao que um ser humano pode alcançar. Esse tipo de avaliação inclui, por exemplo, a resolução de quebra-cabeças lógicos visuais, simples para humanos, mas difíceis para computadores.
Em detalhes, o O3 também obteve resultados notáveis em engenharia de software e em uma competição de programação da Codeforce, alcançando a posição 175 no ranking mundial. Mas os avanços não param por aí: a nova família da OpenAI surpreendeu com pontuações altíssimas em uma avaliação de matemática complexa.
Apesar das expectativas, alguns críticos da indústria da Inteligência Artificial consideram o anúncio exagerado. Esse é o caso do próprio criador da ARC-AGI, que apontou que já existem ferramentas muito mais baratas que conseguem atingir 80% nessa avaliação. O principal desafio do O3 é conseguir generalizar seus conhecimentos para outras tarefas.
Por enquanto, os entusiastas da tecnologia terão que esperar para acessar os novos modelos de raciocínio emblemáticos da OpenAI. A empresa anunciou que pesquisadores de segurança podem se inscrever em uma lista de espera para testar o modelo, e a companhia norte-americana espera lançar seu novo avanço ao público em breve, embora ainda não tenha sido confirmado se será em formato pago ou gratuito.
O que é a Inteligência Artificial Geral?
De modo geral, a Inteligência Artificial Geral é o próximo passo para os desenvolvedores de IA. Esses sistemas automáticos são, em teoria, capazes de realizar com sucesso qualquer tarefa intelectual que os seres humanos desempenham.
Ou seja, as AGI terão a capacidade de compreender ou aprender qualquer tarefa intelectual que um ser humano possa realizar. Em poucas palavras, trata-se de uma ferramenta cujo objetivo é imitar as habilidades cognitivas do cérebro humano.
Além das características principais mencionadas anteriormente, os sistemas AGI também possuem outros atributos que os diferenciam das IAs que conhecemos atualmente. Entre eles estão:
Capacidade de generalização: A AGI pode transferir seus aprendizados e habilidades de um campo do conhecimento para outro. Isso permite que ela se adapte de forma eficaz a novas situações e cenários inéditos.
Conhecimento de senso comum: As AGI também terão um amplo conhecimento sobre o mundo, que pode incluir diversas áreas como fatos, relações e normas sociais. Isso gera um raciocínio mais profundo para a tomada de decisões.
A pesquisa e o desenvolvimento da AGI exigem colaboração interdisciplinar entre áreas como ciência da computação, neurociência e psicologia cognitiva.
A diferença entre a AGI e a IA “estreita”
Em comparação com as ferramentas atuais disponíveis para os usuários, a AGI apresenta um nível maior de autonomia e abrangência nas funções que pode desempenhar. Enquanto a IA tradicional se dedica exclusivamente a resolver tarefas para as quais foi especificamente programada, a AGI permitiria que uma máquina operasse em uma ampla gama de atividades, graças à sua capacidade de generalização e transferência de conhecimento de uma área para outra.
Atualmente, o campo da AGI ainda está em fase exploratória. No entanto, o lançamento do O3 e a forte competição entre OpenAI, Google e X, entre outros, apontam para um futuro não muito distante em que esse tipo de tecnologia fará parte do cotidiano das pessoas.