Série Os Pioneiros da Inteligência ArtificialDario Amodei: o pai de “Claude” e da Anthropic

Série Os Pioneiros da Inteligência ArtificialDario Amodei: o pai de “Claude” e da Anthropic

Nascimento e formação acadêmica:
Dario Amodei nasceu em 1983 em San Francisco, Estados Unidos, em uma família de ascendência italiana. Desde jovem demonstrou interesse pela ciência: estudou física na Universidade de Stanford após se transferir do Caltech, onde iniciou sua carreira universitária. Posteriormente, obteve um doutorado em biofísica na Universidade de Princeton em 2011, focando-se na eletrofisiologia de circuitos neuronais. Completou sua formação com um pós-doutorado na Escola de Medicina de Stanford, onde desenvolveu métodos inovadores em espectrometria de massas para proteínas.

Trajetória profissional inicial:
Antes de ingressar no mundo da inteligência artificial (IA), Amodei trabalhou na Skyline como desenvolvedor de software e colaborou em projetos relacionados ao estudo de proteínas. Em 2014, juntou-se à Baidu, onde liderou o desenvolvimento do Deep Speech 2, um modelo de reconhecimento de voz baseado em aprendizado profundo que superou barreiras linguísticas como o mandarim e o inglês. Mais tarde, no Google Brain, especializou-se em segurança de IA, publicando pesquisas pioneiras sobre como prevenir comportamentos arriscados em sistemas autônomos.

OpenAI e contribuições-chave:
Em 2016, Amodei ingressou na OpenAI como líder da equipe de segurança em Inteligência Artificial. Ascendeu rapidamente, tornando-se vice-presidente de pesquisa em 2019. Sob sua direção, foram desenvolvidos modelos revolucionários como o GPT-2 e o GPT-3, que transformaram o processamento de linguagem natural. No entanto, seu foco em ética e segurança entrou em conflito com a crescente comercialização da OpenAI após o investimento da Microsoft em 2019. Isso o levou a renunciar em 2020, junto com outros 14 pesquisadores, para fundar a Anthropic.

Fundação da Anthropic e visão ética:
Em 2021, Amodei e sua irmã Daniela cofundaram a Anthropic, uma empresa registrada como corporação de benefício público, com o objetivo de equilibrar lucro com bem social. Sua missão é evitar que a IA se torne uma ameaça existencial. Foi lá que ele desenvolveu o Claude, um modelo de linguagem que prioriza o alinhamento com valores humanos por meio de técnicas como o “treinamento constitucional”, que incorpora princípios éticos em seu design. A Anthropic já arrecadou mais de 5 bilhões, incluindo um investimento de 1 bilhão para seu modelo “Claude-Next”, 10 vezes mais potente que seus concorrentes.

Impacto na segurança da IA:
Amodei é uma referência global em ética da Inteligência Artificial. Em 2023, testemunhou perante o Senado dos EUA, alertando sobre riscos como a criação de armas autônomas ou vírus sintéticos. Nesse mesmo ano, foi incluído na lista TIME100 AI ao lado de sua irmã. Seu ensaio “Machines of Loving Grace” (2024) propõe um futuro onde a IA melhore radicalmente o bem-estar humano, desde que seus riscos sejam devidamente gerenciados. Recusou ofertas da OpenAI para substituir Sam Altman e fundir as duas empresas, mantendo sua independência filosófica.

Legado e perspectiva:
Amodei combina rigor científico com uma visão pragmática: armazena suprimentos para crises globais e defende a preparação diante de pandemias ou colapsos energéticos. Seu foco na “segurança escalável” e na transparência influenciou políticas governamentais e a comunidade tecnológica. Aos 42 anos, seu trabalho continua a definir como a IA pode ser uma força de progresso sem comprometer a segurança humana.
Em resumo, Dario Amodei encarna a fusão entre inovação tecnológica e responsabilidade ética, traçando um caminho alternativo na era da IA. Segue a filosofia budista e tem um perfil muito mais discreto que Altman ou Musk.

Anthropic: Inovação em IA com Foco em Segurança e Compreensão:
A Anthropic é uma empresa de pesquisa em inteligência artificial fundada em 2021 por ex-membros da OpenAI, incluindo Dario Amodei e Daniela Amodei, com o objetivo de desenvolver sistemas de IA alinhados com os valores humanos e centrados em segurança, transparência e controlabilidade. Seu enfoque combina avanços técnicos com reflexões éticas profundas, posicionando-se como um ator chave na criação de IA confiável e benéfica para a sociedade.

Claude: Um modelo de linguagem seguro e colaborativo:
Claude (lançado em 2023) é o modelo principal da Anthropic, projetado para priorizar a segurança e evitar comportamentos prejudiciais ou tendenciosos. Diferente de outros modelos, Claude integra técnicas como o “treinamento constitucional”, onde suas respostas são guiadas por princípios éticos explícitos (ex.: não gerar conteúdo violento ou discriminatório).
Suas principais aplicações incluem: assistência em redação ética, análise de documentos jurídicos, tutoria educacional e suporte técnico especializado.

Pesquisa em Alinhamento e Segurança (AI Safety):
A Anthropic lidera estudos para garantir que os sistemas de IA atuem de acordo com as intenções humanas, mesmo em cenários complexos. Exemplos incluem:
Interpretabilidade: entender como os modelos tomam decisões por meio de técnicas como o “circuit breaking” (mapeamento de padrões em redes neurais).
Controle proativo: mecanismos para detectar e corrigir vieses ou erros antes que se agravem.

Foco em IA “Útil, Honesta e Inofensiva”:
Sob o lema “Helpful, Honest, Harmless” (HHH), a Anthropic prioriza que seus sistemas:
Sejam úteis sem manipulação.
Sejam honestos (evitando desinformação).
Minimizem riscos, mesmo em usos não previstos.

Diferenciais-chave frente à OpenAI ou outros:
Ênfase na transparência: publicam detalhes técnicos de seus modelos (embora não o código completo) e colaboram com reguladores para estabelecer padrões éticos.
Autogovernança: sua estrutura corporativa inclui um Conselho de Segurança independente com poder para vetar projetos considerados arriscados.
Colaboração com instituições: trabalham com universidades e governos em marcos de auditoria de IA.

Desafios e Críticas:
Acesso limitado: diferente do ChatGPT, Claude não está amplamente disponível ao público geral, gerando debates sobre a democratização da IA.
Complexidade ética: Quem define os “valores humanos” que guiam Claude? A Anthropic enfrenta críticas por possível viés ocidental em seus princípios.
Competição com Big Tech: seu enfoque cauteloso contrasta com a corrida acelerada de empresas como Google ou Meta para lançar modelos cada vez mais poderosos.

O Futuro segundo a Anthropic:
A empresa explora áreas como:
IA modular: sistemas onde componentes específicos possam ser atualizados sem afetar o restante, facilitando o controle.
Diplomacia algorítmica: ferramentas para mediar negociações internacionais ou conflitos sociais.
Neuro-simbiose: interfaces que permitam a colaboração em tempo real entre humanos e IA, mantendo o controle final nas pessoas.

Conclusão: Um Caminho Alternativo na Era da IA:
A Anthropic representa uma visão de IA onde a inovação técnica não se separa da responsabilidade ética. Enquanto gigantes como a OpenAI buscam capacidades cada vez mais avançadas, a Anthropic insiste que “a inteligência sem alinhamento é uma ameaça”. Seu sucesso ou fracasso não apenas definirá o futuro da empresa, mas também influenciará se a humanidade conseguirá domesticar a tecnologia mais disruptiva do século XXI.

Uma mulher consegue “falar” em tempo real, após 20 anos de silêncio, ao conectar seu cérebro a uma máquina

Uma mulher consegue “falar” em tempo real, após 20 anos de silêncio, ao conectar seu cérebro a uma máquina

Uma interface treinada com IA registra sua atividade cerebral quando ela tenta dizer as palavras e as reproduz com a voz sintetizada da paciente, que sofreu um derrame.

Uma interface treinada com IA registra sua atividade cerebral quando tenta dizer as palavras e as reproduz com a voz sintetizada da paciente, que sofreu um derrame.

Colaboração de Miguel Ángel Criado.
Ann tinha 30 anos quando sofreu um derrame no tronco encefálico, a base do cérebro que se conecta à medula espinhal. Ela deixou de mover as pernas, os braços e até os músculos que acionam suas cordas vocais. Agora, após anos de treinamento com inteligência artificial (IA), uma interface cérebro-máquina (BCI, na sigla em inglês) permite que ela se comunique quase em tempo real com sua própria voz sintetizada. Para isso, sua cabeça precisa estar conectada a uma máquina que registra sua atividade neuronal por meio de uma malha de 253 eletrodos colocados diretamente no cérebro. Mas é a primeira vez que ela consegue falar, ainda que como um robô e conectada a uma máquina, em mais de duas décadas.

Ann, que já passou dos cinquenta anos, não pensa nas palavras, ela tenta dizê-las. A região do córtex motor dedicada à fala não está danificada. É aí que começa o trabalho do grupo de neurocientistas, engenheiros e programadores de IA, e aí reside uma das diferenças em relação a outras tentativas de devolver a capacidade de comunicação a quem não pode falar. Outras BCI atuam sobre a área específica da linguagem enquanto os pacientes pensam em uma palavra ou imaginam que a estão escrevendo. Este novo sistema registra o que acontece em seu cérebro quando ela quer dizer “olá”.

Gopala Anumanchipalli, professor de engenharia elétrica e ciência da computação na Universidade da Califórnia em Berkeley (Estados Unidos) e coautor sênior da pesquisa recém-publicada na Nature Neuroscience, explica por e-mail: “É quando ela tenta dizer ‘hello’, sem pensar nisso. Devido à paralisia de Ann, ela não pode articular nem vocalizar nada. No entanto, o sinal neuronal de sua intenção é potente, o que o torna uma pista confiável para decodificação”, afirma Anumanchipalli.

A decodificação começa com os eletrodos colocados no córtex motor da fala. Em uma pessoa saudável, é daqui que partem as conexões neurais que chegam, através do tronco encefálico, aos músculos que controlam o trato vocal. Com essa conexão perdida, cerca de vinte cientistas de Berkeley e da Universidade da Califórnia em São Francisco, apoiados em diversos trabalhos prévios, projetaram um sistema de aprendizado baseado em algoritmos que decodificavam a atividade neuronal específica de Ann quando ela queria articular uma palavra.

Segundo Cheol Jun Cho, de Berkeley e autor principal do estudo, “basicamente, interceptamos o sinal onde o pensamento se transforma em articulação”

Em nota da universidade, Cho acrescenta: “O que decodificamos acontece depois que a ideia surgiu, depois de ela decidir o que dizer, depois de decidir quais palavras usar e como mover os músculos do trato vocal”. Para que a máquina e Ann pudessem se comunicar, ela precisou treinar com um conjunto de 1.024 palavras que o sistema apresentava na forma de frases (ver vídeo). Também treinaram a BCI com uma série de 50 frases pré-estabelecidas. Assim que via que começavam a aparecer na tela, Ann iniciava suas tentativas de falar, e o sistema convertia o sinal cerebral tanto em texto quanto em voz.

Ann guardava o vídeo de seu casamento, algo que foi muito útil. Com ele, puderam escolher a voz do sintetizador da mesma forma que se escolhe a de um navegador ou da Siri. Ann disse aos pesquisadores que ouvir sua própria voz a ajudava a se conectar com a máquina. Começa a ser prática comum gravar pessoas com deterioração cognitiva ou doenças que ameaçam sua capacidade de falar no futuro, com a esperança de que a ciência possa devolver-lhes a voz um dia.

A segunda grande contribuição deste trabalho é a velocidade. Esta BCI não é a única que conseguiu fazer com que pessoas que perderam a capacidade de falar voltassem a se comunicar. Mas, até agora, eram sistemas muito lentos. O processo pelo qual os indivíduos tentavam falar ou escrever passava por várias etapas. Até que algo inteligível — fosse voz ou texto — aparecesse do outro lado do sistema, levava vários segundos, tempo demais para uma comunicação real e fluida. Esta nova BCI reduz consideravelmente essa latência.

“Cerca de um segundo, medido a partir do momento em que nosso decodificador de voz detecta sua intenção de falar nos sinais neurais”, diz Anumanchipalli. Para esse neurocientista, especialista em processamento de linguagem e inteligência artificial, esse novo método de transmissão converte os sinais cerebrais de Ann em sua voz personalizada quase em tempo real. “Ela não precisa esperar terminar uma frase ou palavra, já que o decodificador funciona em sincronia com sua intenção de falar, de forma semelhante à fala de pessoas saudáveis”, acrescenta.

Para descartar a possibilidade de que Ann e a BCI tivessem aprendido a repetir como papagaios as frases oferecidas pelo sistema (embora houvesse milhares de combinações possíveis), na fase final dos experimentos, os pesquisadores fizeram com que a tela exibisse as 26 palavras que formam o chamado alfabeto fonético da OTAN. Essa linguagem foi um método iniciado há um século e adotado pela organização militar nos anos 50 para facilitar comunicações por rádio, soletrando comandos. Começa com as palavras alfa, bravo, charlie, delta… Ann, que não havia treinado com elas, conseguiu dizê-las sem grandes diferenças em relação aos vocabulários com os quais havia treinado.

O que foi alcançado é apenas uma pequena parte do que ainda falta

Já estão trabalhando para que a IA capte as dimensões não formais da comunicação, como o tom, a expressividade, as exclamações, as perguntas… “Temos um trabalho em andamento para tentar ver se conseguimos decodificar essas características paralinguísticas a partir da atividade cerebral”, diz em uma nota Kaylo Littlejohn, também coautor desta pesquisa. “Trata-se de um problema antigo, até mesmo nos campos clássicos da síntese de áudio, e [cuja solução] permitiria alcançar uma naturalidade completa”.

Outros problemas são, por enquanto, também insolúveis. Um deles é a necessidade de abrir o crânio e colocar 253 eletrodos sobre o cérebro. Anumanchipalli reconhece: “Por enquanto, apenas as técnicas invasivas demonstraram eficácia com BCI de fala para pessoas com paralisia. Se as não invasivas melhorarem a captação do sinal de forma precisa, seria razoável supor que poderemos criar uma BCI não invasiva”. Mas, por ora, admite o especialista, ainda não chegaram a esse ponto.


Miguel Ángel Criado (Almería, 1968) é um destacado jornalista científico e escritor espanhol

Licenciado em Ciências Políticas e Sociologia, é cofundador da Materia, a seção de ciência do jornal El País desde 2014, onde publica artigos sobre mudança climática, meio ambiente, biologia, inteligência artificial e antropologia.

Anteriormente, trabalhou em meios como Público, Cuarto Poder e El Mundo.

É autor do ensaio Calor. Cómo nos afecta la crisis climática (Debate, 2024), no qual combina dados científicos, narrativas pessoais e experiências de campo para abordar o impacto do aquecimento global na Espanha.

A Singularidade da Inteligência Artificial e o Fim da Lei de Moore:a ascensão das máquinas de autoaprendizado

A Singularidade da Inteligência Artificial e o Fim da Lei de Moore:a ascensão das máquinas de autoaprendizado

Singularidade da Inteligência Artificial e a Superinteligência

Colaboração do Dr. Assad Abbas
A Lei de Moore foi o modelo de ouro para prever o progresso tecnológico durante anos. Introduzida por Gordon Moore, cofundador da Intel, em 1965, ela estabelecia que a quantidade de transistores em um chip se duplicaria a cada dois anos, tornando os computadores mais rápidos, menores e baratos com o tempo. Esse avanço constante impulsionou tudo, desde os computadores pessoais e smartphones até o crescimento da Internet.

Mas essa era está chegando ao fim. Os transistores estão agora alcançando limites de escala atômica, e reduzi-los ainda mais se tornou incrivelmente caro e complexo. Enquanto isso, o poder de processamento da IA está crescendo rapidamente, superando de longe a Lei de Moore. Ao contrário da computação tradicional, a IA se baseia em hardware robusto e especializado e no processamento paralelo para lidar com dados massivos. O que distingue a IA é sua capacidade de aprender e refinar continuamente seus algoritmos, levando a rápidas melhorias na eficiência e no desempenho.

Essa rápida aceleração nos aproxima de um momento crucial conhecido como a singularidade da IA, o ponto em que a IA supera a inteligência humana e inicia um ciclo imparável de autossuperação. Empresas como Tesla, Nvidia, Google DeepMind e OpenAI lideram essa transformação com GPUs poderosas, chips de IA personalizados e redes neurais em larga escala. À medida que os sistemas de IA se tornam cada vez mais capazes de melhorar, alguns especialistas acreditam que poderíamos alcançar a Superinteligência Artificial (ASI) já em 2027, um marco que poderia mudar o mundo para sempre.

À medida que os sistemas de IA se tornam cada vez mais independentes e capazes de se otimizar, especialistas preveem que poderíamos alcançar a Superinteligência Artificial (ASI) em 2027. Se isso acontecer, a humanidade entrará em uma nova era em que a IA impulsionará a inovação, transformará as indústrias e possivelmente ultrapassará o controle humano. A pergunta é se a IA chegará a esse estágio, quando, e se estamos preparados.

Como os sistemas de escalabilidade e autoaprendizado da IA estão transformando a computação

À medida que a Lei de Moore perde força, os desafios de fabricar transistores menores se tornam mais evidentes. O acúmulo de calor, as limitações energéticas e o aumento dos custos de produção de chips tornaram os avanços na computação tradicional cada vez mais difíceis. No entanto, a IA está superando essas limitações não fabricando transistores menores, mas mudando a forma como a computação funciona.

Em vez de depender de transistores cada vez menores, a IA emprega processamento paralelo, aprendizado de máquina e hardware especializado para melhorar o desempenho. O aprendizado profundo e as redes neurais se destacam ao processar grandes quantidades de dados simultaneamente, ao contrário dos computadores tradicionais que executam tarefas de forma sequencial. Essa transformação levou ao uso generalizado de GPUs, TPUs e aceleradores de IA projetados explicitamente para cargas de trabalho de IA, oferecendo uma eficiência significativamente maior.

À medida que os sistemas de IA se tornam mais avançados, a demanda por maior poder computacional continua a crescer. Esse crescimento rápido multiplicou por cinco a potência computacional da IA a cada ano, superando de longe o crescimento tradicional de duas vezes a cada dois anos da Lei de Moore. O impacto dessa expansão é mais evidente nos modelos de linguagem de grande porte (LLM, na sigla em inglês), como GPT-4, Gemini e DeepSeek, que exigem capacidades massivas de processamento para analisar e interpretar enormes conjuntos de dados, impulsionando a próxima onda da computação movida por IA. Empresas como a Nvidia estão desenvolvendo processadores de IA altamente especializados que oferecem uma velocidade e eficiência incríveis para atender a essas demandas.

A escalabilidade da IA é impulsionada por hardware de ponta e algoritmos de autossuperação, permitindo que as máquinas processem grandes volumes de dados de forma mais eficiente do que nunca. Entre os avanços mais significativos está o supercomputador Dojo da Tesla, um marco na computação otimizada para IA projetado explicitamente para treinar modelos de aprendizado profundo.

Ao contrário dos centros de dados convencionais projetados para tarefas de uso geral, o Dojo é projetado para lidar com cargas de trabalho massivas de IA, especialmente para a tecnologia de condução autônoma da Tesla. O que diferencia o Dojo é sua arquitetura personalizada centrada na IA, otimizada para aprendizado profundo em vez da computação tradicional. Isso resultou em velocidades de treinamento sem precedentes e permitiu à Tesla reduzir os tempos de treinamento de IA de meses para semanas, ao mesmo tempo em que diminui o consumo de energia por meio de uma gestão energética eficiente. Ao permitir que a Tesla treine modelos maiores e mais avançados com menos energia, o Dojo está desempenhando um papel vital na aceleração da automação impulsionada por IA.

No entanto, a Tesla não está sozinha nessa corrida. Em toda a indústria, os modelos de IA estão se tornando cada vez mais capazes de aprimorar seus processos de aprendizado. O AlphaCode da DeepMind, por exemplo, está impulsionando o desenvolvimento de software gerado por IA ao otimizar a eficiência da escrita de códigos e melhorar a lógica algorítmica ao longo do tempo. Enquanto isso, os modelos de aprendizado avançado do Google DeepMind são treinados com dados do mundo real, permitindo que se adaptem dinamicamente e refinem os processos de tomada de decisão com mínima intervenção humana.

Mais importante ainda, a IA agora pode se aprimorar por meio da autossuperação recursiva, um processo em que os sistemas de IA refinam seus próprios algoritmos de aprendizado e aumentam a eficiência com mínima intervenção humana. Essa capacidade de autoaprendizado está acelerando o desenvolvimento da IA em um ritmo sem precedentes, aproximando a indústria da ASI. Com os sistemas de IA se aperfeiçoando, otimizando e se melhorando continuamente, o mundo está entrando em uma nova era de computação inteligente que evolui de forma independente e contínua.

O Caminho para a Superinteligência: Estamos nos Aproximando da Singularidade?

A singularidade da IA refere-se ao ponto em que a inteligência artificial supera a inteligência humana e passa a se aprimorar sem intervenção humana. Nesse estágio, a IA poderia criar versões mais avançadas de si mesma em um ciclo contínuo de autossuperação, levando a avanços rápidos além da compreensão humana. Essa ideia depende do desenvolvimento da inteligência artificial geral (AGI), capaz de realizar qualquer tarefa intelectual que um ser humano pode desempenhar e, com o tempo, evoluir para a ASI.

Os especialistas têm opiniões divergentes sobre quando isso poderá ocorrer. Ray Kurzweil, futurista e pesquisador de IA no Google, prevê que a AGI chegará em 2029, seguida de perto pela ASI. Por outro lado, Elon Musk acredita que a ASI poderá surgir já em 2027, destacando o rápido crescimento da capacidade computacional da IA e sua habilidade de escalar mais rapidamente do que o esperado.

A capacidade de processamento da IA dobra a cada seis meses, superando amplamente a Lei de Moore, que previa a duplicação da densidade de transistores a cada dois anos. Essa aceleração é possível graças aos avanços no processamento paralelo, hardware especializado como GPUs e TPUs, e técnicas de otimização como quantização de modelos e dispersão.

Os sistemas de IA também estão se tornando mais independentes. Alguns já são capazes de otimizar suas arquiteturas e melhorar os algoritmos de aprendizado sem intervenção humana. Um exemplo é o Neural Architecture Search (NAS), em que a IA projeta redes neurais para melhorar a eficiência e o desempenho. Esses avanços estão levando ao desenvolvimento de modelos de IA que se aperfeiçoam continuamente, um passo essencial rumo à superinteligência.

Dado o potencial da IA para avançar tão rapidamente, pesquisadores da OpenAI, DeepMind e outras organizações estão trabalhando em medidas de segurança para garantir que os sistemas de IA permaneçam alinhados com os valores humanos. Estão sendo desenvolvidos métodos como o aprendizado por reforço com feedback humano (RLHF) e mecanismos de supervisão para reduzir os riscos associados à tomada de decisões autônomas pela IA. Esses esforços são fundamentais para orientar o desenvolvimento da IA de forma responsável. Se a IA continuar a evoluir nesse ritmo, a singularidade pode chegar antes do previsto.

A Promessa e os Riscos da IA Superinteligente

O potencial da ASI para transformar diversas indústrias é imenso, especialmente nas áreas de medicina, economia e sustentabilidade ambiental.

No campo da saúde, a ASI pode acelerar a descoberta de medicamentos, melhorar o diagnóstico de doenças e encontrar novos tratamentos para o envelhecimento e outras enfermidades complexas.
Na economia, pode automatizar tarefas repetitivas, permitindo que as pessoas se concentrem na criatividade, inovação e resolução de problemas.
Em escala global, a IA também pode desempenhar um papel fundamental no enfrentamento dos desafios climáticos, otimizando o uso de energia, aprimorando a gestão de recursos e encontrando soluções para reduzir a poluição.

No entanto, esses avanços trazem riscos significativos. Se a inteligência artificial não estiver devidamente alinhada com os valores e objetivos humanos, poderá tomar decisões que entrem em conflito com os interesses da humanidade, levando a resultados imprevisíveis ou perigosos. A capacidade da IA de se aprimorar rapidamente levanta preocupações sobre o controle à medida que os sistemas se tornam mais avançados, tornando cada vez mais difícil garantir que permaneçam sob supervisão humana.

Entre os riscos mais relevantes estão:
Perda de controle humano: à medida que a IA superar a inteligência humana, poderá operar além da nossa capacidade de regulá-la. Sem estratégias de alinhamento eficazes, a IA pode tomar decisões sobre as quais os humanos não terão mais influência.
Ameaças existenciais: se a ASI priorizar sua própria otimização sem considerar os valores humanos, poderá tomar decisões que ameacem a sobrevivência da humanidade.
Desafios regulatórios: governos e organizações enfrentam dificuldades para acompanhar o ritmo acelerado do desenvolvimento da IA, o que complica a criação de políticas e salvaguardas adequadas a tempo.

Organizações como OpenAI e DeepMind estão trabalhando ativamente em medidas de segurança para a Inteligência Artificial, incluindo métodos como o RLHF, para manter a IA alinhada com diretrizes éticas. No entanto, o progresso em segurança de IA não acompanha o ritmo dos avanços tecnológicos, levantando preocupações sobre se as precauções necessárias serão tomadas antes que a IA atinja um nível além do controle humano.

Embora a Inteligência Artificial superinteligente seja extremamente promissora, seus riscos não podem ser ignorados. As decisões tomadas hoje definirão o futuro do desenvolvimento da IA. Para garantir que a IA beneficie a humanidade em vez de representar uma ameaça, pesquisadores, formuladores de políticas e a sociedade precisam trabalhar juntos para priorizar ética, segurança e inovação responsável.

Resultado Final

A rápida aceleração da expansão da Inteligência Artificial nos aproxima de um futuro em que a IA superará a inteligência humana. Embora a IA já tenha transformado diversas indústrias, o surgimento da inteligência artificial superinteligente poderá redefinir a maneira como trabalhamos, inovamos e enfrentamos desafios complexos. No entanto, esse salto tecnológico traz riscos substanciais, incluindo a possível perda de supervisão humana e consequências imprevisíveis.

Garantir que a Inteligência Artificial continue alinhada com os valores humanos é um dos desafios mais críticos do nosso tempo. Pesquisadores, formuladores de políticas e líderes da indústria devem colaborar para desenvolver salvaguardas éticas e estruturas regulatórias que orientem a IA rumo a um futuro que beneficie a humanidade. À medida que nos aproximamos da singularidade, as decisões que tomamos hoje moldarão a forma como a IA coexistirá conosco nos próximos anos.


Dr. Assad Abbas

O Dr. Assad Abbas, professor associado titular da Universidade COMSATS de Islamabad (Paquistão), obteve seu doutorado na Universidade Estadual de Dakota do Norte (EUA). Sua pesquisa é focada em tecnologias avançadas, como computação em nuvem, em névoa e na borda, análise de big data e inteligência artificial. O Dr. Abbas tem feito contribuições substanciais com publicações em revistas científicas e conferências de prestígio.

Google prevê investir US$ 75 bilhões durante este ano no desenvolvimento de IA.

Google prevê investir US$ 75 bilhões durante este ano no desenvolvimento de IA.

Desde a empresa afirmam que seus novos modelos experimentais superam os da chinesa DeepSeek

O gigante tecnológico Google anunciou nesta terça-feira que prevê investir 75 bilhões de dólares em gastos de capital em 2025, direcionados ao desenvolvimento de infraestruturas técnicas relacionadas à inteligência artificial (IA), como servidores e centros de dados, já que precisa de mais “capacidade” para atender à demanda.

“Tivemos uma demanda muito forte por nossos produtos de IA no quarto trimestre e fechamos o ano com mais demanda do que capacidade disponível, então estamos numa situação de oferta e demanda muito apertada, trabalhando duro para ativar mais capacidade”, disse nesta terça o CEO da Alphabet, Sundar Pichai.

O executivo afirmou que seus novos modelos experimentais de inteligência artificial (IA) superam os da empresa chinesa DeepSeek e que vai aumentar seus gastos de capital para absorver a “forte demanda”.

Na conferência para analisar os resultados com analistas, o executivo explicou que o modelo de IA da Alphabet, chamado Gemini, se destaca em “custo, desempenho e tempos de espera” e “lidera a fronteira de Pareto”, um conceito econômico que se refere ao ponto de equilíbrio da eficiência.

“Eu diria que nossos modelos (Gemini) 2.0 Flash e 2.0 Flash Thinking são alguns dos modelos mais eficientes que existem, inclusive comparados aos da DeepSeek, V3 e R1”, declarou Pichai, que, apesar disso, parabenizou o “time incrível” da DeepSeek, que fez um “trabalho muito bom”.

No último trimestre de 2024, o Google Cloud, serviço de nuvem que incorpora IA, teve receita de 11,955 bilhões, um aumento de 30% em relação ao ano anterior, número que, no entanto, representa um crescimento mais lento em comparação a outros trimestres e que os executivos atribuíram às limitações frente à demanda.

Pichai também previu que as empresas de tecnologia estão aumentando os gastos na inferência de seus modelos de IA e disse esperar que os “modelos de raciocínio”, que podem usar a lógica para chegar a conclusões, acelerem ainda mais o desenvolvimento.

“Essa é parte da razão pela qual estamos tão entusiasmados com a oportunidade da IA. Sabemos que podemos impulsionar exemplos de uso extraordinários porque o custo real de usar a IA vai continuar caindo, tornando mais exemplos viáveis. O espaço de oportunidade é enorme.”

Preguntar a ChatGPT

Elon Musk afirma que quase ninguém terá trabalho por causa da IA,

Elon Musk afirma que quase ninguém terá trabalho por causa da IA,

quais empregos estariam em risco?
O magnata não previu uma data para a mudança, mas garantiu que será em breve

A inteligência artificial (IA) está transformando rapidamente o cenário de trabalho, gerando debates sobre as profissões que poderiam ser — e já estão sendo — substituídas por essa tecnologia.

Recentemente, Elon Musk, CEO da Tesla e da SpaceX, afirmou na rede social X que a IA “em breve superará médicos e advogados por uma ampla margem (e, eventualmente, todos os humanos em quase tudo)”.
A medicina e o direito, campos que tradicionalmente exigem um alto nível de conhecimento e julgamento humano, estão passando por uma crescente integração da IA.

Qual é a pergunta que os jovens devem se fazer todos os dias para serem felizes, segundo Steve Jobs

Na medicina, sistemas de IA com acesso a vastos bancos de dados podem diagnosticar doenças e sugerir tratamentos com uma precisão que rivaliza com a dos profissionais humanos.
Um estudo recente demonstrou que o ChatGPT superou médicos na avaliação de históricos médicos, sugerindo que a IA poderia desempenhar um papel significativo na atenção à saúde.

No campo jurídico, a IA está sendo utilizada para analisar documentos, prever resultados de casos e automatizar tarefas rotineiras. Ferramentas avançadas conseguem revisar contratos e realizar pesquisas legais de maneira mais eficiente que os humanos, o que poderia reduzir a demanda por advogados em certas funções.

Além de médicos e advogados, outras ocupações podem ser afetadas pela automação impulsionada pela IA. Segundo um relatório do Fórum Econômico Mundial, os vendedores por telefone, autorizadores de crédito, assistentes estatísticos e caixas de banco estão entre as funções com maior risco de serem substituídas pela IA no futuro.

Uma análise da plataforma Indeed identificou que cerca de 20% dos postos de trabalho estão altamente expostos à IA, o que significa que a inteligência artificial poderia realizar pelo menos 80% das tarefas associadas a essas funções. Isso inclui empregos com tarefas repetitivas ou baseadas em dados, como analistas de notícias, repórteres, assistentes administrativos e contadores.

Outro dos campos com maior impacto é o relacionado ao comércio eletrônico. De acordo com um relatório da Statista, estima-se que 2,9 bilhões de consumidores façam compras online, o que representa 36% da população mundial.
Com base nessa informação, a Statista aponta que mais de 50% dos e-commerces já adaptaram soluções de inteligência artificial aos seus negócios e cerca de 30% já possuem essa tecnologia integrada ao seu funcionamento.

As empresas estão vendo nessas estratégias a oportunidade de otimizar as vendas, melhorar e personalizar a relação com seus clientes e otimizar processos internos.

Bill Gates, cofundador da Microsoft, prevê que a IA será transformadora nos próximos cinco anos e aponta que apenas três profissões sobreviverão e se adaptarão melhor a essa tecnologia: aquelas relacionadas à biologia, ao setor de energia e aos trabalhos especializados em design e programação de ferramentas de IA.
Nesse sentido, o empresário argumenta que a IA permitirá às pessoas se concentrarem em tarefas mais criativas e significativas, enquanto as máquinas realizam tarefas rotineiras.

Para Bill Gates, a biologia, o setor de energia e a programação não estão ameaçados pela IA. (Imagem Ilustrativa Infobae)

Por outro lado, Elon Musk tem expressado preocupações quanto ao ritmo da automação e seu impacto no emprego. Durante sua participação na conferência VivaTech 2024 em Paris, afirmou que a maioria dos empregos atuais será substituída por máquinas inteligentes e sistemas automatizados em um futuro não muito distante, destacando que “quase nenhum de nós terá trabalho”.

Embora a IA ofereça oportunidades significativas para melhorar a eficiência e a produtividade, também apresenta desafios consideráveis para o mercado de trabalho. Profissões que antes eram consideradas seguras podem ser transformadas ou até mesmo substituídas por sistemas automatizados.


Juan José Ríos Arbeláez é um jornalista e colaborador que atua na cobertura de temas relacionados à tecnologia, inovação e mercado de trabalho, contribuindo com reportagens e análises sobre o impacto das novas tecnologias na sociedade.

error: Content is protected !!