Stuart J. Russell é um dos nomes mais reconhecidos no campo da inteligência artificial (IA), especialmente pelo seu trabalho em IA ética e sua visão de uma IA que beneficie a humanidade sem comprometer seus valores fundamentais. Nascido em 1962 em Portsmouth, Inglaterra, Russell construiu uma carreira de destaque na interseção entre a teoria da IA e sua aplicação prática, fazendo contribuições importantes tanto para a pesquisa acadêmica quanto para os debates éticos em torno dessa tecnologia. Seu enfoque rigoroso e sua visão global o posicionaram como uma das vozes mais influentes no campo da IA contemporânea.
Russell completou sua educação primária na Inglaterra antes de se mudar para os Estados Unidos para realizar seus estudos superiores. Em 1982, obteve seu diploma em Física pela Universidade de Oxford e, posteriormente, em 1986, obteve seu doutorado em Informática pela Universidade de Stanford. Foi em Stanford que Russell começou a desenvolver um profundo interesse por IA, influenciado por figuras como John McCarthy, a quem é atribuída a criação do termo “inteligência artificial”. Após obter seu doutorado, Russell ingressou na Universidade da Califórnia, Berkeley, como professor de Ciências da Computação, onde desenvolveu grande parte de sua carreira acadêmica e de pesquisa.
Um dos aspectos mais destacados da trajetória de Russell é seu foco nos fundamentos teóricos da IA e seu esforço para criar sistemas que não apenas sejam capazes de realizar tarefas específicas, mas também de se comportar de forma racional em uma ampla gama de situações. Nesse sentido, uma de suas contribuições mais importantes é seu trabalho no campo da “racionalidade limitada”, que explora como os agentes inteligentes podem tomar decisões ótimas, dado que seus recursos computacionais e a informação disponível são limitados. Essa linha de pesquisa foi crucial para o desenvolvimento de sistemas de IA mais realistas, que operam dentro das restrições impostas pelo mundo real.
Russell é provavelmente mais conhecido pelo seu livro Artificial Intelligence: A Modern Approach, que coescreveu com Peter Norvig. Publicado pela primeira vez em 1995, esse livro de texto foi adotado em mais de 1.500 universidades ao redor do mundo e é considerado uma referência essencial no ensino de IA. Nele, Russell e Norvig apresentam uma introdução abrangente aos conceitos fundamentais da IA, cobrindo temas como resolução de problemas, planejamento, aprendizado de máquina, percepção e linguagem natural. O enfoque integral e equilibrado do livro ajudou a moldar a formação de gerações de estudantes de IA, consolidando a reputação de Russell como um educador e divulgador excepcional no campo.
Além de suas contribuições à teoria e ao ensino da IA, Stuart Russell também desempenhou um papel fundamental no debate sobre a ética da IA e os riscos associados ao seu desenvolvimento. Em particular, Russell tem sido um defensor firme da criação de uma IA segura e controlável. Em seu livro Human Compatible: Artificial Intelligence and the Problem of Control (2019), Russell argumenta que o enfoque tradicional da IA, que se concentra em criar sistemas que maximizem a eficiência na realização de um conjunto de objetivos fixos, é inerentemente perigoso. Segundo Russell, um dos principais riscos é que uma IA avançada, se programada para perseguir objetivos de forma cega, pode agir de maneiras contrárias aos interesses humanos. Por exemplo, uma IA projetada para maximizar a produtividade industrial pode causar danos ambientais ou humanos se não forem impostas as restrições adequadas.
Russell propõe uma nova direção para a pesquisa de IA que ele chama de “IA dotada de valores humanos”. Em vez de programar as máquinas para maximizar um objetivo específico, ele argumenta que devemos projetá-las para que ajam de acordo com os valores humanos, mesmo quando esses valores não estiverem completamente definidos. Essa IA, segundo Russell, deveria ser projetada para ser “insegura” em seu conhecimento sobre as preferências humanas, sempre disposta a se ajustar a novas informações sobre o que os humanos realmente desejam. Esse enfoque introduz a incerteza deliberada nos sistemas de IA, de forma que as máquinas não possam prejudicar os humanos em sua busca por cumprir objetivos mal compreendidos ou mal definidos.
O trabalho de Russell nesse campo o levou a participar ativamente de iniciativas globais que defendem o desenvolvimento ético da IA. Ele é cofundador do Center for Human-Compatible Artificial Intelligence (CHAI), uma instituição dedicada a pesquisar como criar IA que coopere efetivamente com os humanos, em vez de competir com eles ou causar-lhes danos. Através de seu trabalho no CHAI, Russell contribuiu para estabelecer as bases de uma nova ética da IA, baseada no reconhecimento da importância dos valores humanos e na necessidade de projetar sistemas que se alinhem com esses princípios.
Além de suas pesquisas acadêmicas, Russell desempenhou um papel crucial na promoção do debate sobre os riscos da IA em nível internacional. Ele testemunhou em diversos comitês governamentais e tem sido consultor para organizações como as Nações Unidas e o Parlamento Europeu. Uma de suas principais preocupações é a possível militarização da IA, especialmente na forma de sistemas autônomos de armas, que poderiam tomar decisões de vida ou morte sem intervenção humana. Russell tem sido uma das vozes mais ativas na campanha pela proibição das “armas autônomas letais”, argumentando que seu uso apresenta riscos éticos e práticos significativos, pois poderia desestabilizar a segurança global e tornar os conflitos armados mais difíceis de controlar.
Em reconhecimento às suas contribuições para a pesquisa em IA e ao seu impacto no debate global sobre a ética da IA, Stuart Russell recebeu vários prêmios e distinções ao longo de sua carreira. Entre eles, destacam-se o Prêmio IJCAI de Excelência em Pesquisa (1995), o Prêmio ACM-AAAI Allen Newell (2005) e a bolsa da Associação para o Avanço da Inteligência Artificial (AAAI). Esses prêmios refletem não apenas sua influência no campo da IA, mas também seu compromisso com a busca por soluções práticas e éticas para os desafios impostos pela tecnologia.
Em termos de legado, Stuart J. Russell tem sido um líder-chave no desenvolvimento da IA moderna e na promoção de uma abordagem mais responsável e ética na pesquisa e desenvolvimento dessa tecnologia. Seu trabalho lançou as bases para uma compreensão mais profunda de como os sistemas de IA podem interagir com o mundo real, e seu foco na segurança e compatibilidade com os valores humanos abriu novas vias para o estudo da IA ética. Ao mesmo tempo, sua influência como educador, por meio de seu livro de texto fundamental e seus ensinamentos em Berkeley, formou milhares de estudantes que hoje trabalham nos mais variados aspectos da IA.
Ao longo de sua carreira, Russell demonstrou que a inteligência artificial não é apenas uma questão técnica, mas também uma questão profundamente ética, que exige uma reflexão cuidadosa sobre o impacto que essas tecnologias terão no mundo. Sua visão de uma IA que beneficie a humanidade sem colocar em risco nossos valores mais fundamentais continua sendo uma influência crucial no campo, e seu legado seguirá orientando o desenvolvimento da IA nas próximas décadas.
John McCarthy é amplamente reconhecido como um dos pioneiros mais influentes no campo da inteligência artificial (IA). Nascido em 4 de setembro de 1927 em Boston, Massachusetts, McCarthy cresceu em uma família de imigrantes de origem irlandesa e russa. Desde jovem, demonstrou um notável interesse por matemática e ciências, inclinações que o levaram a se tornar uma figura chave no desenvolvimento do que hoje conhecemos como IA. Este artigo explora sua trajetória acadêmica, suas contribuições técnicas para o campo e o legado que ele deixou na comunidade científica.
McCarthy frequentou a Universidade da Califórnia, em Berkeley, onde inicialmente se especializou em matemática. Após obter seu diploma em 1948, continuou seus estudos de pós-graduação em Princeton, onde completou seu doutorado em Matemática em 1951. Durante seu tempo em Princeton, foi influenciado pela rica tradição da lógica matemática desenvolvida por figuras como Kurt Gödel e Alan Turing. Foi nesse contexto que McCarthy começou a se interessar pelas interseções entre lógica formal e a capacidade das máquinas de processar informações de maneira inteligente.
Um dos feitos mais notáveis de McCarthy foi a cunhagem do termo “inteligência artificial”. Durante a Conferência de Dartmouth em 1956, um evento que McCarthy ajudou a organizar, ele e seus colegas apresentaram uma série de ideias que formaram a base conceitual da IA como um campo de estudo independente. Nessa conferência, McCarthy propôs que “a inteligência pode ser descrita de maneira tão precisa que uma máquina pode simular a inteligência”. Esta afirmação se tornaria o núcleo da pesquisa em IA nas décadas seguintes. A Conferência de Dartmouth é vista como o ponto de partida oficial da IA, e McCarthy como um de seus pais fundadores.
No âmbito técnico, um dos maiores legados de McCarthy é o desenvolvimento da LISP, uma linguagem de programação que se manteve como uma ferramenta fundamental na pesquisa em IA. LISP foi projetada por McCarthy em 1958 como uma linguagem para manipulação de dados simbólicos, o que a tornou especialmente útil para a representação do conhecimento e realização de raciocínios lógicos em IA. LISP introduziu várias inovações, incluindo a ideia de “listas” como estruturas de dados fundamentais, e foi uma das primeiras linguagens a implementar recursão, uma técnica chave para a resolução de problemas complexos. Embora tenham surgido outras linguagens de programação mais modernas, LISP ainda é usada em aplicações especializadas e no ensino de conceitos avançados de IA e programação.
Outro grande feito de McCarthy foi sua contribuição para a teoria de sistemas automatizados e o conceito de “computação de tempo compartilhado”. Durante seu tempo no MIT na década de 1960, McCarthy ajudou a desenvolver o conceito de tempo compartilhado, que permitiu que múltiplos usuários interagissem com um computador simultaneamente. Essa inovação mudou drasticamente a maneira como a computação era entendida e utilizada, sendo um precursor da computação em nuvem e outras formas de processamento distribuído.
McCarthy também foi um firme defensor da abordagem simbólica para a IA. Diferente de outros pesquisadores que se concentraram em redes neurais e métodos estatísticos, McCarthy acreditava que a IA deveria ser baseada na manipulação de símbolos e na lógica formal para simular o pensamento humano. Sua visão de uma IA “forte”, ou seja, uma IA que não apenas realizasse tarefas específicas, mas também desenvolvesse uma forma de raciocínio geral e compreendesse o mundo de maneira semelhante ao ser humano, influenciou profundamente o desenvolvimento da IA durante as primeiras décadas de sua existência. Embora as técnicas de IA tenham mudado drasticamente desde os tempos de McCarthy, sua abordagem na representação do conhecimento e na lógica continua sendo relevante em áreas como planejamento automatizado e sistemas especialistas.
Ao longo de sua carreira, McCarthy recebeu vários prêmios e reconhecimentos por suas contribuições ao campo da IA. Em 1971, foi agraciado com o Prêmio Turing, considerado o “Nobel” da informática, por seu papel na invenção da LISP e suas contribuições teóricas para a IA. Ao longo de sua vida, continuou publicando pesquisas influentes e promovendo sua visão de IA, mantendo sua fé na possibilidade de criar uma inteligência artificial geral (AGI), apesar do ceticismo de alguns de seus contemporâneos.
Além de suas contribuições técnicas, McCarthy também foi um pensador profundo sobre as implicações éticas da IA. Foi um dos primeiros a alertar sobre os possíveis riscos da IA avançada, apontando que os sistemas inteligentes do futuro deveriam ser projetados com fortes considerações éticas. No entanto, McCarthy era otimista quanto à capacidade da humanidade de gerenciar esses riscos, e frequentemente defendia uma abordagem cuidadosa, mas progressiva, no desenvolvimento de tecnologias avançadas.
O legado de John McCarthy vai além de suas contribuições técnicas. Sua capacidade de formular perguntas fundamentais sobre a natureza da inteligência e sua determinação em construir ferramentas que emulassem essas capacidades estabeleceram as bases para grande parte da pesquisa atual em IA. Embora não tenha vivido para ver a plena realização de seu sonho de uma inteligência artificial geral, McCarthy foi uma figura chave na evolução do campo, inspirando gerações de cientistas e tecnologistas que continuam trabalhando nos problemas que ele mesmo propôs.
McCarthy faleceu em 24 de outubro de 2011, aos 84 anos, deixando um legado duradouro na história da ciência e da tecnologia. Suas ideias sobre representação de conhecimento, lógica formal e linguagem de programação continuam a influenciar a pesquisa atual, enquanto sua visão de longo prazo sobre IA continua a ser um farol para os pesquisadores que buscam entender e replicar a inteligência humana nas máquinas. Em resumo, John McCarthy foi um dos arquitetos mais influentes na fundação da inteligência artificial como campo de estudo. Através de suas inovações como a linguagem de programação LISP e seu trabalho no conceito de computação de tempo compartilhado, McCarthy não só contribuiu para o desenvolvimento de ferramentas fundamentais para a IA, mas também ajudou a definir a visão de longo prazo do campo. Seu legado permanece vivo na comunidade científica, onde suas ideias continuam a inspirar novos enfoques e descobertas na IA.búsqueda de construir máquinas verdaderamente inteligentes.
O pedido foi feito por meio de uma carta aberta. A nova legislação europeia não será aplicada integralmente até 2026.
Cerca de trinta empresas de tecnologia, entre elas a Meta (Facebook, Instagram) e a Spotify, assim como pesquisadores e associações, pediram em uma carta aberta à União Europeia que esclareça sua regulamentação sobre inteligência artificial (IA).
“A Europa se tornou menos competitiva e inovadora do que outras regiões e hoje corre o risco de perder ainda mais terreno na era da IA devido a decisões regulatórias inconsistentes”, diz a carta publicada na quinta-feira.
“Nos últimos tempos, as regulamentações se tornaram fragmentadas e imprevisíveis”, argumentam os signatários, que consideram que as intervenções das autoridades europeias “geraram muita incerteza sobre o tipo de dados que podem ser utilizados para treinar modelos de IA.” Por isso, pedem aos responsáveis políticos europeus “decisões harmonizadas, coerentes, rápidas e claras sobre as regulamentações de dados na UE.”
Em agosto, entrou oficialmente em vigor a nova legislação europeia para regular a IA, pioneira a nível mundial, que tem o objetivo de impulsionar a inovação protegendo, ao mesmo tempo, a privacidade. A normativa impõe restrições aos sistemas de IA se representarem um perigo para a sociedade. Também obriga sistemas como o ChatGPT a garantir a qualidade dos dados e o respeito aos direitos autorais.
A nova legislação não será aplicada integralmente até 2026, mas algumas disposições serão vinculantes no próximo ano.
Europa e a primeira lei que regula a IA
O organismo internacional é o primeiro a decretar um marco legal para o desenvolvimento deste tipo de tecnologia. A lei havia sido aprovada em março, mas entrou em vigor a partir do mês de agosto de 2024.
A normativa atribui suas regras a cada empresa que utiliza sistemas de IA com base em quatro níveis de risco: sem risco, risco mínimo, risco alto e sistemas de IA proibidos. Essa categorização também determina os prazos a serem aplicados a cada empresa para cumprir com a nova legislação.
Nessa linha, com a entrada em vigor da lei, a UE proibirá totalmente determinadas práticas a partir de fevereiro de 2025. Entre elas estão aquelas que manipulam a tomada de decisões de um usuário ou ampliam as bases de dados de reconhecimento facial por meio do scraping da Internet.
Outros sistemas de IA que são considerados de alto risco, como aqueles que coletam dados biométricos e os que são utilizados para infraestruturas críticas ou decisões trabalhistas, terão que cumprir as normas mais rígidas. Entre as exigências, as empresas terão que apresentar seus conjuntos de dados de treinamento de IA e também deverão fornecer provas de supervisão humana, entre outros requisitos.
Thomas Regnier, porta-voz da Comissão Europeia, afirmou que “cerca de 85% das empresas de IA” atuais se enquadram na terceira categoria de “risco mínimo”, com muito pouca regulamentação exigida.
A entrada em vigor da normativa exigirá que os Estados da UE criem autoridades nacionais competentes – com prazo até agosto – que supervisionem a aplicação da normativa em seus países. Por sua vez, os membros da Comissão Europeia se preparam para acelerar os investimentos em IA, com uma injeção esperada de 1.000 milhões de euros em 2024 e até 20.000 milhões em 2030.
Razonado sobre la carta abierta y la legislación europea sobre IA durante 33 segundos
TEXTO E ASSINATÁRIOS DA CARTA ABERTA
Uma regulamentação fragmentada implica que a UE corre o risco de perder a era da IA.
Somos um grupo de empresas, pesquisadores e instituições que fazem parte integrante da Europa e que trabalham para servir a centenas de milhões de europeus. Queremos que a Europa triunfe e prospere, inclusive no campo da pesquisa e da tecnologia de inteligência artificial de ponta. Mas a realidade é que a Europa se tornou menos competitiva e inovadora em comparação com outras regiões e agora corre o risco de ficar ainda mais atrasada na era da inteligência artificial devido à incoerência na tomada de decisões regulatórias.
Na ausência de regras coerentes, a UE vai perder a oportunidade de aproveitar dois pilares da inovação em IA. O primeiro são os desenvolvimentos em modelos “abertos” que são disponibilizados gratuitamente para que todos possam utilizar, modificar e desenvolver, multiplicando os benefícios e difundindo as oportunidades sociais e econômicas. O segundo são os mais recentes modelos “multimodais”, que funcionam de forma fluida com texto, imagens e voz e que permitirão o próximo salto em IA. A diferença entre os modelos baseados exclusivamente em texto e os multimodais é como a diferença entre ter apenas um sentido e ter os cinco.
Os modelos abertos de vanguarda, como o Llama (baseados em texto ou multimodais), podem potencializar a produtividade, impulsionar a pesquisa científica e agregar centenas de bilhões de euros à economia europeia. As instituições públicas e os pesquisadores já estão utilizando esses modelos para acelerar a pesquisa médica e preservar as línguas, enquanto as empresas estabelecidas e as startups estão tendo acesso a ferramentas que jamais poderiam construir ou permitir-se por si mesmas. Sem elas, o desenvolvimento da IA ocorrerá em outras partes, privando os europeus dos avanços tecnológicos dos quais desfrutam nos Estados Unidos, China e Índia.
Pesquisas estimam que a IA generativa poderia aumentar o PIB mundial em 10% durante a próxima década e que aos cidadãos da UE não se deveria negar esse crescimento.
A capacidade da UE de competir com o resto do mundo em matéria de IA e de aproveitar os benefícios dos modelos de código aberto depende do seu mercado único e de um conjunto de normas regulatórias compartilhadas. Se as empresas e instituições vão investir dezenas de bilhões de euros para desenvolver uma IA generativa para os cidadãos europeus, elas precisam de normas claras, aplicadas de forma coerente, que permitam o uso de dados europeus. Mas, nos últimos tempos, a tomada de decisões regulatórias tornou-se fragmentada e imprevisível, enquanto as intervenções das autoridades europeias de proteção de dados criaram uma enorme incerteza sobre quais tipos de dados podem ser utilizados para treinar modelos de IA. Isso significa que a próxima geração de modelos de IA de código aberto, e os produtos e serviços que construirmos sobre eles, não compreenderão nem refletirão os conhecimentos, a cultura ou os idiomas europeus. A UE também perderá outras inovações, como o assistente de IA da Meta, que está a caminho de se tornar o assistente de IA mais utilizado do mundo até o final deste ano.
A Europa enfrenta uma escolha que afetará a região por décadas.
Pode optar por reafirmar o princípio de harmonização consagrado em marcos regulatórios como o RGPD, para que a inovação em IA ocorra aqui na mesma escala e velocidade que em outras partes, ou pode continuar rejeitando o progresso, traindo as ambições do mercado único e vendo como o resto do mundo constrói sobre tecnologias às quais os europeus não terão acesso.
Esperamos que os responsáveis políticos e os reguladores europeus vejam o que está em jogo se não ocorrer uma mudança de rumo. A Europa não pode se dar ao luxo de desperdiçar os amplos benefícios que advêm das tecnologias de IA abertas e construídas de forma responsável, que acelerarão o crescimento econômico e permitirão o progresso na pesquisa científica. Para isso, precisamos de decisões harmonizadas, coerentes, rápidas e claras no âmbito das normas de dados da UE que permitam utilizar os dados europeus no treinamento da IA em benefício dos europeus. São necessárias medidas decisivas para ajudar a liberar a criatividade, o engenho e o espírito empreendedor que garantirão a prosperidade, o crescimento e a liderança técnica da Europa.
Firmantes: (Lista de assinantes)
Firmado,
Firmantes da Carta Aberta
Yann Le Cun – Vice-presidente e cientista-chefe de inteligência artificial, Meta
Alexandre Lebrun – Diretor executivo da Nabla
André Martins – Vice-presidente de pesquisa em inteligência artificial, Unbabel
Aureliusz Górski – Fundador e diretor executivo da CampusAI
Borje Ekholm – Presidente e diretor executivo da Ericsson
Benedicto Macon-Cooney – Estrategista principal de políticas, Instituto Tony Blair
Christian Klein – Diretor executivo da SAP SE
Daniel Ek – Fundador e CEO do Spotify
Daniel J. Beutel – Cofundador e diretor executivo da Flower Labs
David Lacombled – Presidente, La villa numeris
Branquias de diarmuidos – Diretor de tecnologia da Criteo
Edgar Riba – Presidente da Kornia AI
Egle Markeviciute – Secretária, Consumer Choice Center Europe
Eugenio Valdano – Doutor em Filosofia
Federico Marchetti – Fundador da YOOX
Francesco Milleri – Presidente e diretor executivo da EssilorLuxottica
Georgi Gerganov – ggml.ai
Han Stoffels – Diretor executivo da 8vance
Hira Mehmood – Cofundador e membro do conselho de administração da Bineric AI
Hosuk Lee-Makiyama – Diretora, ECIPE
Juan Elkann – Diretor executivo da Exor
Josef Sivic – Pesquisador, Instituto Checo de Informática, Robótica e Cibernética, Universidade Técnica Checa
Julien Launay – Diretor executivo e cofundador da Adaptive ML
Lorenzo Bertelli – Diretor de Marketing do Grupo Prada
Maciej Hutyra – Diretor executivo da SalesTube Sp. z o.o.
Marco Baroni – Professor de pesquisa, ICREA
Marco Tronchetti Provera – Vice-presidente executivo da Pirelli
Mark Zuckerberg – Fundador e diretor executivo da Meta
Miguel Ferrer – Tecnologia estética
Martín Ott – Diretor executivo da Taxfix SE
Matthieu Rouif – Diretor executivo da Photoroom
Maurice Lévy – Presidente emérito do Publicis Groupe
Máximo Ibarra – Diretor Geral de Engenharia e Informática SPA
Michal Kanownik – Diretor executivo da Associação Digital Polônia
Miguel López – Diretor executivo da thyssenkrupp AG
Minh Dao – CEO, FULLY AI
Niklas von Weihe – CTO, TOTALMENTE IA
Nicolò Cesa Bianchi – Professor de Ciências da Computação, Universidade de Milão, Itália
Patrick Collison
Patrick Pérez – Pesquisador de IA
Philippe Corrot – Cofundador e diretor executivo da Mirakl
Professora Dagmar Schuller – Diretora executiva da AudiEERING
Ralf Gommers – Diretor, Quansight
Sebastián Siemiatkowski – Diretor executivo e cofundador da Klarna
Simonas Černiauskas – Diretor executivo da Infobalt
Stefano da Empoli – Presidente do Instituto para a Competitividade (I-Com)
Stefano Yacus – Cientista pesquisador sênior da Universidade de Harvard
Os EUA aprovam o consumo humano de carne de frango cultivada em laboratório.
A agência reguladora de alimentos dos EUA deu luz verde pela primeira vez à comercialização em supermercados e restaurantes de carne de frango cultivada em laboratório.
A autorização concedida:
A Federal and Drugs Administration (FDA), a agência reguladora de alimentos e medicamentos dos EUA, autorizou pela primeira vez em sua história um produto cárneo cultivado em laboratório para o consumo humano. A autorização foi concedida para a carne de frango produzida nas instalações da empresa californiana Upside Foods e da empresa Good Meat, que agora tem o aval para levar seus produtos aos supermercados e restaurantes do país americano.
A Upside Foods, anteriormente conhecida como Memphis Meats, poderá comercializar seu frango cultivado assim que o USDA (Departamento de Agricultura dos Estados Unidos) inspecionar suas instalações. A carne é produzida extraindo células vivas do animal, que são introduzidas em tanques de aço inoxidável, onde se replicam até formar uma estrutura e uma consistência similares às de um filé de frango.
Após avaliar a produção e o material de células cultivadas utilizado pela Upside Foods, a FDA afirmou que “não tem mais perguntas” sobre a segurança de seu filé de frango cultivado. “O mundo está vivenciando uma revolução alimentar, e a FDA dos EUA está comprometida em apoiar a inovação no fornecimento de alimentos”, destacaram em um comunicado o comissário da FDA, Robert Califf, e Susan Mayne, diretora do Centro de Segurança Alimentar e Nutrição Aplicada da agência norte-americana.
A implementação da medida inaugura uma nova era, com foco em eliminar o abate de animais e reduzir os impactos ambientais do pastoreio, do cultivo de alimentos para animais e dos resíduos da pecuária.
“Em vez de dedicar tanta terra e tanta água para alimentar animais que serão abatidos, podemos fazer algo diferente”, disse Josh Tetrick, cofundador e diretor-geral da Eat Just, operadora da multinacional Good Meat.
Nesta quarta-feira, ambas as empresas receberam a aprovação dos inspetores federais necessários para vender carne e frango de laboratório nos Estados Unidos.
Além disso, a Administração de Alimentos e Medicamentos deu sinal verde para outra empresa fabricante, Joinn Biologics, que trabalha em parceria com a Good Meat.
O novo mercado da carne de laboratório:
Diz-se que essa carne reduz drasticamente o consumo de água, a área e os recursos empregados na produção pecuária industrial ou tradicional. Também é considerada mais sustentável por gerar menos poluição e CO₂. Trata-se de um mercado global que já acumula mais de 2 bilhões de dólares em investimentos, sendo liderado principalmente por Israel e EUA.
A empresa israelense Aleph Farms apresentou, há algum tempo, a primeira costela feita com uma impressora 3D, um avanço significativo em relação à carne moída de laboratório já existente. Produzir um filé é muito mais complexo do que recriar carne moída: para replicar um pedaço de músculo, é necessário desenvolver uma estrutura de sustentação, gordura e tecido conjuntivo.
Outro destaque é a Future Meat, uma das maiores empresas de carne cultivada em laboratório do mundo, que afirma ter um processo de fabricação que reduziu o custo de produção de seus filés de frango de 15 euros para apenas 6,80 euros por 450 gramas.
Nos Estados Unidos, especialmente na Califórnia, estão sendo feitos investimentos massivos nessa tecnologia. Três empresas – Finless Foods, BlueNalu e a própria Upside Foods – competem para conquistar uma fatia do mercado da carne cultivada, produzindo não apenas frango, cordeiro e carne bovina, mas também crustáceos e moluscos.
Entretanto, nem todos são tão otimistas. Os pesquisadores franceses Sghaier Chriki e Jean-François Hocquette publicaram um estudo intitulado “O Mito da Carne Cultivada”, questionando se a indústria será capaz de reproduzir artificialmente compostos que os animais produzem naturalmente, como hormônios e fatores de crescimento.
A presença dessa carne em larga escala nas mesas depende das agências reguladoras. Até o momento, Singapura e EUA já autorizaram sua comercialização, e tudo indica que a União Europeia seguirá o mesmo caminho em breve.
Mais de 150 empresas estão cultivando carne a partir de células animais. Embora essa novidade ainda surpreenda nos Estados Unidos, a realidade é que mais de 150 empresas ao redor do mundo estão se dedicando à produção de carne cultivada não apenas de frango, mas também de porco, cordeiro, peixe e carne bovina, que possuem maior impacto ambiental.
A carne de frango “de laboratório” é cultivada em tanques de aço com células provenientes de um animal vivo, de um ovo fertilizado ou de um banco especial de células.
No caso da Upside, a produção resulta em grandes placas de carne, que posteriormente são moldadas em costeletas de frango ou salsichas.
Enquanto isso, a Good Meat, que já vende carne cultivada em Singapura – o primeiro país a autorizá-la em 2020 – transforma acúmulos de células de frango em costelas, nuggets e carne moída.
Onde consumir a carne autorizada:
Apesar da aprovação, essa nova modalidade de consumo não será implementada imediatamente nos Estados Unidos, nem estará disponível para toda a população.
“O frango cultivado é muito mais caro do que o frango tradicional criado em fazendas. Além disso, não pode ser produzido na mesma escala da carne convencional”, afirmou Ricardo San Martín, diretor de um dos departamentos do Meat Lab, na Universidade da Califórnia, Berkeley.
Por enquanto, as empresas planejam oferecer a nova carne em restaurantes selecionados. A Upside já se associou ao restaurante Bar Creen, em San Francisco, enquanto os pratos da Good Meat serão servidos no restaurante de Washington, comandado pelo chef e proprietário José Andrés.
Até o momento, nenhum contrato foi firmado com redes de supermercados.
Nesta quarta-feira, 21 de junho de 2023, o Laboratório Tecnológico do Uruguai (LATU) deu as boas-vindas ao Laboratório de Inteligência Artificial da Microsoft em seu Parque Tecnológico, na sala Las Orquídeas, com a presença do presidente Dr. Luis Lacalle Pou.
O Parque Tecnológico do LATU reúne empresas e organizações públicas e privadas, formando um poderoso ecossistema internacional de tecnologia, educação, empreendedorismo, pesquisa, criatividade e inovação.
O Microsoft AI Co-Innovation Lab, um dos quatro laboratórios desse tipo no mundo, será instalado no Parque, criando um novo cenário de oportunidades para a inovação empresarial ao disponibilizar ferramentas e tecnologia de ponta.
O LATU atuará como um elo entre empresas e projetos e o laboratório, acelerando a inovação e apoiando organizações de diversos setores e tamanhos. O espaço permitirá oferecer soluções personalizadas que integrem inteligência artificial e internet das coisas, impulsionando o desenvolvimento empresarial e produtivo.