Alexander Mordvintsev é um pesquisador e cientista da inteligência artificial (IA) reconhecido pelo seu trabalho inovador na visualização de redes neurais e, em particular, por ser o criador do DeepDream.
Mordvintsev se formou no Instituto de Física e Tecnologia de Moscou (MIPT), onde obteve um mestrado em Matemáticas Aplicadas e Informática. Sua sólida formação acadêmica na Rússia o levou a se especializar em inteligência artificial, uma área que estava ganhando cada vez mais relevância na década de 2000. Ao longo de sua carreira, trabalhou no desenvolvimento de tecnologias de aprendizado profundo (deep learning).
Em 2015, Mordvintsev começou a trabalhar no Google, dentro da equipe de Google Research, um local onde pôde explorar suas capacidades ao máximo. Lá, ele se juntou aos esforços de pesquisa em redes neurais, uma tecnologia chave para o desenvolvimento de IA avançada em aplicações de visão computacional. Foi nesse contexto que desenvolveu o Projeto DeepDream.
O resultado foi uma série de imagens surrealistas e psicodélicas que mostravam como as camadas neuronais detectavam e exageravam certos padrões. Esses resultados não apenas demonstraram o potencial das redes neurais para a visualização de características internas, mas também cativaram o público geral devido à sua estética única. Uma simples fotografia de uma paisagem podia ser transformada em uma cena repleta de padrões e imagens oníricas.
Esse cruzamento entre a ciência da IA e a arte digital foi uma contribuição única de Mordvintsev ao campo. Seu trabalho destacou o potencial criativo das tecnologias de aprendizado profundo, abrindo novas possibilidades para a colaboração entre humanos e máquinas no campo artístico.
Em 2019, Mordvintsev e sua equipe introduziram uma nova metodologia chamada Feature Visualization (visualização de características).
O foco na visualização de características tem sido fundamental na pesquisa sobre a interpretabilidade da IA, uma área cada vez mais relevante à medida que as aplicações de IA avançam para campos sensíveis, como reconhecimento facial, tomada de decisões automatizadas e vigilância.
Outro aspecto importante do trabalho de Mordvintsev é sua pesquisa sobre a criatividade nas máquinas. Seu trabalho foi pioneiro na chamada “IA criativa”.
Peter Norvig é um dos pioneiros mais influentes no campo da inteligência artificial (IA) e desempenhou um papel crucial tanto no seu desenvolvimento teórico quanto na sua aplicação prática. Ao longo de sua carreira, contribuiu de maneira significativa para a compreensão e o desenvolvimento de técnicas avançadas de IA, como o aprendizado de máquina, a programação probabilística e a busca em inteligência artificial. Além disso, foi um defensor chave da acessibilidade à IA por meio de seu trabalho em educação, divulgação e liderança em projetos inovadores em empresas tecnológicas de alto impacto.
Norvig nasceu em 14 de dezembro de 1956 nos Estados Unidos. Desde muito jovem, mostrou uma inclinação por tecnologia e programação. Estudou na Universidade de Brown, onde obteve sua graduação em Matemática Aplicada em 1978. Posteriormente, completou seu doutorado em Informática na Universidade da Califórnia, Berkeley, em 1986. Durante sua formação acadêmica, Norvig se interessou profundamente por inteligência artificial, uma disciplina que estava então emergindo como um campo fascinante, embora ainda limitado em termos de capacidades e aplicações reais. A inteligência artificial, naquele momento, ainda estava distante da capacidade que demonstraria nas décadas seguintes, mas Norvig estava determinado a contribuir para o avanço do campo.
Um dos marcos mais importantes na carreira de Norvig foi sua colaboração com Stuart J. Russell, com quem coescreveu o livro Artificial Intelligence: A Modern Approach, publicado pela primeira vez em 1995. Esta obra é, sem dúvida, um dos livros de texto mais influentes no campo da IA, sendo adotado por mais de 1.500 universidades em todo o mundo. Por meio deste livro, Norvig e Russell forneceram uma exposição abrangente e acessível dos fundamentos da IA, desde a resolução de problemas e a busca até o planejamento, o raciocínio probabilístico, o aprendizado de máquina e o processamento de linguagem natural. A abordagem holística e detalhada deste livro formou gerações de pesquisadores, engenheiros e estudantes no campo da inteligência artificial, consolidando sua reputação como uma obra essencial para quem busca uma compreensão rigorosa da IA. O que torna esta obra tão influente é sua capacidade de equilibrar a teoria com a prática e sua ampla cobertura de temas tanto clássicos quanto emergentes na IA.
Além de sua contribuição para a literatura acadêmica, Norvig desempenhou um papel crucial na indústria tecnológica, particularmente em seu papel como Diretor de Pesquisa e, posteriormente, Diretor de Ciências da Computação no Google. Ele entrou para o Google em 2001, um momento em que a empresa estava crescendo rapidamente e explorando novas áreas de inovação tecnológica. Durante seu tempo no Google, Norvig trabalhou em vários projetos importantes relacionados ao desenvolvimento de algoritmos de busca, processamento de linguagem natural e aprendizado de máquina. Seu trabalho ajudou a refinar os sistemas de busca do Google, melhorando a forma como a informação é organizada e apresentada aos usuários. Também contribuiu para a criação de novas ferramentas e tecnologias que utilizaram a inteligência artificial para melhorar a experiência do usuário e a eficiência operacional da empresa.
Uma das áreas de pesquisa mais notáveis de Norvig foi o processamento de linguagem natural (PLN), um ramo da IA que se concentra na interação entre os computadores e a linguagem humana. Seu trabalho nesta área permitiu avanços significativos na compreensão e geração automática da linguagem, contribuindo para melhorias em produtos como o Google Translate e em sistemas de busca avançada baseados em linguagem natural. No coração deste campo, está a capacidade das máquinas de compreender as sutilezas da linguagem humana, como contexto, ambiguidade e intenções, o que tem sido fundamental para tornar a IA mais acessível e útil para as pessoas em seu cotidiano.
Norvig também tem sido um defensor da IA como uma ferramenta educacional e desempenhou um papel importante na promoção do ensino de IA em larga escala. Junto com o professor Sebastian Thrun, lançou em 2011 o primeiro curso de IA online massivo e aberto (MOOC, em inglês) oferecido através da plataforma de aprendizado da Universidade de Stanford. Este curso de “Introdução à Inteligência Artificial” atraiu mais de 160.000 estudantes de todo o mundo, marcando o início de uma revolução no ensino online e na democratização do acesso à educação em IA. A experiência de ensinar a tantos estudantes e receber feedback direto sobre o aprendizado e o ensino ajudou Norvig a aprimorar sua abordagem pedagógica, reconhecendo a importância de tornar os conceitos complexos de IA acessíveis e compreensíveis para um público amplo e diverso.
Norvig também é conhecido por sua defesa da abordagem baseada em dados dentro da IA. Em uma famosa conferência, Norvig e seu colega Fernando Pereira afirmaram que “mais dados são melhores do que algoritmos mais sofisticados”. Essa ideia reflete uma das tendências chave no desenvolvimento contemporâneo da IA: à medida que os dados massivos se tornaram mais acessíveis graças à Internet e ao armazenamento digital, os algoritmos de aprendizado de máquina puderam melhorar enormemente, simplesmente alimentando as máquinas com grandes quantidades de dados para que elas aprendessem de padrões e estruturas que não eram evidentes com dados mais limitados. Essa abordagem foi fundamental para a ascensão da IA baseada em redes neurais profundas (deep learning), que levou a avanços em áreas como reconhecimento de voz, visão computacional e tradução automática.
Ao longo de sua carreira, Norvig tem sido uma voz influente na discussão ética sobre a IA. Reconhecendo os desafios e riscos potenciais que a IA avançada pode representar, ele tem defendido uma abordagem responsável no desenvolvimento e implementação dessa tecnologia. Ele destacou a importância de projetar sistemas de IA que sejam transparentes, compreensíveis e que respeitem os valores humanos, defendendo um desenvolvimento que esteja alinhado com o bem-estar da sociedade. Em várias palestras e escritos, Norvig expressou sua preocupação com questões como o viés nos algoritmos de IA, a privacidade dos dados e o impacto da automação no emprego. Esses temas têm sido parte integral do debate contemporâneo sobre IA, e a perspectiva de Norvig tem sido inestimável na promoção de uma IA ética e benéfica para a humanidade.
Em reconhecimento às suas contribuições ao campo da inteligência artificial, Norvig recebeu vários prêmios e distinções ao longo de sua carreira. Ele foi nomeado membro da Associação para o Avanço da Inteligência Artificial (AAAI) e da Associação para Maquinário Computacional (ACM), duas das organizações mais prestigiadas no campo da informática e IA. Além disso, participou ativamente de conferências internacionais, publicando numerosos artigos de pesquisa e colaborando com alguns dos principais cientistas de IA do mundo.
Em resumo, Peter Norvig tem sido uma figura central no desenvolvimento da inteligência artificial, tanto em sua dimensão teórica quanto em sua aplicação prática. Sua contribuição para o ensino e divulgação da IA, seu trabalho na indústria tecnológica e sua influência na discussão ética sobre o futuro da IA o colocaram como um dos pioneiros mais influentes neste campo. Por meio de sua abordagem baseada em dados, seu compromisso com a educação aberta e sua participação em projetos que melhoraram diretamente a vida de milhões de pessoas, Norvig deixou uma marca duradoura na IA moderna. Seu trabalho continua sendo uma referência chave para pesquisadores, engenheiros e estudantes que buscam compreender e avançar na inteligência artificial.campo de la inteligencia artificial.
Stuart J. Russell é um dos nomes mais reconhecidos no campo da inteligência artificial (IA), especialmente pelo seu trabalho em IA ética e sua visão de uma IA que beneficie a humanidade sem comprometer seus valores fundamentais. Nascido em 1962 em Portsmouth, Inglaterra, Russell construiu uma carreira de destaque na interseção entre a teoria da IA e sua aplicação prática, fazendo contribuições importantes tanto para a pesquisa acadêmica quanto para os debates éticos em torno dessa tecnologia. Seu enfoque rigoroso e sua visão global o posicionaram como uma das vozes mais influentes no campo da IA contemporânea.
Russell completou sua educação primária na Inglaterra antes de se mudar para os Estados Unidos para realizar seus estudos superiores. Em 1982, obteve seu diploma em Física pela Universidade de Oxford e, posteriormente, em 1986, obteve seu doutorado em Informática pela Universidade de Stanford. Foi em Stanford que Russell começou a desenvolver um profundo interesse por IA, influenciado por figuras como John McCarthy, a quem é atribuída a criação do termo “inteligência artificial”. Após obter seu doutorado, Russell ingressou na Universidade da Califórnia, Berkeley, como professor de Ciências da Computação, onde desenvolveu grande parte de sua carreira acadêmica e de pesquisa.
Um dos aspectos mais destacados da trajetória de Russell é seu foco nos fundamentos teóricos da IA e seu esforço para criar sistemas que não apenas sejam capazes de realizar tarefas específicas, mas também de se comportar de forma racional em uma ampla gama de situações. Nesse sentido, uma de suas contribuições mais importantes é seu trabalho no campo da “racionalidade limitada”, que explora como os agentes inteligentes podem tomar decisões ótimas, dado que seus recursos computacionais e a informação disponível são limitados. Essa linha de pesquisa foi crucial para o desenvolvimento de sistemas de IA mais realistas, que operam dentro das restrições impostas pelo mundo real.
Russell é provavelmente mais conhecido pelo seu livro Artificial Intelligence: A Modern Approach, que coescreveu com Peter Norvig. Publicado pela primeira vez em 1995, esse livro de texto foi adotado em mais de 1.500 universidades ao redor do mundo e é considerado uma referência essencial no ensino de IA. Nele, Russell e Norvig apresentam uma introdução abrangente aos conceitos fundamentais da IA, cobrindo temas como resolução de problemas, planejamento, aprendizado de máquina, percepção e linguagem natural. O enfoque integral e equilibrado do livro ajudou a moldar a formação de gerações de estudantes de IA, consolidando a reputação de Russell como um educador e divulgador excepcional no campo.
Além de suas contribuições à teoria e ao ensino da IA, Stuart Russell também desempenhou um papel fundamental no debate sobre a ética da IA e os riscos associados ao seu desenvolvimento. Em particular, Russell tem sido um defensor firme da criação de uma IA segura e controlável. Em seu livro Human Compatible: Artificial Intelligence and the Problem of Control (2019), Russell argumenta que o enfoque tradicional da IA, que se concentra em criar sistemas que maximizem a eficiência na realização de um conjunto de objetivos fixos, é inerentemente perigoso. Segundo Russell, um dos principais riscos é que uma IA avançada, se programada para perseguir objetivos de forma cega, pode agir de maneiras contrárias aos interesses humanos. Por exemplo, uma IA projetada para maximizar a produtividade industrial pode causar danos ambientais ou humanos se não forem impostas as restrições adequadas.
Russell propõe uma nova direção para a pesquisa de IA que ele chama de “IA dotada de valores humanos”. Em vez de programar as máquinas para maximizar um objetivo específico, ele argumenta que devemos projetá-las para que ajam de acordo com os valores humanos, mesmo quando esses valores não estiverem completamente definidos. Essa IA, segundo Russell, deveria ser projetada para ser “insegura” em seu conhecimento sobre as preferências humanas, sempre disposta a se ajustar a novas informações sobre o que os humanos realmente desejam. Esse enfoque introduz a incerteza deliberada nos sistemas de IA, de forma que as máquinas não possam prejudicar os humanos em sua busca por cumprir objetivos mal compreendidos ou mal definidos.
O trabalho de Russell nesse campo o levou a participar ativamente de iniciativas globais que defendem o desenvolvimento ético da IA. Ele é cofundador do Center for Human-Compatible Artificial Intelligence (CHAI), uma instituição dedicada a pesquisar como criar IA que coopere efetivamente com os humanos, em vez de competir com eles ou causar-lhes danos. Através de seu trabalho no CHAI, Russell contribuiu para estabelecer as bases de uma nova ética da IA, baseada no reconhecimento da importância dos valores humanos e na necessidade de projetar sistemas que se alinhem com esses princípios.
Além de suas pesquisas acadêmicas, Russell desempenhou um papel crucial na promoção do debate sobre os riscos da IA em nível internacional. Ele testemunhou em diversos comitês governamentais e tem sido consultor para organizações como as Nações Unidas e o Parlamento Europeu. Uma de suas principais preocupações é a possível militarização da IA, especialmente na forma de sistemas autônomos de armas, que poderiam tomar decisões de vida ou morte sem intervenção humana. Russell tem sido uma das vozes mais ativas na campanha pela proibição das “armas autônomas letais”, argumentando que seu uso apresenta riscos éticos e práticos significativos, pois poderia desestabilizar a segurança global e tornar os conflitos armados mais difíceis de controlar.
Em reconhecimento às suas contribuições para a pesquisa em IA e ao seu impacto no debate global sobre a ética da IA, Stuart Russell recebeu vários prêmios e distinções ao longo de sua carreira. Entre eles, destacam-se o Prêmio IJCAI de Excelência em Pesquisa (1995), o Prêmio ACM-AAAI Allen Newell (2005) e a bolsa da Associação para o Avanço da Inteligência Artificial (AAAI). Esses prêmios refletem não apenas sua influência no campo da IA, mas também seu compromisso com a busca por soluções práticas e éticas para os desafios impostos pela tecnologia.
Em termos de legado, Stuart J. Russell tem sido um líder-chave no desenvolvimento da IA moderna e na promoção de uma abordagem mais responsável e ética na pesquisa e desenvolvimento dessa tecnologia. Seu trabalho lançou as bases para uma compreensão mais profunda de como os sistemas de IA podem interagir com o mundo real, e seu foco na segurança e compatibilidade com os valores humanos abriu novas vias para o estudo da IA ética. Ao mesmo tempo, sua influência como educador, por meio de seu livro de texto fundamental e seus ensinamentos em Berkeley, formou milhares de estudantes que hoje trabalham nos mais variados aspectos da IA.
Ao longo de sua carreira, Russell demonstrou que a inteligência artificial não é apenas uma questão técnica, mas também uma questão profundamente ética, que exige uma reflexão cuidadosa sobre o impacto que essas tecnologias terão no mundo. Sua visão de uma IA que beneficie a humanidade sem colocar em risco nossos valores mais fundamentais continua sendo uma influência crucial no campo, e seu legado seguirá orientando o desenvolvimento da IA nas próximas décadas.
John McCarthy é amplamente reconhecido como um dos pioneiros mais influentes no campo da inteligência artificial (IA). Nascido em 4 de setembro de 1927 em Boston, Massachusetts, McCarthy cresceu em uma família de imigrantes de origem irlandesa e russa. Desde jovem, demonstrou um notável interesse por matemática e ciências, inclinações que o levaram a se tornar uma figura chave no desenvolvimento do que hoje conhecemos como IA. Este artigo explora sua trajetória acadêmica, suas contribuições técnicas para o campo e o legado que ele deixou na comunidade científica.
McCarthy frequentou a Universidade da Califórnia, em Berkeley, onde inicialmente se especializou em matemática. Após obter seu diploma em 1948, continuou seus estudos de pós-graduação em Princeton, onde completou seu doutorado em Matemática em 1951. Durante seu tempo em Princeton, foi influenciado pela rica tradição da lógica matemática desenvolvida por figuras como Kurt Gödel e Alan Turing. Foi nesse contexto que McCarthy começou a se interessar pelas interseções entre lógica formal e a capacidade das máquinas de processar informações de maneira inteligente.
Um dos feitos mais notáveis de McCarthy foi a cunhagem do termo “inteligência artificial”. Durante a Conferência de Dartmouth em 1956, um evento que McCarthy ajudou a organizar, ele e seus colegas apresentaram uma série de ideias que formaram a base conceitual da IA como um campo de estudo independente. Nessa conferência, McCarthy propôs que “a inteligência pode ser descrita de maneira tão precisa que uma máquina pode simular a inteligência”. Esta afirmação se tornaria o núcleo da pesquisa em IA nas décadas seguintes. A Conferência de Dartmouth é vista como o ponto de partida oficial da IA, e McCarthy como um de seus pais fundadores.
No âmbito técnico, um dos maiores legados de McCarthy é o desenvolvimento da LISP, uma linguagem de programação que se manteve como uma ferramenta fundamental na pesquisa em IA. LISP foi projetada por McCarthy em 1958 como uma linguagem para manipulação de dados simbólicos, o que a tornou especialmente útil para a representação do conhecimento e realização de raciocínios lógicos em IA. LISP introduziu várias inovações, incluindo a ideia de “listas” como estruturas de dados fundamentais, e foi uma das primeiras linguagens a implementar recursão, uma técnica chave para a resolução de problemas complexos. Embora tenham surgido outras linguagens de programação mais modernas, LISP ainda é usada em aplicações especializadas e no ensino de conceitos avançados de IA e programação.
Outro grande feito de McCarthy foi sua contribuição para a teoria de sistemas automatizados e o conceito de “computação de tempo compartilhado”. Durante seu tempo no MIT na década de 1960, McCarthy ajudou a desenvolver o conceito de tempo compartilhado, que permitiu que múltiplos usuários interagissem com um computador simultaneamente. Essa inovação mudou drasticamente a maneira como a computação era entendida e utilizada, sendo um precursor da computação em nuvem e outras formas de processamento distribuído.
McCarthy também foi um firme defensor da abordagem simbólica para a IA. Diferente de outros pesquisadores que se concentraram em redes neurais e métodos estatísticos, McCarthy acreditava que a IA deveria ser baseada na manipulação de símbolos e na lógica formal para simular o pensamento humano. Sua visão de uma IA “forte”, ou seja, uma IA que não apenas realizasse tarefas específicas, mas também desenvolvesse uma forma de raciocínio geral e compreendesse o mundo de maneira semelhante ao ser humano, influenciou profundamente o desenvolvimento da IA durante as primeiras décadas de sua existência. Embora as técnicas de IA tenham mudado drasticamente desde os tempos de McCarthy, sua abordagem na representação do conhecimento e na lógica continua sendo relevante em áreas como planejamento automatizado e sistemas especialistas.
Ao longo de sua carreira, McCarthy recebeu vários prêmios e reconhecimentos por suas contribuições ao campo da IA. Em 1971, foi agraciado com o Prêmio Turing, considerado o “Nobel” da informática, por seu papel na invenção da LISP e suas contribuições teóricas para a IA. Ao longo de sua vida, continuou publicando pesquisas influentes e promovendo sua visão de IA, mantendo sua fé na possibilidade de criar uma inteligência artificial geral (AGI), apesar do ceticismo de alguns de seus contemporâneos.
Além de suas contribuições técnicas, McCarthy também foi um pensador profundo sobre as implicações éticas da IA. Foi um dos primeiros a alertar sobre os possíveis riscos da IA avançada, apontando que os sistemas inteligentes do futuro deveriam ser projetados com fortes considerações éticas. No entanto, McCarthy era otimista quanto à capacidade da humanidade de gerenciar esses riscos, e frequentemente defendia uma abordagem cuidadosa, mas progressiva, no desenvolvimento de tecnologias avançadas.
O legado de John McCarthy vai além de suas contribuições técnicas. Sua capacidade de formular perguntas fundamentais sobre a natureza da inteligência e sua determinação em construir ferramentas que emulassem essas capacidades estabeleceram as bases para grande parte da pesquisa atual em IA. Embora não tenha vivido para ver a plena realização de seu sonho de uma inteligência artificial geral, McCarthy foi uma figura chave na evolução do campo, inspirando gerações de cientistas e tecnologistas que continuam trabalhando nos problemas que ele mesmo propôs.
McCarthy faleceu em 24 de outubro de 2011, aos 84 anos, deixando um legado duradouro na história da ciência e da tecnologia. Suas ideias sobre representação de conhecimento, lógica formal e linguagem de programação continuam a influenciar a pesquisa atual, enquanto sua visão de longo prazo sobre IA continua a ser um farol para os pesquisadores que buscam entender e replicar a inteligência humana nas máquinas. Em resumo, John McCarthy foi um dos arquitetos mais influentes na fundação da inteligência artificial como campo de estudo. Através de suas inovações como a linguagem de programação LISP e seu trabalho no conceito de computação de tempo compartilhado, McCarthy não só contribuiu para o desenvolvimento de ferramentas fundamentais para a IA, mas também ajudou a definir a visão de longo prazo do campo. Seu legado permanece vivo na comunidade científica, onde suas ideias continuam a inspirar novos enfoques e descobertas na IA.búsqueda de construir máquinas verdaderamente inteligentes.
O pedido foi feito por meio de uma carta aberta. A nova legislação europeia não será aplicada integralmente até 2026.
Cerca de trinta empresas de tecnologia, entre elas a Meta (Facebook, Instagram) e a Spotify, assim como pesquisadores e associações, pediram em uma carta aberta à União Europeia que esclareça sua regulamentação sobre inteligência artificial (IA).
“A Europa se tornou menos competitiva e inovadora do que outras regiões e hoje corre o risco de perder ainda mais terreno na era da IA devido a decisões regulatórias inconsistentes”, diz a carta publicada na quinta-feira.
“Nos últimos tempos, as regulamentações se tornaram fragmentadas e imprevisíveis”, argumentam os signatários, que consideram que as intervenções das autoridades europeias “geraram muita incerteza sobre o tipo de dados que podem ser utilizados para treinar modelos de IA.” Por isso, pedem aos responsáveis políticos europeus “decisões harmonizadas, coerentes, rápidas e claras sobre as regulamentações de dados na UE.”
Em agosto, entrou oficialmente em vigor a nova legislação europeia para regular a IA, pioneira a nível mundial, que tem o objetivo de impulsionar a inovação protegendo, ao mesmo tempo, a privacidade. A normativa impõe restrições aos sistemas de IA se representarem um perigo para a sociedade. Também obriga sistemas como o ChatGPT a garantir a qualidade dos dados e o respeito aos direitos autorais.
A nova legislação não será aplicada integralmente até 2026, mas algumas disposições serão vinculantes no próximo ano.
Europa e a primeira lei que regula a IA
O organismo internacional é o primeiro a decretar um marco legal para o desenvolvimento deste tipo de tecnologia. A lei havia sido aprovada em março, mas entrou em vigor a partir do mês de agosto de 2024.
A normativa atribui suas regras a cada empresa que utiliza sistemas de IA com base em quatro níveis de risco: sem risco, risco mínimo, risco alto e sistemas de IA proibidos. Essa categorização também determina os prazos a serem aplicados a cada empresa para cumprir com a nova legislação.
Nessa linha, com a entrada em vigor da lei, a UE proibirá totalmente determinadas práticas a partir de fevereiro de 2025. Entre elas estão aquelas que manipulam a tomada de decisões de um usuário ou ampliam as bases de dados de reconhecimento facial por meio do scraping da Internet.
Outros sistemas de IA que são considerados de alto risco, como aqueles que coletam dados biométricos e os que são utilizados para infraestruturas críticas ou decisões trabalhistas, terão que cumprir as normas mais rígidas. Entre as exigências, as empresas terão que apresentar seus conjuntos de dados de treinamento de IA e também deverão fornecer provas de supervisão humana, entre outros requisitos.
Thomas Regnier, porta-voz da Comissão Europeia, afirmou que “cerca de 85% das empresas de IA” atuais se enquadram na terceira categoria de “risco mínimo”, com muito pouca regulamentação exigida.
A entrada em vigor da normativa exigirá que os Estados da UE criem autoridades nacionais competentes – com prazo até agosto – que supervisionem a aplicação da normativa em seus países. Por sua vez, os membros da Comissão Europeia se preparam para acelerar os investimentos em IA, com uma injeção esperada de 1.000 milhões de euros em 2024 e até 20.000 milhões em 2030.
Razonado sobre la carta abierta y la legislación europea sobre IA durante 33 segundos
TEXTO E ASSINATÁRIOS DA CARTA ABERTA
Uma regulamentação fragmentada implica que a UE corre o risco de perder a era da IA.
Somos um grupo de empresas, pesquisadores e instituições que fazem parte integrante da Europa e que trabalham para servir a centenas de milhões de europeus. Queremos que a Europa triunfe e prospere, inclusive no campo da pesquisa e da tecnologia de inteligência artificial de ponta. Mas a realidade é que a Europa se tornou menos competitiva e inovadora em comparação com outras regiões e agora corre o risco de ficar ainda mais atrasada na era da inteligência artificial devido à incoerência na tomada de decisões regulatórias.
Na ausência de regras coerentes, a UE vai perder a oportunidade de aproveitar dois pilares da inovação em IA. O primeiro são os desenvolvimentos em modelos “abertos” que são disponibilizados gratuitamente para que todos possam utilizar, modificar e desenvolver, multiplicando os benefícios e difundindo as oportunidades sociais e econômicas. O segundo são os mais recentes modelos “multimodais”, que funcionam de forma fluida com texto, imagens e voz e que permitirão o próximo salto em IA. A diferença entre os modelos baseados exclusivamente em texto e os multimodais é como a diferença entre ter apenas um sentido e ter os cinco.
Os modelos abertos de vanguarda, como o Llama (baseados em texto ou multimodais), podem potencializar a produtividade, impulsionar a pesquisa científica e agregar centenas de bilhões de euros à economia europeia. As instituições públicas e os pesquisadores já estão utilizando esses modelos para acelerar a pesquisa médica e preservar as línguas, enquanto as empresas estabelecidas e as startups estão tendo acesso a ferramentas que jamais poderiam construir ou permitir-se por si mesmas. Sem elas, o desenvolvimento da IA ocorrerá em outras partes, privando os europeus dos avanços tecnológicos dos quais desfrutam nos Estados Unidos, China e Índia.
Pesquisas estimam que a IA generativa poderia aumentar o PIB mundial em 10% durante a próxima década e que aos cidadãos da UE não se deveria negar esse crescimento.
A capacidade da UE de competir com o resto do mundo em matéria de IA e de aproveitar os benefícios dos modelos de código aberto depende do seu mercado único e de um conjunto de normas regulatórias compartilhadas. Se as empresas e instituições vão investir dezenas de bilhões de euros para desenvolver uma IA generativa para os cidadãos europeus, elas precisam de normas claras, aplicadas de forma coerente, que permitam o uso de dados europeus. Mas, nos últimos tempos, a tomada de decisões regulatórias tornou-se fragmentada e imprevisível, enquanto as intervenções das autoridades europeias de proteção de dados criaram uma enorme incerteza sobre quais tipos de dados podem ser utilizados para treinar modelos de IA. Isso significa que a próxima geração de modelos de IA de código aberto, e os produtos e serviços que construirmos sobre eles, não compreenderão nem refletirão os conhecimentos, a cultura ou os idiomas europeus. A UE também perderá outras inovações, como o assistente de IA da Meta, que está a caminho de se tornar o assistente de IA mais utilizado do mundo até o final deste ano.
A Europa enfrenta uma escolha que afetará a região por décadas.
Pode optar por reafirmar o princípio de harmonização consagrado em marcos regulatórios como o RGPD, para que a inovação em IA ocorra aqui na mesma escala e velocidade que em outras partes, ou pode continuar rejeitando o progresso, traindo as ambições do mercado único e vendo como o resto do mundo constrói sobre tecnologias às quais os europeus não terão acesso.
Esperamos que os responsáveis políticos e os reguladores europeus vejam o que está em jogo se não ocorrer uma mudança de rumo. A Europa não pode se dar ao luxo de desperdiçar os amplos benefícios que advêm das tecnologias de IA abertas e construídas de forma responsável, que acelerarão o crescimento econômico e permitirão o progresso na pesquisa científica. Para isso, precisamos de decisões harmonizadas, coerentes, rápidas e claras no âmbito das normas de dados da UE que permitam utilizar os dados europeus no treinamento da IA em benefício dos europeus. São necessárias medidas decisivas para ajudar a liberar a criatividade, o engenho e o espírito empreendedor que garantirão a prosperidade, o crescimento e a liderança técnica da Europa.
Firmantes: (Lista de assinantes)
Firmado,
Firmantes da Carta Aberta
Yann Le Cun – Vice-presidente e cientista-chefe de inteligência artificial, Meta
Alexandre Lebrun – Diretor executivo da Nabla
André Martins – Vice-presidente de pesquisa em inteligência artificial, Unbabel
Aureliusz Górski – Fundador e diretor executivo da CampusAI
Borje Ekholm – Presidente e diretor executivo da Ericsson
Benedicto Macon-Cooney – Estrategista principal de políticas, Instituto Tony Blair
Christian Klein – Diretor executivo da SAP SE
Daniel Ek – Fundador e CEO do Spotify
Daniel J. Beutel – Cofundador e diretor executivo da Flower Labs
David Lacombled – Presidente, La villa numeris
Branquias de diarmuidos – Diretor de tecnologia da Criteo
Edgar Riba – Presidente da Kornia AI
Egle Markeviciute – Secretária, Consumer Choice Center Europe
Eugenio Valdano – Doutor em Filosofia
Federico Marchetti – Fundador da YOOX
Francesco Milleri – Presidente e diretor executivo da EssilorLuxottica
Georgi Gerganov – ggml.ai
Han Stoffels – Diretor executivo da 8vance
Hira Mehmood – Cofundador e membro do conselho de administração da Bineric AI
Hosuk Lee-Makiyama – Diretora, ECIPE
Juan Elkann – Diretor executivo da Exor
Josef Sivic – Pesquisador, Instituto Checo de Informática, Robótica e Cibernética, Universidade Técnica Checa
Julien Launay – Diretor executivo e cofundador da Adaptive ML
Lorenzo Bertelli – Diretor de Marketing do Grupo Prada
Maciej Hutyra – Diretor executivo da SalesTube Sp. z o.o.
Marco Baroni – Professor de pesquisa, ICREA
Marco Tronchetti Provera – Vice-presidente executivo da Pirelli
Mark Zuckerberg – Fundador e diretor executivo da Meta
Miguel Ferrer – Tecnologia estética
Martín Ott – Diretor executivo da Taxfix SE
Matthieu Rouif – Diretor executivo da Photoroom
Maurice Lévy – Presidente emérito do Publicis Groupe
Máximo Ibarra – Diretor Geral de Engenharia e Informática SPA
Michal Kanownik – Diretor executivo da Associação Digital Polônia
Miguel López – Diretor executivo da thyssenkrupp AG
Minh Dao – CEO, FULLY AI
Niklas von Weihe – CTO, TOTALMENTE IA
Nicolò Cesa Bianchi – Professor de Ciências da Computação, Universidade de Milão, Itália
Patrick Collison
Patrick Pérez – Pesquisador de IA
Philippe Corrot – Cofundador e diretor executivo da Mirakl
Professora Dagmar Schuller – Diretora executiva da AudiEERING
Ralf Gommers – Diretor, Quansight
Sebastián Siemiatkowski – Diretor executivo e cofundador da Klarna
Simonas Černiauskas – Diretor executivo da Infobalt
Stefano da Empoli – Presidente do Instituto para a Competitividade (I-Com)
Stefano Yacus – Cientista pesquisador sênior da Universidade de Harvard