A startup chinesa DeepSeek oferece modelos avançados de IA que igualam (e até superam) os da OpenAI, Google ou Meta, mas a uma fração do custo.
Colaboração de Víctor Pérez Rodríguez e Ramón Armero.
- Estas são as empresas, pessoas e conceitos que você deve conhecer para entender o que é a inteligência artificial e não se perder diante do seu desenvolvimento vertiginoso.
- Os chatbots como o ChatGPT, da OpenAI, estão mudando a forma como se busca informação na internet, geram imagens e muito mais.
Está cada vez mais difícil ignorar a inteligência artificial (IA).
Desde que a OpenAI lançou o ChatGPT no final de 2022, as pessoas se acostumaram a usar este chatbot e seus muitos concorrentes para tudo, desde automatizar tarefas no trabalho até planejar as férias.
E, com países como a China avançando em suas próprias capacidades de IA, os Estados Unidos lutam pelo domínio nesta indústria à medida que a corrida armamentista da inteligência artificial se intensifica.
Mesmo que você não use IA no seu dia a dia, essa tecnologia em rápida evolução está moldando cada vez mais o mundo ao seu redor, gerando uma necessidade crescente de entender o que é e como pode afetá-lo, agora e no futuro.
Para ajudar a entender seu impacto, aqui está uma breve lista de pessoas, empresas e palavras que você precisa conhecer para falar com propriedade sobre inteligência artificial.
Principais líderes e empresas de IA:
Sam Altman: cofundador e CEO da OpenAI, empresa por trás do ChatGPT. Em 2023, Altman foi destituído pelo conselho da OpenAI para retornar como CEO dias depois.
Dario Amodei: CEO e cofundador da Anthropic, um importante rival da OpenAI, onde trabalhou anteriormente. A startup de IA é responsável por um chatbot chamado Claude 2. Google e Amazon são investidores da Anthropic.
Demis Hassabis: cofundador da DeepMind e atualmente CEO da Google DeepMind, Hassabis lidera os esforços de inteligência artificial na Alphabet.
Jensen Huang: CEO e cofundador da Nvidia, o gigante tecnológico por trás dos microchips especializados usados pelas empresas para impulsionar seus investimentos em IA.
Elon Musk: CEO da Tesla e SpaceX, fundou a startup de inteligência artificial xAI em 2023. A avaliação desta nova empresa aumentou drasticamente no final do ano passado, chegando a cerca de 50 bilhões de dólares (48 bilhões de euros na cotação atual). Musk também cofundou a OpenAI e, após sair da empresa em 2018, mantém uma disputa amarga com Altman.
Satya Nadella: CEO da Microsoft, gigante do software por trás do Bing, motor de busca baseado em IA, e do Copilot, um conjunto de ferramentas de inteligência artificial generativa. A Microsoft também investe na OpenAI.
Mustafa Suleyman: cofundador da DeepMind, divisão de IA do Google, que saiu da organização em 2022. Cofundou a Inflection AI antes de se juntar à Microsoft como diretor de inteligência artificial em março de 2024.
Liang Wenfeng: gestor de fundos de hedge, fundou a startup chinesa de IA DeepSeek em 2023. Recentemente, a startup causou sensação no setor de inteligência artificial com seu modelo estrela, R1, que rivaliza em capacidade com os principais concorrentes, mas operando a uma fração do custo.
Mark Zuckerberg: fundador do Facebook e CEO da Meta, tem investido muito para melhorar as capacidades de IA da Meta, incluindo o treinamento de seus próprios modelos e a integração da tecnologia em suas plataformas.
Principais termos de IA:
Agencial: um tipo de inteligência artificial que pode tomar decisões proativas e autônomas com intervenção humana limitada. Diferente dos modelos de IA generativa, como o ChatGPT, a inteligência artificial agencial não precisa de uma solicitação humana para agir; por exemplo, pode realizar tarefas complexas e se adaptar quando seus objetivos mudam. Gemini 2.0 foca na IA agencial que pode resolver problemas de múltiplas etapas sozinha.
AGI: sigla em inglês para inteligência artificial geral, ou seja, a capacidade da IA de realizar tarefas cognitivas complexas, como mostrar autoconsciência e pensamento crítico, da mesma forma que os humanos.
Alinhamento: campo de pesquisa sobre a segurança da inteligência artificial que busca garantir que os objetivos, decisões e comportamentos dos sistemas de IA sejam coerentes com os valores e intenções humanos. Em julho de 2023, a OpenAI anunciou a criação de uma equipe de superalinhamento dedicada a tornar sua IA segura. Essa equipe foi dissolvida posteriormente e, em maio daquele ano, a empresa criou um comitê de segurança e proteção para assessorar seu conselho sobre “decisões críticas de segurança e proteção”.
Viés: dado que os modelos de inteligência artificial são treinados com dados criados por seres humanos, também podem incorporar os mesmos vieses presentes nesses dados. Existem vários tipos de viés aos quais os modelos de IA podem sucumbir, incluindo viés de preconceito, viés de medição, viés cognitivo e viés de exclusão, que podem distorcer seus resultados.
Ordem executiva de Biden sobre inteligência artificial: o ex-presidente dos EUA, Joe Biden, assinou esta histórica ordem executiva em 2023. Ela estabelecia várias medidas para tentar regular o desenvolvimento da IA, incluindo exigir maior transparência das empresas de tecnologia que a desenvolvem, estabelecer novas normas de segurança e proteção, e adotar ações para garantir que os EUA permaneçam competitivos em pesquisa e desenvolvimento de inteligência artificial.
Como prometeu durante sua campanha eleitoral, o novo presidente dos EUA, Donald Trump, rescindiu a ordem de Biden sobre IA na sua primeira semana no cargo e assinou sua própria ordem executiva pedindo ao país “manter e melhorar o domínio global dos Estados Unidos em inteligência artificial”.
Computação: recursos computacionais de IA necessários para treinar modelos e executar tarefas, incluindo processamento de dados. Isso pode incluir GPUs, servidores e serviços em nuvem.
Deepfake: imagem, vídeo ou voz gerada por inteligência artificial com a intenção de parecer real e que tende a ser usada para enganar espectadores ou ouvintes. Os deepfakes têm sido usados para criar pornografia não consensual e extorquir pessoas em troca de dinheiro.
Destilação: processo de extrair o raciocínio e o conhecimento aprendido de um modelo de IA maior e já existente para um modelo novo e menor, ou seja, copiar um modelo de inteligência artificial para criar um próprio.
Altruístas eficazes: em termos gerais, é um movimento social baseado na ideia de que todas as vidas são igualmente valiosas e que quem tem recursos deve destiná-los para ajudar o maior número possível de pessoas. No contexto da IA, os altruístas eficazes se interessam em como usar essa tecnologia de forma segura para reduzir o sofrimento causado por males sociais como as mudanças climáticas ou a pobreza. Líderes empresariais como Elon Musk, Sam Bankman-Fried e Peter Thiel se identificam como altruístas eficazes.
Modelos de fronteira: exemplos mais avançados de inteligência artificial. O Frontier Model Forum, uma organização sem fins lucrativos do setor criada pela Microsoft, Google, OpenAI e Anthropic em 2023, define modelos de fronteira como “modelos de aprendizado de máquina em grande escala que superam as capacidades atuais dos modelos existentes mais avançados e podem realizar uma ampla variedade de tarefas”.
GPU: chip informático, abreviação de unidade de processamento gráfico, que as empresas utilizam para treinar e implantar seus modelos de IA. Microsoft e Meta utilizam as GPUs da Nvidia para executar seus modelos de inteligência artificial.
Alucinação: fenômeno em que um grande modelo linguístico (ver abaixo) gera informação imprecisa que apresenta como fato. Por exemplo, durante uma das primeiras demonstrações, o chatbot de IA do Google, Bard, “alucinou” ao gerar um erro de fato sobre o telescópio espacial James Webb.
Grande modelo linguístico (LLM): programa informático complexo projetado para compreender e gerar texto semelhante ao humano. O modelo é treinado com grandes quantidades de dados e produz respostas extraindo informação de toda a internet. Alguns exemplos de LLM são GPT-4, da OpenAI, Llama 3, da Meta, ou Gemini, do Google.
Aprendizado automático: também conhecido como aprendizado profundo, refere-se a sistemas de inteligência artificial que podem se adaptar e aprender por conta própria, sem seguir instruções humanas nem programação explícita.
Multimodal: capacidade dos modelos de IA de processar texto, imagens e áudio para gerar um resultado. Usuários do ChatGPT, por exemplo, podem digitar, falar e enviar imagens para o chatbot de inteligência artificial.
Processamento de linguagem natural (PLN): termo geral que abrange uma variedade de métodos para interpretar e compreender a linguagem humana. Os LLM são uma ferramenta para interpretar a linguagem dentro do campo do PLN.
Rede neural: programa de aprendizado automático, também conhecido como aprendizado profundo, projetado para pensar e aprender como um cérebro humano. Sistemas de reconhecimento facial, por exemplo, são desenvolvidos usando redes neurais para identificar uma pessoa analisando seus traços faciais.
Código aberto: característica usada para descrever um programa informático ao qual qualquer pessoa pode acessar, usar e modificar livremente, sem pedir permissão. Alguns especialistas em IA pedem que os modelos por trás da IA como ChatGPT sejam de código aberto para que o público saiba exatamente como são treinados.
Reconhecimento óptico de caracteres: tecnologia que pode reconhecer texto dentro de imagens, como documentos digitalizados, texto em fotos ou PDFs somente leitura, e extrair para um formato somente texto que as máquinas possam ler.
Engenharia de prompts: processo de formular perguntas (prompts) para chatbots de inteligência artificial a fim de obter as respostas desejadas. Como profissão, os engenheiros de prompts são especialistas em ajustar os modelos de IA no back-end para melhorar os resultados.
Racionalistas: pessoas que acreditam que a forma mais eficaz de entender o mundo é através da lógica, razão e provas científicas. Eles tiram conclusões coletando evidências e usando pensamento crítico em vez de seguir seus sentimentos pessoais.
No que diz respeito à inteligência artificial, os racionalistas tentam responder perguntas como: como a IA pode ser mais inteligente, como pode resolver problemas complexos e como pode processar melhor informações sobre riscos. Isso se opõe aos empiristas, que, no contexto da IA, podem favorecer avanços apoiados por dados observacionais.
Políticas de escalonamento responsáveis: diretrizes que os desenvolvedores de inteligência artificial devem seguir, projetadas para mitigar riscos de segurança e garantir o desenvolvimento responsável dos sistemas de IA, seu impacto na sociedade e os recursos que consumirã,o como energia e dados. Essas políticas ajudam a garantir que a tecnologia seja ética, benéfica e sustentável à medida que os sistemas se tornam mais poderosos.
Singularidade: momento hipotético em que a inteligência artificial avança tanto que a tecnologia supera a inteligência humana. Imagine um cenário de ficção científica em que um robô de IA desenvolve sua própria personalidade e domina o mundo.
0 Comments