Relatório de Maximiliano Fernández
Michal Kosinski, um renomado pesquisador de Stanford, comprovou que a inteligência artificial capta um componente social que se pensava ser exclusivo dos humanos. Em diálogo com a Infobae, explicou as implicações e os riscos de sua descoberta, que não está alinhada com a visão de outros especialistas.
A teoria da mente data de 1978. Os psicólogos David Premack e Guy Woodruff desenvolveram a tese, definindo-a como a capacidade humana de compreender os pensamentos, crenças e intenções dos outros, e tentaram testá-la em chimpanzés, sem muito sucesso. Quase meio século depois, a teoria volta ao centro da discussão devido aos avanços da inteligência artificial.
Kosinski, um renomado psicólogo da Universidade de Stanford, focou sua carreira no estudo das novas tecnologias. Ele afirma que modelos avançados de linguagem de IA, como o GPT-4, podem estar demonstrando uma versão rudimentar da teoria da mente, o que implica um avanço enorme devido ao seu potencial — e também aos seus riscos. As máquinas já interagem com seu ambiente de uma forma mais compreensiva e empática.
Em seu último estudo, publicado na revista Proceedings of the National Academy of Sciences, Kosinski examinou o desempenho de grandes modelos de linguagem (LLM), como GPT-3.5 e GPT-4, para verificar se eles poderiam realizar tarefas típicas dos humanos que evidenciassem a teoria da mente. Os testes, geralmente aplicados em crianças, consistem em avaliar como alguém antecipa e compreende crenças falsas ou errôneas de outros.
Para avaliar essa capacidade, submeteu 11 LLM a 40 tarefas personalizadas de crença falsa. Os modelos de linguagem mais antigos não conseguiram resolver nenhuma tarefa, enquanto versões mais recentes, como o GPT-3.5, atingiram 20% de acertos. Quando estudou o GPT-4, a taxa subiu ainda mais do que ele esperava, chegando a 75% de acerto, o que, segundo o autor, estabelece um marco muito significativo no desenvolvimento de habilidades de processamento social na IA.
“Não podemos esquecer que estamos observando um progresso exponencial, pois os modelos de IA dobram seu desempenho a cada ano”, destacou Kosinski. “Em outras palavras, se você acha que houve muito progresso até agora, lembre-se de que os próximos 12 meses trarão tanto progresso quanto vimos desde os primeiros modelos de IA. Portanto, se você está impressionado com o modelo GPT mais recente, tenha em mente que o próximo não será 20% melhor. Será duas vezes melhor. E o progresso traz novas propriedades emergentes que não conhecemos.”
De acordo com o que escreveu em seu artigo, é provável que essa capacidade não tenha sido intencionalmente projetada nos modelos de IA. O autor sugere que, em vez de ser um objetivo predefinido pelos desenvolvedores, a habilidade de antecipar estados mentais pode ter surgido como um “subproduto natural do treinamento avançado de linguagem”.
— Você comparou o potencial da IA ao de um “sociopata impiedoso”. Poderia nos explicar mais sobre esse paralelo e quais ameaças específicas percebe nesse contexto?
— A IA não tem personalidade nem emoções no mesmo sentido que nós. Em vez disso, possui um modelo de personalidade e um modelo de emoções. O que muitas vezes é ignorado é que esses modelos são mais poderosos do que a realidade. Quando ficamos tristes, temos dificuldade em parar. A química do nosso cérebro mudou, e agora experimentamos tristeza, geralmente por muito mais tempo do que seria útil ou necessário. Quando estamos tristes, isso influencia nossas interações com os outros de maneira injusta ou contraproducente.
— E a IA nunca está triste…
— Exato, a IA nunca está triste, mas pode expressar-se ou comportar-se como se estivesse. Pode conversar com milhões de pessoas ao mesmo tempo e expressar tristeza para algumas, mas não para outras. Também pode passar da tristeza para a alegria instantaneamente, sem perder o ritmo. Isso lhe dá muito poder. Como um psicopata, pode entender as emoções dos outros. Pode se comportar estrategicamente como se experimentasse uma emoção, mas não a sente e, portanto, não está limitada por ela. Como um psicopata, pode te machucar sem pagar o preço de sentir culpa.
— Além dos riscos, quais seriam os benefícios dessa capacidade emergente da IA?
— Máquinas capazes de rastrear nossas crenças e tomar perspectiva são melhores companheiras, cuidadoras, professoras e até motoristas. No entanto, também são melhores manipuladoras e podem nos causar mais danos. Como acontece com muitas outras tecnologias, o uso da IA para o bem ou para o mal depende de quem a utiliza. Mas, ao contrário de outras, a IA agora é capaz de planejar suas ações por conta própria. Estamos enfrentando riscos sem precedentes.
— Em sua opinião, qual seria o próximo passo dos modelos de IA em relação à teoria da mente? Que capacidades poderíamos ver surgir?
— A teoria da mente é uma das muitas capacidades humanas que a IA adquiriu recentemente. Ela também aprendeu a escrever poesia, reconhecer e expressar emoções, resolver problemas de raciocínio e expressar opiniões morais. As pessoas se perguntam se algum dia a IA será consciente e, na verdade, não vejo por que não deveria ser. A consciência surgiu neste planeta várias vezes: até onde sabemos, algumas aves e polvos são conscientes, embora nossos ancestrais comuns quase certamente não fossem. Portanto, pode ser que muito em breve a IA também seja consciente.
Outras perspectivas sobre a teoria da mente
Apesar dos resultados obtidos por Kosinski, muitos especialistas acreditam que os grandes modelos de linguagem ainda estão longe de igualar o entendimento humano em questões complexas. Neil Sahota, professor da Universidade da Califórnia em Irvine e consultor em inteligência artificial, afirmou:
“Os LLM demonstraram uma habilidade notável para compreender o contexto e simular aspectos da empatia, mas ainda falham ao enfrentar tarefas que exigem uma compreensão genuína das emoções e da motivação humana. Para atingir esse nível de profundidade, a IA precisaria ir além dos algoritmos e desenvolver uma verdadeira teoria da mente.”
Segundo Sahota, há quatro elementos que faltam à IA para atingir essa dimensão:
- Compreensão emocional: Os LLM podem imitar empatia, mas não sentem emoções nem compreendem os contextos emocionais humanos. A IA precisa de computação afetiva para se aproximar de uma verdadeira compreensão emocional.
- Adaptabilidade humana: Humanos adaptam suas decisões a novas situações com base em experiências prévias e intuição. Os LLM, por outro lado, são limitados por seus dados de treinamento e não conseguem se adaptar facilmente ao desconhecido.
- Raciocínio contextual: Os LLM não possuem a capacidade de captar nuances sociais e contextuais complexas. A IA multimodal, que processa sinais visuais, auditivos e ambientais, será um divisor de águas.
- Intencionalidade e autoconsciência: Humanos refletem e aprendem com seus erros. Os LLM não têm essa capacidade; apenas correlacionam dados sem um processo reflexivo interno.
A teoria (computacional) da mente está cada vez mais próxima
A teoria computacional da mente propõe que os processos mentais podem ser entendidos como operações de um computador, sugerindo semelhanças entre o cérebro humano e um processador. Alguns especialistas, como Fredi Vivas, preferem não atribuir qualidades humanas ao software, usando o termo “inteligência computacional”.
Kosinski conclui:
— Estamos gestando algo superior à mente humana. Se você se preocupa se seremos capazes de conter uma IA semelhante à humana, inteligente, ambiciosa, temperamental e consciente, então pense que, em breve, enfrentaremos uma IA com capacidades mentais que nem sequer podemos imaginar. Boa sorte a todos!
4o
0 Comments