Inteligência Artificial V Hinton As preocupações do “pai” da Inteligência Artificial

Inteligência Artificial V Hinton As preocupações do “pai” da Inteligência Artificial

Geoffrey Hinton, uma verdadeira lenda na disciplina, acredita agora que a tecnologia que tanto ajudou a desenvolver pode nos levar ao fim da civilização em questão de anos.

O tema da Inteligência Artificial, com seu enorme alcance e o pouco que realmente sabemos – em muitos casos ainda estamos na fase intuitiva – deu origem a uma verdadeira catarata de estudos, opiniões, controvérsias e acalorados debates que praticamente acontecem diariamente.

Nosso Laboratório entende que um dos melhores serviços que pode prestar a todas aquelas pessoas e organizações que acompanham nosso trabalho é oferecer uma série selecionada dessas opiniões, posições e debates, quase que atualizados no dia em que acontecem, para manter genuinamente informados aqueles que estão atentos ao que está ocorrendo e à nossa visão.

Por sinal, o Laboratório está trabalhando em seu Microlab de Inteligência Artificial e, oportunamente, divulgará suas conclusões e percepções, mas a urgência do tema não admite grandes atrasos. Essa é a razão pela qual hoje iniciamos uma Série, a de Inteligência Artificial, que esperamos seja o fermento de análise, meditação e conclusões sobre a projeção que um tema de tal magnitude nos obriga a abordar. Ninguém, nem governos, nem organismos internacionais, nem organismos regionais, think tanks e indivíduos podem permanecer indiferentes à sua evolução.

Como sempre, esperamos que nosso serviço possa ser útil.

Geoffrey Hinton está extremamente preocupado com o futuro da inteligência artificial:

Fora do campo de pesquisa e desenvolvimento da Inteligência Artificial, pode haver muitas pessoas que nunca ouviram falar de Geoffrey Hinton, talvez o pioneiro ou um dos mais destacados do grupo de pioneiros que desenvolveram e se ocuparam sistematicamente da Inteligência Artificial. Mas este autor e seu pensamento representam um marco dentro de toda essa grande discussão pela qual estamos passando e que nos interessa porque sua opinião é decisiva para a tomada de decisões, especialmente de natureza pública, e suas opiniões, sejam positivas ou negativas, não podem ser ignoradas. Por sinal, o especialista vem de um fato recente de alta relevância pessoal e profissional, ele acabou de renunciar ao seu emprego na gigante Google. Uma decisão que tem raízes mais profundas do que um simples capricho ou uma opção simples entre um “sim” e um “não”.

Hinton, com seus 75 anos completos, viu em sua carreira profissional e em sua vida pessoal muitas coisas, foi protagonista e testemunha, não apenas do desenvolvimento computacional, mas também do nascimento e desenvolvimento da Internet e construiu sua vida em torno disso. É por isso, e por sua vasta trajetória científica, que é necessário atentar à sua visão, em tempos em que a discussão sobre o tema, sobre suas consequências e sua eventual regulação está se intensificando. É preciso ser cuidadoso quanto à discussão e às linhas argumentativas que estão sendo desenvolvidas: sabemos que estamos diante de um tema de enorme importância.

Nasceu em Wimbledon, no Reino Unido, em 6 de dezembro de 1947. Possui dupla nacionalidade, a de seu país de origem e a do país em que reside, o Canadá. Se formou na Universidade de Edimburgo e possui um PhD em Inteligência Artificial. Após obter seu título, trabalhou na Universidade de Sussex – onde enfrentou algumas dificuldades financeiras – e emigrou para a Universidade da Califórnia em San Diego e para a Universidade Carnegie Mellon.

Foi diretor fundador da Fundação Benéfica Gatsby da Unidade de Neurociência Computacional na University College de Londres.

Sua área de trabalho há muito tempo é o Aprendizado Profundo e o Aprendizado de Máquina. E suas áreas de ocupação, além da informática teórica, incluem o cargo de professor universitário na Universidade de Toronto (no Departamento de Informática) e na Universidade Carnegie Mellon, onde ensinou até 1987.

Ele ocupa a Cátedra de Pesquisa do Canadá em Aprendizado de Máquina e atualmente é assessor para o Aprendizado em Máquinas e Cérebros no Instituto Canadense para Pesquisa Avançada. E se juntou ao Google em março de 2013 quando sua empresa, DNNresearch Inc., foi adquirida.

Como foi indicado, ele trabalhava no Google até que, por vontade própria, deixou de fazê-lo muito recentemente, alegando o perigo que reconhece em algumas novas tecnologias e a insistência de algumas empresas em continuar por um caminho que nos conduz a esses perigos, a maioria dos quais não foi medida em sua profundidade. Ele fez isso aos 75 anos, em uma sociedade profundamente desdenhosa de seus teóricos mais velhos.

Além disso, é membro da Academia Americana de Artes e Ciências; da American Association for Artificial Intelligence, do Laboratório Europeu de Aprendizado e Sistemas Inteligentes.

Hinton foi eleito membro da Royal Society (FRS) em 1998. Ele foi o primeiro vencedor do Prêmio David E. Rumelhart em 2001.

Em 2001, Hinton foi agraciado com um Doutorado Honoris Causa pela Universidade de Edimburgo. Em 2005 recebeu o Prêmio IJCAI de Pesquisa de Excelência por sua trajetória. Também foi agraciado com a Medalha de Ouro Herzberg no Canadá para a Ciência e Engenharia em 2011. Em 2013, Hinton foi agraciado com um Doutorado Honoris Causa pela Universidade de Sherbrooke, também no Canadá.

Em 2016, foi eleito membro estrangeiro da Academia Nacional de Engenharia “Por suas contribuições à teoria e à prática das redes neurais artificiais e suas aplicações para o reconhecimento de voz e visão computacional”. Também recebeu o Prêmio IEEE/RSE Wolfson James Clerk Maxwell em 2016.

Ele ganhou os prêmios da Fundação BBVA Fronteiras do Conhecimento de Adjudicação (2016) na categoria de Tecnologias de Informação e Comunicação “por seu trabalho pioneiro e altamente influente” para dotar as máquinas com a capacidade de aprender.

Ganhou o Prêmio Turing em 2018 (considerado o Nobel da Informática) juntamente com Yoshua Bengio e Yann LeCun por seu trabalho em Aprendizado Profundo, especialmente por avanços conceituais e de engenharia que tornaram as redes neurais profundas um componente crítico da computação.

Atualmente, o Professor Hinton pesquisa maneiras de utilizar redes neurais para aprendizado de máquina, memória, percepção e processamento de símbolos. É autor ou coautor de mais de 200 publicações revisadas por pares nessas áreas. Enquanto foi professor na Universidade de Carnegie Mellon (1982-1987), Hinton foi um dos primeiros pesquisadores a demonstrar o uso do algoritmo de backpropagation generalizado para treinar redes neurais multicamadas, que foi amplamente utilizado para aplicações práticas. Durante o mesmo período, Hinton co-inventou as máquinas de Boltzmann com David Ackley e Terry Sejnowski. Suas outras contribuições para a pesquisa em redes neurais incluem representações distribuídas, redes neurais com atraso temporal, misturas de especialistas, máquinas de Helmholtz e Produto de Especialistas. Em 2007, Hinton foi coautor de um trabalho sobre aprendizado não supervisionado intitulado “Aprendizado não supervisionado de transformações de imagem”. Uma introdução acessível às pesquisas de Geoffrey Hinton pode ser encontrada em seus artigos na Scientific American de setembro de 1992 e outubro de 1993.

Hinton se mudou dos EUA para o Canadá em parte devido à desilusão com a política da era Reagan e à desaprovação do financiamento militar da Inteligência Artificial. Ele acredita que os sistemas políticos usarão a IA para “aterrorizar a população”. Hinton tem peticionado contra as armas autônomas letais. Em relação ao risco existencial da inteligência artificial, Hinton declarou que a superinteligência parece estar a mais de 50 anos no futuro, mas alerta que “não há uma boa trajetória de coisas menos inteligentes controlando coisas de maior inteligência”. Quando foi entrevistado em 2015 e lhe perguntaram por que ele continua com a pesquisa, apesar de suas graves preocupações, Hinton declarou: “Eu poderia dar os argumentos habituais. Mas a verdade é que a perspectiva da descoberta é doce demais.” Hinton também afirmou que “é muito difícil prever além de cinco anos” o que os avanços da IA trarão. De fato, as metas que ele imaginava com relação aos tempos mudaram drasticamente. Até algum tempo atrás, a previsão de Hinton era que a inteligência artificial superaria a inteligência humana em cerca de trinta ou cinquenta anos, mas as evidências mostram que esse tempo foi reduzido para entre cinco e vinte anos.

Há um conjunto de razões pelas quais Hinton deixou seu cargo de vice-presidente de Engenharia no Google e iniciou uma campanha para alertar que o mundo deve temer a tecnologia.

Sua intenção, atualmente, é dedicar-se a alertar sobre o que considera ser o lado sombrio da inteligência artificial (IA), de acordo com o que disse em uma entrevista ao prestigioso e influente The New York Times. Esta “transição” de uma ponta da ponte para a outra não é simplesmente uma mudança de opinião de alguém. Hinton é uma lenda na disciplina. Seu trabalho foi decisivo para o desenvolvimento de algumas técnicas que tornaram possível o ChatGPT, tradutores automáticos ou sistemas de visão para veículos autônomos. Ele atravessou a ponte porque agora acredita firmemente que a tecnologia que tanto ajudou a desenvolver pode nos levar ao fim da civilização em questão de anos.

Não é uma conclusão caprichosa, a obsessão desse cientista sempre foi estudar como funciona o cérebro para tentar replicar esses mecanismos nos computadores. Em 1972, ele cunhou o conceito de rede neural. A ideia original era aplicar matemática à análise de dados para que os sistemas fossem capazes de desenvolver habilidades. Sua proposta não convenceu na época; hoje, as redes neurais são a vanguarda da pesquisa em Inteligência Artificial. O grande momento de Hinton chegou em 2012, quando demonstrou o verdadeiro potencial de sua linha de pesquisa com uma rede neural que podia analisar milhares de fotografias e aprender sozinha a distinguir certos objetos, como flores, carros ou cachorros. Ele também treinou um sistema para prever as próximas letras de uma frase inacabada, um precursor dos atuais grandes modelos linguísticos como o ChatGPT.

De acordo com o pensamento atual do Professor Hinton, enfrentamos muitos perigos. A geração de notícias falsas já está causando grandes divisões na sociedade. A eliminação de certos tipos de trabalho terá um impacto no emprego. A disparidade de riqueza entre ricos e pobres aumentará. Esses são alguns dos perigos iminentes, embora existam outros de caráter existencial. De acordo com Hinton, “recentemente percebi que o tipo de inteligência digital que estamos desenvolvendo pode ser uma forma de inteligência melhor do que a dos cérebros biológicos. Sempre pensei que a IA ou o aprendizado profundo tentavam imitar o cérebro, embora não pudessem igualá-lo: o objetivo era melhorar para que as máquinas se parecessem mais e mais conosco. Mudei de posição nos últimos meses. Acredito que podemos desenvolver algo muito mais eficiente que o cérebro porque é digital.” E o que cobre essa afirmação é o que devemos considerar realmente preocupante.

Ele acreditava que, em todo caso, poderíamos imitar o cérebro, mas agora acredita que podemos criar algo mais eficiente que o cérebro, porque é digital:

Com um sistema digital, poderíamos ter inúmeras cópias exatamente do mesmo modelo do mundo. Essas cópias podem funcionar em diferentes hardwares. Dessa forma, diferentes cópias poderiam analisar dados diferentes. E todas essas cópias podem saber instantaneamente o que as outras aprenderam. Elas fazem isso compartilhando seus parâmetros. Mas não é possível fazer isso com o cérebro. Nossas mentes aprenderam a usar todas suas propriedades de forma individual. Se eu lhe desse um mapa detalhado das conexões neurais do nosso cérebro, não serviria para nada. Mas nos sistemas digitais, o modelo é idêntico. Todos usam o mesmo conjunto de conexões. Assim, quando um aprende algo, pode comunicar aos outros. E é por isso que o ChatGPT pode saber milhares de vezes mais do que qualquer pessoa: porque pode ver milhares de vezes mais dados do que ninguém. Isso é o que assusta. Talvez essa forma de inteligência seja melhor do que a nossa.

Ele chega a essa conclusão depois de tentar descobrir como um cérebro poderia implementar os mesmos procedimentos de aprendizado usados em inteligências digitais como as que estão por trás do ChatGPT-4. Pelo que sabemos até agora sobre o funcionamento do cérebro humano, provavelmente nosso processo de aprendizado é menos eficiente que o dos computadores.

O aprendizado profundo, se comparado à Inteligência Artificial simbólica (a corrente dominante na disciplina até a irrupção das redes neurais, que tentava fazer com que a máquina aprendesse palavras e números), é um modelo de intuição. Se tomarmos a lógica simbólica como referência, se acreditarmos que é assim que o raciocínio funciona, não podemos responder à pergunta que é necessário fazer. Mas se tivermos um modelo computacional de intuição, a resposta é óbvia. Então, essa é a pergunta: sabemos que há gatos machos e fêmeas. Mas suponhamos que eu diga que devemos escolher entre duas possibilidades, ambas ridículas: todos os gatos são machos e os cães são fêmeas, ou todos os gatos são fêmeas e todos os cães são machos. Em nossa cultura ocidental, temos bem claro que faz mais sentido que os gatos sejam fêmeas, porque são menores, mais inteligentes e cercados por uma série de estereótipos, e que os cães sejam machos, porque são maiores, menos inteligentes, mais barulhentos, etc. Repito, não faz sentido algum, mas forçados a escolher, acredito que a maioria diria o mesmo. Por quê? Em nossa mente, representamos o gato e o cachorro, o homem e a mulher, com grandes padrões de atividade neuronal baseados no que aprendemos. E associamos entre si as representações que mais se assemelham. Esse é um raciocínio intuitivo, não lógico. Assim funciona o aprendizado profundo.

É possível que a Inteligência Artificial chegue a ter seus próprios propósitos ou objetivos?

Aqui está uma questão chave, talvez o maior perigo que cerca esta tecnologia. Nossos cérebros são o fruto da evolução e possuem uma série de metas integradas, como não ferir o corpo, daí a noção de dano; comer o suficiente, daí a fome; e fazer tantas cópias de nós mesmos quanto possível, daí o desejo sexual. As inteligências sintéticas, por outro lado, não evoluíram: nós as construímos. Portanto, elas não necessariamente vêm com objetivos inatos. Então, a grande pergunta é: podemos garantir que elas tenham metas que nos beneficiem? Este é o chamado problema do alinhamento. E temos várias razões para nos preocuparmos muito. A primeira é que sempre haverá quem queira criar robôs soldados. Isso pode ser conseguido de forma mais eficiente se for dada à máquina a capacidade de gerar seu próprio conjunto de objetivos. Nesse caso, se a máquina for inteligente, não demorará a perceber que consegue melhor seus objetivos se se tornar mais poderosa. Então, uma das chaves é dedicar tanto esforço ao desenvolvimento desta tecnologia quanto à garantia de que seja segura.

Os caminhos a serem seguidos agora:

É necessário chamar a atenção das pessoas para esse problema existencial que é a Inteligência Artificial. Quem me dera que houvesse uma solução clara, como no caso da emergência climática: precisamos parar de queimar carbono, embora haja muitos interesses que o impeçam. Mas não se conhece nenhum problema equivalente ao da Inteligência Artificial. Então, o melhor a se fazer neste momento é que devemos dedicar tanto esforço ao desenvolvimento dessa tecnologia quanto à garantia de que ela seja segura. E isso não está acontecendo atualmente. Mas como se consegue isso em um sistema capitalista?

O Google desenvolveu internamente chatbots como o LaMDA, que eram muito bons, e deliberadamente decidiu não abri-los ao público porque estavam preocupados com suas consequências. E foi assim enquanto o Google liderava essa tecnologia. Quando a Microsoft decidiu colocar um chatbot inteligente no seu buscador Bing, o Google teve que responder porque operam um sistema competitivo. O Google se comportou de forma responsável. Hinton não quer que as pessoas pensem que ele saiu da empresa para criticá-la. Ele deixou o Google para poder alertar sobre os perigos sem ter que se preocupar com o impacto que isso poderia causar nos seus negócios.

Qual é a situação geral da comunidade científica e a ingenuidade manifesta:

As conclusões de Hinton são de que entramos em um território completamente desconhecido. Somos capazes de construir máquinas mais fortes do que nós, mas ainda assim mantemos o controle. Mas o que aconteceria se desenvolvêssemos máquinas mais inteligentes do que nós? Não temos experiência em lidar com essas coisas. Realmente precisamos pensar muito sobre isso. E não basta dizer que não vamos nos preocupar. Muitas das pessoas mais inteligentes que conhecemos e que estão lidando com esses temas estão seriamente preocupadas.

Não adianta esperar que a Inteligência Artificial seja mais inteligente do que nós, precisamos controlá-la à medida que ela se desenvolve.

Hinton não assinou a carta subscrita por mais de mil especialistas em Inteligência Artificial que pedia uma moratória de seis meses na pesquisa. Suas razões são que ele acredita que o enfoque é completamente ingênuo e não há como implementá-lo. Ele apresenta razões muito importantes: ainda que se resolva a competição entre as grandes empresas, há a competição entre países. Se os EUA decidissem parar de desenvolver Inteligência Artificial, realmente acreditamos que a China pararia? A ideia de parar a pesquisa chama a atenção das pessoas para o problema, mas isso não vai acontecer. Com as armas nucleares, dado que as pessoas perceberam que todos perderiam se houvesse uma guerra nuclear, foi possível conseguir Tratados. Com a Inteligência Artificial, será muito mais complicado porque é muito difícil verificar se as pessoas estão trabalhando nisso.

O melhor que se pode recomendar é que muitas pessoas muito inteligentes tentem descobrir como conter os perigos dessas coisas. A Inteligência Artificial é uma tecnologia fantástica, está provocando grandes avanços na medicina, no desenvolvimento de novos materiais, na previsão de terremotos ou inundações… Precisamos de muito trabalho para entender como conter a IA. Não adianta esperar que a IA seja mais inteligente do que nós, precisamos controlá-la à medida que ela se desenvolve. Também precisamos compreender como contê-la, como evitar suas más consequências. Por exemplo, acredito que todos os governos deveriam insistir para que todas as imagens falsas tenham um distintivo.

Por fim, Hinton apontou: “temos a oportunidade de nos preparar para esse desafio. Precisamos de muitas pessoas criativas e inteligentes. Se houver alguma forma de manter a IA sob controle, precisamos descobri-la antes que ela seja inteligente demais”.

Inteligência Artificial IV Trabalho Advocacia

Inteligência Artificial IV Trabalho Advocacia

A Inteligência Artificial poderia limitar cada vez mais o exercício da Advocacia?

O tema da Inteligência Artificial, com seu enorme alcance e o pouco que na realidade sabemos – em muitos casos ainda estamos em uma fase intuitiva – tem gerado uma verdadeira avalanche de estudos, opiniões, controvérsias e debates acalorados que praticamente acontecem todos os dias.

Nosso Laboratório entende que um dos melhores serviços que pode prestar a todas as pessoas e organizações que acompanham nosso trabalho é oferecer uma série escolhida de opiniões, posicionamentos e debates, quase que em tempo real, para manter genuinamente informados aqueles que estão atentos ao que está acontecendo e à nossa visão.

Por sinal, o Laboratório está trabalhando em seu Microlab de Inteligência Artificial e, oportunamente, divulgará suas conclusões e percepções, mas a urgência do tema não admite grandes demoras. Por isso, hoje inauguramos uma série, a de Inteligência Artificial, que esperamos seja o fermento para análises, reflexões e conclusões sobre a projeção que um tema de tal magnitude nos obriga a abordar. Ninguém, nem governos, nem organismos internacionais, nem organismos regionais, think tanks e indivíduos podem permanecer indiferentes à sua evolução.

Como sempre, esperamos que nosso serviço possa ser útil.

A inteligência artificial pode não roubar seu trabalho, mas poderia mudar seu trabalho

A Inteligência Artificial (IA) já está sendo utilizada no campo jurídico. Ela está realmente preparada para ser advogada?

Os avanços da Inteligência Artificial (IA) tendem a gerar ansiedade sobre o futuro dos empregos. Esta última onda de modelos de IA como o ChatGPT e o novo GPT-4 da OpenAI não é diferente. Primeiro tivemos o lançamento dos sistemas. E agora estamos vendo previsões de automação no mercado de trabalho.

Em um relatório publicado pelo grupo Goldman Sachs no início de abril, foi previsto que os avanços da IA poderiam automatizar de alguma forma 300 milhões de postos de trabalho (aproximadamente 18% da força de trabalho mundial). A OpenAI também publicou seu próprio estudo em conjunto com a Universidade da Pensilvânia (EUA), que afirmava que o ChatGPT poderia afetar mais de 80% dos empregos no país.

Os números parecem esmagadores, mas a linguagem utilizada nesses relatórios pode ser frustrantemente vaga. “Modificar” pode significar muitas coisas, e os detalhes não são claros.

As pessoas cujos trabalhos envolvem comunicação através da linguagem podem, como era de se esperar, ser particularmente afetadas por grandes modelos de linguagem como o ChatGPT e o GPT-4. Vamos tomar um exemplo: os advogados. No início de abril, observei a indústria jurídica e como ela provavelmente será afetada pelos novos modelos de IA, e o que encontrei é que existem tantos motivos para o otimismo quanto para a preocupação.

A indústria jurídica, antiga e lenta, tem sido alvo de disrupção tecnológica há algum tempo. Em uma indústria com pouca mão de obra e que precisa lidar com uma enorme quantidade de documentos complexos, a tecnologia que pode compreender e resumir rapidamente o texto pode ser imensamente útil. Então, como devemos pensar sobre o impacto que esses modelos de IA podem ter no setor jurídico?

Primeiro, os recentes avanços da IA são particularmente compatíveis e adequados para o trabalho jurídico. Em março, o GPT-4 aprovou o Exame Uniforme de Advogados, também conhecido como UBE, semelhante ao exame OAB no Brasil, que é a prova padrão exigida para a obtenção da licença de advogados nos EUA. No entanto, isso não significa que a IA esteja pronta para defender.

O modelo pode ter sido treinado em milhares de provas de prática, o que o teria tornado um candidato impressionante, mas não necessariamente um grande defensor. (Não sabemos muito sobre os dados de treinamento do GPT-4 porque a OpenAI não publicou essas informações).

Ainda assim, o sistema é excelente para análise de texto, o que é extremamente importante para os advogados.

“A língua é de extrema importância na indústria jurídica e no campo do direito. Todos os caminhos levam a um documento. Isso significa que você tem que ler, analisar ou escrever um documento… e essa é realmente a moeda com a qual as pessoas negociam”, diz Daniel Katz, professor de direito na Chicago-Kent College (EUA), que supervisionou o exame do GPT-4.

Além disso, segundo Katz, o trabalho jurídico tem muitas tarefas repetitivas que podem ser automatizadas, como buscar leis e casos aplicáveis e obter evidências relevantes.

Um dos pesquisadores do exame UBE, Pablo Arredondo, tem trabalhado secretamente com a OpenAI desde o outono para usar o GPT-4 em seu produto legal, Casetext. De acordo com o site do Casetext, ele usa IA para realizar “revisão de documentos, memorandos de pesquisa jurídica, preparação de declarações e análise de contratos”.

Arredondo também diz que, à medida que usa o GPT-4, se entusiasma cada vez mais com o potencial do modelo de linguagem para ajudar os advogados. Ele afirma que a tecnologia é “incrível” e “refinada”.

No entanto, a IA no campo jurídico não é uma tendência nova. Ela já foi utilizada para revisar contratos e prever resultados legais, e os pesquisadores têm explorado como a IA poderia ajudar a aprovar leis. Recentemente, a DoNotPay, uma firma de direitos do consumidor, considerou apresentar um argumento escrito pela IA em um caso judicial, utilizando um chamado “advogado robô” que o recitaria nos ouvidos dos acusados através de um fone de ouvido. (A DoNotPay não tomou medidas e está sendo processada por exercer ilegalmente a advocacia).

Apesar desses exemplos, esse tipo de tecnologia ainda não obteve uma adoção generalizada nos escritórios de advocacia. Isso poderia mudar com os novos modelos de linguagem grande?

Por fim, os advogados estão acostumados ao trabalho de revisão e edição.

Os modelos de linguagem grande estão longe de ser perfeitos e seus resultados devem ser verificados de perto, o que exige muito trabalho. No entanto, os advogados estão muito acostumados a revisar documentos, sejam eles produzidos por pessoas ou máquinas. Muitos estão capacitados na revisão de documentos, o que significa que um maior uso da IA, com um humano envolvido no processo, poderia ser relativamente fácil e prático em comparação com a adoção dessa tecnologia em outros setores.

A grande pergunta é se é possível convencer os advogados a confiar em um sistema de inteligência artificial em vez de em um advogado júnior que passou alguns anos na Faculdade de Direito.

Por fim, existem limitações e riscos. Às vezes, o GPT-4 pode até criar um texto muito convincente, mas incorreto, e fazer uso indevido do conteúdo de referência. Uma vez, diz Arredondo, o GPT-4 o fez duvidar dos fatos de um caso que ele mesmo havia trabalhado. “Eu disse, você está errado. Eu defendi esse caso. E a IA disse, você pode se orgulhar dos casos que trabalhou, Pablo, mas estou certa e aqui está a prova.” E então deu uma URL que não levava a lugar algum. Arredondo acrescenta: “Ela é um pouco sociopata.”

Katz afirma que é essencial que os humanos monitorem constantemente os resultados gerados pelos sistemas de IA, e destaca a obrigação profissional dos advogados de serem rigorosos e minuciosos: “Você não deve simplesmente pegar os resultados desses sistemas e entregá-los para as pessoas sem revisá-los.”

Outros profissionais são ainda mais céticos. “Essa não é uma ferramenta em que eu confiaria para realizar uma análise legal importante e garantir que seja confiável e precisa”, diz Ben Winters, que lidera os projetos do Electronic Privacy Information Center sobre IA e direitos humanos. Winters caracteriza a cultura da IA generativa no campo jurídico como “demasiado confiante e irresponsável”. Também foi exposto na imprensa que a IA é afetada por preconceitos raciais e de gênero.

Há também considerações a longo prazo e questões complexas. Se os advogados tiverem menos prática em pesquisa jurídica, o que isso significa para suas habilidades e conhecimento na área?

Mas ainda estamos um pouco longe desse cenário. Por enquanto.


Fonte original e créditos: MIT Technology Review 16 de maio de 2023.

Artigo desenvolvido pelo MIT (Massachusetts Institute of Technology). Original em português. Tradução da Equipe Técnica.

error: Content is protected !!