Nisso, Goddard parece estar pego na mesma situação que o boom da IA criou para muitos de nós. Três anos, as empresas construíram ferramentas que parecem tão fluentes e humanas que obscurecem os problemas intratáveis à espreita por baixo – respesas que lêem bem, mas estão erradas, modelos que são treinados para serem decentes em tudo, exceto para nada, e o risco de que suas conversas com elas serão vazadas na Internet. Cada vez que os usamos, apostamos que o tempo economizado supera os riscos e confiamos em nós mesmos para pegar os erros antes que eles importem. Para os juízes, as apostas são altas: se perderem essa aposta, enfrentam consequências muito públicas e o impacto de tais erros nas pessoas que servem pode ser duradouro.
“Não serei o juiz que cita casos e ordens alucinadas”, diz Goddard. “É realmente embaraçoso, muito profissionalmente embaraçoso”.
Ainda assim, alguns juízes não querem ficar para trás na era da IA. Com alguns no setor de IA sugerindo que a suposta objetividade e racionalidade dos modelos de IA poderiam torná -los melhores juízes do que os humanos falíveis, isso pode levar alguns no banco para pensar que ficar para trás representa um risco maior do que ir muito longe.
Uma ‘crise esperando para acontecer’
Os riscos de adoção precoce levaram alarmes com o juiz Scott Schlegel, que atua no Tribunal de Apelação do Quinto Circuito na Louisiana. Schlegel há muito tempo escreveu o blog sobre o papel útil que a tecnologia pode desempenhar na modernização do sistema judicial, mas alertou que erros gerados pela IA nas decisões dos juízes sinalizam uma “crise esperando para acontecer”, uma que superaria o problema dos advogados de envio de registros com casos inventados.
Os advogados que cometem erros podem ser sancionados, ter suas moções demitidas ou perder casos quando a parte adversária descobrir e sinalizar os erros. “Quando o juiz comete um erro, essa é a lei”, diz ele. “Eu não posso ir um mês ou dois depois e ir ‘Opa, sinto muito’ e me reverter. Não funciona dessa maneira.”
Considere casos de custódia infantil ou procedimentos de fiança, Schlegel diz: “Existem consequências bastante significativas quando um juiz se baseia em inteligência artificial para tomar a decisão”, especialmente se as citações em que a decisão se baseia forem inventadas ou incorretas.
Isso não é teórico. Em junho, um juiz do Tribunal de Apelação da Geórgia emitiu uma ordem que se baseava parcialmente em casos inventados por uma das partes, um erro que não foi capturado. Em julho, um juiz federal em Nova Jersey retirou uma opinião depois que os advogados reclamaram também continham alucinações.
Ao contrário dos advogados, que podem ser ordenados pelo Tribunal para explicar por que há erros em seus registros, os juízes não precisam mostrar muita transparência, e há poucas razões para pensar que o farão voluntariamente. Em 4 de agosto, um juiz federal no Mississippi teve que emitir uma nova decisão em um caso de direitos civis depois que o original foi encontrado para conter nomes incorretos e erros graves. O juiz não explicou completamente o que levou aos erros, mesmo depois que o estado pediu que ele o fizesse. “Nenhuma explicação adicional é necessária”, escreveu o juiz.
Esses erros podem corroer a fé do público na legitimidade dos tribunais, diz Schlegel. Certas aplicações estreitas e monitoradas de testemunhos de resumo da IA, obtendo feedback rápido de escrita-podem economizar tempo e podem produzir bons resultados se os juízes tratarem o trabalho como o de um associado do primeiro ano, verificando-o minuciosamente quanto à precisão. Mas a maior parte do trabalho de ser juiz é lidar com o que ele chama de problema de página branca: você está presidindo um caso complexo com uma página em branco à sua frente, forçada a tomar decisões difíceis. Pensar nessas decisões, ele diz, é realmente obra de ser juiz. Obter ajuda com um primeiro rascunho de uma IA mina esse objetivo.
“Se você está tomando uma decisão sobre quem recebe as crianças neste fim de semana e alguém descobre que você usa Grok e você deveria ter usado Gêmeos ou Chatgpt – você sabe, esse não é o sistema de justiça”.