Decrypt logoLady Justice. Source: Shutterstock/Decrypt

Em resumo

  • Um tribunal federal decidiu que os chats de IA não têm privilégios legais porque Claude não possui licença legal.
  • Agora, os grandes escritórios de advocacia estão adaptando as suas estratégias em conformidade, embora as opiniões jurídicas sejam conflitantes.
  • As ferramentas empresariais de IA, usadas sob orientação de um advogado, ainda podem se qualificar para proteção.

Há dois meses, um juiz federal em Nova York decidiu que as conversas privadas de um réu de fraude com Claude, da Anthropic, eram um jogo justo para os promotores. Agora, o setor jurídico ainda está processando o que isso significa – e está fazendo isso rapidamente.

Desde então, mais de uma dúzia de grandes escritórios de advocacia dos EUA emitiram avisos aos clientes alertando que as conversas com chatbots de IA como Claude e ChatGPT não têm proteção legal quando abordam questões jurídicas. Alguns foram mais longe: as empresas estão agora a incorporar esse aviso directamente nos contratos que assinam com os clientes antes mesmo de começar a representação.

De acordo com Reutersa empresa Sher Tremonte de Nova York – que regularmente representa réus criminais de colarinho branco – adicionou linguagem a um acordo de compromisso de março afirmando que “a divulgação de comunicações privilegiadas para uma plataforma de IA de terceiros pode constituir uma renúncia ao privilégio advogado-cliente”. Acredita-se que esteja entre as primeiras empresas a traduzir uma decisão judicial numa obrigação contratual formal para os clientes.

“Estamos dizendo aos nossos clientes: vocês devem proceder com cautela aqui”, disse Alexandria Gutiérrez Swette, advogada da Kobre & Kim, com sede em Nova York, Reuters.

Outras empresas estão agora correndo para estabelecer barreiras de proteção. Reuters relata que O’Melveny & Myers e outros disseram aos clientes para usarem apenas sistemas de IA “fechados” de nível empresarial, reconhecendo que mesmo a IA empresarial permanece em grande parte não testada em tribunal nesta questão.

Debevoise & Plimpton deu um passo além com conselhos táticos: se um advogado instruir especificamente um cliente a usar uma ferramenta de IA, o cliente deve informar isso dentro do próprio prompt do chatbot. A empresa sugeriu escrever “Estou fazendo esta pesquisa sob orientação de um advogado para o litígio X.” A ideia parece estabelecer as condições para invocar a doutrina Kovel, que pode estender o privilégio advogado-cliente a não advogados que trabalham como agentes de advogados.

A decisão que abalou a prática

A urgência remonta ao caso Estados Unidos v. Heppner, decidido em fevereiro pelo juiz Jed Rakoff do Distrito Sul de Nova York. Bradley Heppner, ex-presidente da falida empresa de serviços financeiros GWG Holdings, foi indiciado por cinco acusações federais, incluindo fraude de valores mobiliários e fraude eletrônica. Depois de receber uma intimação do grande júri, ele usou Claude da Anthropic sozinho para mapear sua defesa – gerando 31 documentos que o FBI posteriormente apreendeu em sua casa.

O juiz Rakoff decidiu que esses documentos não poderiam ser protegidos por três razões: Claude não é advogado, a própria política de privacidade da Anthropic reserva-se o direito de compartilhar dados de usuários com terceiros, incluindo reguladores governamentais, e Heppner agiu de forma independente, e não sob a direção de seus advogados. Nenhuma relação advogado-cliente “poderia existir”, escreveu o juiz, “entre um usuário de IA e uma plataforma como Claude”.

A decisão foi a primeira opinião escrita do tipo sobre IA e privilégio advogado-cliente nos Estados Unidos. Também serviu de alerta para uma profissão que observava silenciosamente os clientes recorrendo aos chatbots em busca de orientação jurídica, sem considerar o que acontece quando essas conversas terminam em um tribunal.

O próprio Rakoff deixou a porta aberta. Ele observou durante a audiência de Heppner que, se o advogado instruísse o réu a usar Claude, a IA “pode-se dizer que funcionou de maneira semelhante a um profissional altamente treinado que pode atuar como agente de um advogado dentro da proteção do privilégio advogado-cliente”. Essa linha é agora uma espécie de tábua de salvação para empresas que projetam novos protocolos de IA.

O cenário judicial não está totalmente resolvido. Por exemplo, no caso Warner v. Gilbarco, um tribunal decidiu que as conversas ChatGPT de um demandante auto-representado eram protegidas como produto de trabalho, porque as ferramentas de IA são “ferramentas, não pessoas” e compartilhar informações com software não é o mesmo que divulgá-las a um adversário.

Um tribunal do Colorado reforçou essa lógica em 30 de março no caso Morgan v. V2X, também protegendo um por si produto de trabalho de IA do litigante, embora tenha ido além, ordenando ao demandante que divulgasse qual ferramenta de IA ele usou e proibindo que materiais de descoberta confidenciais fossem inseridos em plataformas que permitem treinamento de dados.

O padrão está tomando forma: se você é uma parte representada que decidiu por conta própria usar um chatbot de IA para o consumidor, você está exposto. Se você estiver se representando em um caso civil, poderá ter mais cobertura. A diferença entre esses dois cenários é agora uma das falhas mais acentuadas na lei de provas dos EUA.

Justin Ellis do MoloLamken disse Reuters que mais decisões eventualmente esclarecerão quando os chats de IA podem ser usados ​​como prova. Até então, a versão dessa clareza da profissão jurídica está aparecendo em cartas de compromisso e e-mails de clientes, e em conselhos que teriam parecido estranhos há dois anos: pense cuidadosamente sobre o que você digita em um chatbot, porque outra pessoa pode ler.

O Tribunal Superior de Los Angeles está testando separadamente ferramentas de IA para que os juízes lidem com resumos de casos e projetos de decisões – a mesma tecnologia que entra nos fluxos de trabalho jurídicos a partir do tribunal, enquanto os advogados lutam para gerenciá-la do lado do cliente. Descriptografar também cobriu anteriormente alternativas de IA com foco na privacidade que evitam a centralização de dados de conversas, uma categoria de produto cujo argumento de venda acaba de receber um caso de teste significativo no mundo real.

Resumo Diário Boletim informativo

Comece cada dia com as principais notícias do momento, além de recursos originais, podcast, vídeos e muito mais.

Fontedecrypt

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *