Principais escritórios de advocacia admitem "alucinações" de IA em processo de falência relacionado a rede de golpe alegada

Resumidamente

  • O escritório de advocacia Sullivan & Cromwell admitiu que uma apresentação recente em um caso de alto perfil incluiu “alucinações” de IA.
  • O escritório afirmou que a saída da IA não foi devidamente verificada e incluiu citações fabricadas.
  • O caso envolve esforços de liquidatários nomeados pelo tribunal para buscar reivindicações relacionadas ao grupo sancionado Prince Group.

O escritório de advocacia Sullivan & Cromwell admitiu a um tribunal de falências dos EUA que uma apresentação recente em um caso de alto perfil continha erros gerados por inteligência artificial, incluindo citações fabricadas. “Lamentamos profundamente que isso tenha ocorrido”, escreveu Andrew Dietderich, chefe de reestruturação do escritório, ao juiz Martin Glenn, dizendo que o documento incluía “alucinações” de IA que produziram autoridades fictícias e distorceram as existentes. A divulgação ocorreu em uma carta ao Tribunal de Falências dos EUA para o Distrito Sul de Nova York, onde o escritório representa liquidatários nomeados pelo tribunal das Ilhas Virgens Britânicas. Os erros apareceram em uma moção de 9 de abril e o escritório afirmou que suas regras sobre o uso de IA não foram seguidas durante a preparação.

O caso envolve esforços desses liquidatários para buscar reivindicações vinculadas ao Prince Group e seu proprietário, Chen Zhi. Promotores alegam que Chen dirigiu compostos de golpe que visaram vítimas em todo o mundo e buscaram recuperar bilhões de dólares em criptomoedas que, segundo eles, estão ligados à atividade. Ele foi detido no início deste ano no Camboja e posteriormente repatriado para a China. Por meio de procedimentos do Capítulo 15 nos EUA, os liquidatários buscam reconhecimento de sua autoridade para agir em nome de credores e supostos vítimas. O Prince Group, incorporado nas Ilhas Virgens Britânicas, foi ligado por autoridades americanas a operações de fraude em grande escala no Sudeste Asiático e sancionado pelos governos do Reino Unido e dos EUA. De acordo com uma submissão corrigida, a apresentação de 9 de abril incorreu em erro ao citar jurisprudência em vários pontos e incluiu citações que não apoiavam as proposições atribuídas a elas, enquanto algumas pareciam não ter base alguma. O escritório retirou a moção original e apresentou uma versão revisada. Advogados do Prince Group e de Chen na Boies Schiller Flexner inicialmente identificaram os erros. Disseram que a linguagem atribuída ao Código de Falências dos EUA não pôde ser encontrada e que várias autoridades foram mal caracterizadas ou mal identificadas. Em um caso, disseram, uma decisão citada referia-se a uma decisão diferente em outro circuito.

 Em uma apresentação separada, os réus disseram que pelo menos 28 citações estavam incorretas, incluindo citações atribuídas ao tribunal que não existem. Argumentaram que o momento da correção foi prejudicial porque a apresentação revisada foi feita após eles terem apresentado objeções, e solicitaram que o tribunal adiasse uma audiência agendada e realizasse uma conferência de status. Sullivan & Cromwell afirmou que suas políticas exigem que os advogados concluam treinamentos antes de usar ferramentas de IA e verifiquem independentemente toda a saída. “Antes que qualquer advogado do Escritório tenha acesso a ferramentas de IA generativa, o advogado deve completar dois módulos de treinamento obrigatórios, cujo cumprimento é monitorado e verificado. O treinamento enfatiza repetidamente o risco de ‘alucinações’ de IA, incluindo a fabricação de citações de casos, má interpretação de autoridades e citações imprecisas,” afirmou. “Instrui os advogados a ‘não confiar em nada e verificar tudo’ e deixa claro que a falha em verificar independentemente a saída gerada por IA constitui uma violação da política do Escritório.” O escritório afirmou que uma revisão mais ampla encontrou problemas menores de redação em outras apresentações, que atribuiu a erro humano e não à IA. Não identificou os advogados que prepararam a moção original. IA no banco dos réus O incidente aumenta uma lista crescente de equívocos relacionados à IA na prática jurídica, à medida que escritórios testam ferramentas projetadas para acelerar pesquisas e redações. Tribunais recentemente sancionaram ou criticaram advogados por apresentarem petições com referências fabricadas ou imprecisas produzidas por IA. Na Austrália, um advogado foi despojado de sua capacidade de atuar como advogado principal devido ao uso de IA no ano passado. Faculdades de direito estão começando a exigir instruções sobre a tecnologia, enquanto juízes seniores alertaram que o uso indevido pode afetar a integridade dos processos.

Decisões recentes também abordaram como a IA se encaixa nos quadros jurídicos existentes, incluindo se interações com essas ferramentas são protegidas por privilégio. Ao mesmo tempo, alguns tribunais estão pilotando sistemas de IA para ajudar a gerenciar cargas de trabalho pesadas.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar