Les avocats avertissent que les discussions avec l'IA peuvent être utilisées devant le tribunal après une nouvelle décision sur le privilège à New York

robot
Création du résumé en cours

  • Plus d’une douzaine de grands cabinets d’avocats américains ont averti leurs clients que les conversations avec des chatbots IA pourraient être découvertes en justice.
  • Les avertissements ont suivi une décision de New York selon laquelle les chats d’un défendeur pour fraude avec Anthropic’s Claude n’étaient pas protégés par le secret professionnel ou le doctrine du travail produit.

Les cabinets d’avocats américains agissent rapidement pour avertir leurs clients que les conversations avec des chatbots IA pourraient ne pas rester privées une fois qu’une affaire atteint la cour. L’urgence fait suite à une décision de février du juge Jed Rakoff à New York, qui a statué que Bradley Heppner, l’ancien président de la société financière en faillite GWG Holdings, devait remettre 31 documents générés par Anthropic’s Claude aux procureurs fédéraux poursuivant des accusations de fraude en valeurs mobilières et en télécommunications. Rakoff a conclu qu’aucune relation avocat-client n’existait entre un utilisateur et Claude, et que toute confidentialité était renoncée en partageant des informations avec la plateforme. Les cabinets d’avocats commencent à intégrer cet avertissement dans les contrats clients Reuters a rapporté que plus d’une douzaine de grands cabinets américains ont depuis publié des avis conseillant à leurs clients d’être prudents lors de discussions juridiques impliquant des chatbots tels que Claude et ChatGPT. Certains cabinets sont allés plus loin en intégrant ces avertissements directement dans les accords d’engagement. Par exemple, le cabinet new-yorkais Sher Tremonte a indiqué dans un contrat récent avec un client que divulguer des communications privilégiées à une plateforme IA tierce pourrait renoncer au secret professionnel. C’est un changement significatif. Ce qui était, il y a quelques mois, principalement une précaution interne des avocats, est désormais formalisé dans la documentation client. Une décision, mais un signal juridique plus large La décision de Rakoff n’est pas la seule opinion judiciaire sur le sujet. Le même jour, un juge magistrat du Michigan a statué que les conversations ChatGPT d’un plaignant en procédure pro se pouvaient être considérées comme un travail personnel et ne devaient pas être produites. Cependant, les conseillers juridiques semblent pour l’instant considérer l’affaire de New York comme le signal d’alarme le plus important. La question plus profonde n’est pas vraiment l’IA elle-même. C’est la confidentialité. Comme l’a noté Reuters, Anthropic et OpenAI déclarent dans leurs conditions que les données des utilisateurs peuvent être partagées avec des tiers, y compris les autorités gouvernementales dans certains cas. Pour les avocats, cela rend la vieille règle particulièrement pertinente : ne discutez pas de votre affaire avec quiconque sauf votre avocat, et cela inclut désormais le chatbot.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler