Un expert met en garde contre le chaos dans la salle d'audience, car une nouvelle technologie pourrait libérer de fausses informations

Un expert met en garde contre le chaos dans la salle d’audience, car une nouvelle technologie pourrait libérer de fausses informations

Une intelligence artificielle hallucinante peut faire échouer une affaire judiciaire en créant de fausses citations d’affaires qui exposent les avocats à des sanctions ou la procédure elle-même susceptible d’être annulée, a déclaré un ancien plaideur.

Le mois dernier, un juge a infligé une amende de 5 000 $ à un cabinet d’avocats représentant la compagnie aérienne colombienne Avianca Inc., qui a utilisé ChatGPT pour rédiger son dossier juridique, mais l’IA a inclus des décisions judiciaires fabriquées.

UN cas similaire s’est passé en Afrique du Sud, et le juge et le magistrat supervisant les affaires ont déchiré les cabinets d’avocats dans leurs décisions.

« Il y a un préjudice potentiel à la réputation des juges et des tribunaux dont les noms sont faussement invoqués en tant qu’auteurs des fausses opinions et à la réputation d’une partie attribuée à un comportement fictif », a écrit le juge présidant l’affaire Avianca. « Cela encourage le cynisme à l’égard de la profession juridique et du système judiciaire américain. »

Jacqueline Schafer, PDG et fondatrice de Clearbrief, une plate-forme alimentée par l’IA qui vérifie essentiellement les dossiers juridiques, a déclaré que ce problème continuera de se produire en raison de la pression de temps à laquelle les avocats sont confrontés.

« Il y a une grande tentation d’utiliser des choses qui peuvent simplement l’écrire pour vous », a déclaré Schafer à Garde ton corps lors d’une interview avec Zoom.

« Nous verrons probablement ces histoires continuer à apparaître. C’est pourquoi il est essentiel que les cabinets d’avocats examinent en profondeur toutes leurs plaidoiries avant de les déposer, même s’ils pensent avoir interdit ChatGPT dans leur cabinet. »

Schafer, qui a commencé sa carrière en tant qu’avocate à New York avant de devenir procureure générale adjointe des États d’Alaska et de Washington, a créé Clearbrief en 2020 pour détecter les erreurs ou les faux cas dans les mémoires rédigés par l’IA.

« Le défi que nous avons avec l’IA générative comme ChatGPT qui crée un travail écrit instantané est qu’il fera des choses comme inventer complètement de fausses citations de cas et inventer des faits », a-t-elle déclaré.

« Un utilisateur peut, par exemple, demander à l’IA de lui écrire une analyse juridique de la loi de l’Arizona, et ChatGPT écrira quelque chose qui semble élégamment écrit, et cela peut même inclure des citations qui semblent totalement réelles. »

Cela peut tromper même les avocats les plus expérimentés s’ils ne « prennent pas le temps de vérifier minutieusement chaque affaire et chaque loi et de les rechercher manuellement », a déclaré Schafer.

Dans la décision sud-africaine, le magistrat président a essentiellement dit la même chose dans sa décision : « En matière de recherche juridique, l’efficacité de la technologie moderne doit encore être imprégnée d’une dose de bonne lecture indépendante à l’ancienne. »

Repérer les faux cas (à l'aide de l'affidavit d'Avianca)

Des problèmes surviennent lorsque des professionnels du droit utilisent secrètement des programmes alimentés par l’IA comme ChatGPT, a déclaré Schafer.

« Ironiquement, nous avons besoin de l’IA pour nous aider à détecter les hallucinations de l’IA », selon Schafer, qui a déclaré que c’était la genèse de Clearbrief.

« Je rencontre chaque jour de grands cabinets d’avocats qui sont confrontés à deux problèmes », a-t-elle déclaré. « Ils sont terrifiés à l’idée d’utiliser l’IA générative qui rédige tout le document pour vous si cela introduit des erreurs embarrassantes qui entraîneront la sanction de l’entreprise.

« Mais ils subissent également des pressions de la part de leurs clients pour qu’ils utilisent la technologie de l’IA pour être plus efficaces et réduire leurs factures. Le secteur juridique fait donc beaucoup de travail en ce moment pour identifier la technologie qui peut résoudre les deux problèmes. »

A lire également