Le juge P. Kevin Castel a déclaré que les avocats avaient agi de manière irresponsable. Il a toutefois pris acte des excuses et des mesures prises par les deux avocats, et a expliqué pourquoi des sanctions plus sévères n'étaient pas nécessaires pour éviter que d'autres avocats ne suivent leur exemple.
Photo : CNYB
« Les progrès technologiques sont normaux, et il n'y a rien de mal à utiliser un outil d'IA fiable pour obtenir de l'aide », a écrit M. Castel. « Mais les règles actuelles exigent que les avocats garantissent l'exactitude des documents qu'ils soumettent. »
Le juge a déclaré que les avocats et le cabinet d'avocats Levidow & Oberman « ont abdiqué leur responsabilité en émettant des avis judiciaires inexistants avec de fausses citations générées par l'outil d'intelligence artificielle ChatGPT ».
Dans un communiqué, le cabinet a déclaré qu'il se conformerait à l'ordonnance du juge, mais a ajouté : « Nous sommes en profond désaccord avec l'idée que quiconque au sein de notre cabinet ait agi de manière irresponsable. Nous avons présenté nos excuses au tribunal et à nos clients. Il s'agit d'une situation sans précédent pour le système judiciaire, et nous avons commis une erreur en ne croyant pas que la technologie pouvait complètement inventer des affaires qui n'existaient pas. »
Lors d'une audience plus tôt ce mois-ci, un avocat a déclaré avoir utilisé un chatbot alimenté par l'intelligence artificielle pour aider à trouver des précédents juridiques soutenant le procès d'un client contre la compagnie aérienne colombienne Avianca au sujet d'une blessure survenue sur un vol en 2019.
Le juge a déclaré que l’une des fausses décisions générées par le chatbot « comportait certaines caractéristiques qui semblaient cohérentes avec de véritables décisions judiciaires », mais contenait des « absurdités ».
Quoc Thien (selon AP)
Source
Comment (0)