Faire rapidement au dépens de la qualité: Les frais juridiques ne sont certainement pas bon marché, donc lorsque nous retenons une représentation juridique, nous supposons que nous payons pour le temps et l’expertise de ce professionnel juridique. Plutôt que de fournir les services typiques retenus, un avocat de Manhattan a tenté de raccourcir le processus de recherche en laissant ChatGPT citer ses références de cas pour un dépôt auprès de la Cour fédérale. Et comme il l’a découvert à ses dépens, la vérification des faits est assez importante, surtout lorsque votre IA a un penchant pour inventer des faits.

L’avocat Steven A. Schwartz a été retenu par un client pour le représenter dans une affaire de lésions corporelles contre Avianca Compagnies Aériennes. Selon l’affirmation, le client de Schwartz aurait été frappé au genou avec un chariot de service lors d’un vol en 2019 vers l’aéroport international Kennedy.

Comme on pouvait s’y attendre dans ce type de situation juridique, la compagnie aérienne a demandé à un juge fédéral de Manhattan de jeter l’affaire, ce à quoi Schwartz s’est immédiatement opposé. Jusqu’à présent, cela ressemble à un échange de salle d’audience assez typique. C’est-à-dire jusqu’à ce que Schwartz, qui n’avait jamais utilisé ChatGPT auparavant, décide qu’il était temps de laisser la technologie parler.

2023 05 28 Image 3

Dans son opposition à la demande d’Avianca, Schwartz a soumis un mémoire de 10 pages citant plusieurs décisions judiciaires pertinentes. Les citations faisaient référence à des affaires similaires, notamment Martinez c. Delta Air Lines, Zicherman c. Korean Air Lines et Varghese c. China Southern Airlines. Selon le New York Times‘ article, la dernière citation a même fourni une longue discussion de la loi fédérale et « l’effet péage de la suspension automatique d’un délai de prescription ».

Publicité

Bien qu’il semble que Schwartz soit venu armé et prêt à défendre l’affaire, il y avait un problème sous-jacent : aucun de ces cas n’est réel. Martinez, Zicherman et Varghese n’existent pas. ChatGPT les a tous fabriqués dans le seul but de soutenir la soumission de Schwartz.

Confronté à l’erreur du juge P. Kevin Castel, Schwartz a reconnu qu’il n’avait aucune intention de tromper le tribunal ou la compagnie aérienne. Il a également regretté de s’être fié au service d’intelligence artificielle, admettant qu’il n’avait jamais utilisé ChatGPT et qu’il « ignorait la possibilité que son contenu soit faux ». Selon les déclarations de Schwartz, il a tenté à un moment donné de vérifier l’authenticité des citations en demandant à l’IA si les cas étaient en fait réels. Il a simplement répondu « oui ».

Le juge Castel a ordonné une audience de suivi le 8 juin pour discuter des sanctions potentielles liées aux actions de Schwartz. L’ordonnance de Castel a présenté avec précision les nouvelles situations étranges comme « une circonstance sans précédent », jonchée de « fausses décisions judiciaires, avec de fausses citations et de fausses citations internes ». Et dans un cruel coup du sort, le cas de Schwartz pourrait très bien finir comme l’une des citations utilisées dans les futures affaires judiciaires liées à l’IA.


4.6/5 - (28 votes)
Publicité
Article précédentStarfire obtient une refonte de style anime dans l’art officiel des Titans
Article suivantApple apportera des modifications à l’iPhone 16 Pro pour mieux concurrencer Samsung, selon un rapport
Avatar De Violette Laurent
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici