L’avocat qui a utilisé le chatbot d’OpenAI pour étayer son dossier contre une compagnie aérienne doit maintenant répondre de ces citations erronées.
C’est une situation pour le moins ubuesque qui alimente encore le débat autour des IA génératives. Dans le cadre d’un procès contre la compagnie aérienne colombienne Avianca, le dossier à charge contenait des citations de six cas totalement inventés par ChatGPT. Mais un avocat travaillant pour le plaignant a déclaré au tribunal que le chatbot IA d’OpenAI avait affirmé qu’ils étaient vrais.
Les chatbots IA ne sont pas encore prêts à vous défendre devant un tribunal…
D’après un article du New York Times, les avocats qui poursuivent la compagnie aérienne Avianca ont présenté un dossier rempli d’affaires antérieures qui ont été inventées de toutes pièces par ChatGPT. L’avocat de la compagnie colombienne a signalé ces cas inexistants au juge Kevin Castel qui a confirmé que « six des cas soumis semblent être de fausses décisions judiciaires avec de fausses informations et de fausses citations internes ». Le juge a ensuite organisé une audience pour envisager des sanctions à l’encontre des avocats du plaignant.
Durant cette dernière, l’avocat Steven A. Schwartz a admis dans sa déclaration sous serment qu’il avait utilisé ChatGPT pour ses recherches. Cerise sur le gâteau, pour vérifier les cas, il a demandé au chatbot d’OpenAI s’il mentait. Dans l’un des cas, lorsqu’il a demandé une source, ChatGPT a insisté sur le fait que l’affaire était réelle et qu’elle pouvait être trouvée sur des plateformes de recherche juridique comme Westlaw et LexisNexis. Satisfait de la réponse, l’avocat a ensuite demandé si les autres cas étaient faux et ChatGPT a maintenu avec assurance qu’ils étaient tous réels.
De son côté, l’avocat de la défense a mis un point d’honneur à souligner au tribunal, avec de nombreux détails, que le dossier était truffé de fausses informations. Par exemple, dans une affaire inexistante, le chatbot IA semble faire référence à une autre affaire bien réelle, mais s’est trompé dans la date et a mélangé d’autres détails.
Steven A. Schwartz a déclaré qu’il n’était « pas conscient de la possibilité que son contenu puisse être faux » et qu’il regrettait « avoir utilisé l’intelligence artificielle générative pour compléter sa recherche juridique ». L’avocat a ajouté qu’il « ne le fera plus jamais à l’avenir sans une vérification absolue de l’authenticité des sources ».
Dans tous les cas, cette affaire met une fois de plus en évidence l’absurdité de l’utilisation des chatbots IA pour la recherche sans vérifier deux, voire trois fois les informations générées.