Le tribunal du Québec annule une sentence arbitrale fondée sur un raisonnement fabriqué par une IA
Les articles sont regroupés entre langues, réécrits dans un format éditorial fixe et reliés aux sources originales. Comment nous rapportons.
En bref
- Un tribunal du Québec a annulé une sentence arbitrale s’appuyant fortement sur des sources juridiques inexistantes générées par une IA.
- La sentence contenait une doctrine apocryphe, des citations juridiques sans lien avec l’affaire et une décision arbitrale fictive.
- La décision met en garde contre l’abdication de la responsabilité arbitrale au profit de l’IA, sans condamner les outils d’IA en soi.
- Le dossier soulève des questions sur la transparence et les limites de l’utilisation de l’IA dans les procédures arbitrales.
Vue d’ensemble
Un tribunal du Québec a annulé une sentence arbitrale après avoir conclu que le raisonnement central de la décision reposait sur des sources juridiques fabriquées par un outil d’intelligence artificielle. La décision a suscité de l’attention au sein de la communauté arbitrale, concernant les limites et les risques de l’usage de l’IA générative dans les processus décisionnels.
Ce qui s’est passé
L’affaire portait sur un arbitrage dans lequel l’arbitre a utilisé une IA générative pour produire le raisonnement juridique de la sentence.
La sentence litigieuse contenait une citation tirée d’une doctrine apocryphe et introuvable, trois décisions judiciaires citées sans rapport avec les faits du litige, ainsi qu’une référence à une sentence arbitrale inexistante.
À l’issue de l’examen, le tribunal du Québec a estimé que l’arbitre avait délégué son mandat critique d’évaluation à un outil d’IA, et que les références produites par l’IA constituaient le cœur du raisonnement arbitral.
En conséquence, le tribunal a annulé la sentence, tout en adressant un avertissement au milieu de l’arbitrage contre l’usage non critique de l’IA.
Contexte
La décision ne prohibe pas de manière catégorique l’utilisation d’outils d’IA par les arbitres. Le dossier indique que le tribunal a reconnu explicitement l’utilité d’une IA fiable pour des tâches comme la synthèse de documents volumineux ou la traduction, à condition que le raisonnement final reflète le jugement propre de l’arbitre.
Une analyse citée dans le dossier énonce quatre critères cumulatifs pour garantir un usage légitime de l’IA: réserver la décision arbitrale à l’arbitre, vérifier les sources, préserver la traçabilité et un raisonnement authentique, et assurer la proportionnalité du recours à l’outil d’IA. Le non-respect de ces exigences expose au risque d’invalidation d’une sentence.
Certains organismes de réglementation et guides en Espagne et ailleurs autorisent des ébauches générées par l’IA, si elles font l’objet d’une révision humaine approfondie, tandis que d’autres ont prévu des interdictions plus strictes quant à l’influence de l’IA sur les décisions de fond.
Pourquoi c’est important
- Cette annulation met en évidence des risques professionnels et éthiques importants pour les arbitres et les conseils lorsqu’ils s’appuient sur des documents générés par IA sans supervision humaine adéquate.
- Un usage inapproprié de l’IA peut compromettre la validité et le caractère exécutoire des sentences arbitrales, tant au regard de la Convention de New York que des lois nationales.
- Le dossier indique que cette affaire est perçue comme un avertissement sérieux et qu’il ne s’agira peut-être pas de la dernière occurrence, à mesure que l’IA est davantage utilisée dans les procédures arbitrales.
