Mila Badran
Associée
Article
3
L’intelligence artificielle (l’« IA ») s’impose progressivement dans tous les domaines, y compris celui du droit. Les citoyens et les entreprises tout comme les juristes y voient une ressource précieuse. Or, cette technologie peut soulever notamment des enjeux de fiabilité et de responsabilité. Le 1er octobre 2025, la Cour supérieure du Québec a rendu une première décision marquante dans Specter Aviation Limited c. Laprade[1], en sanctionnant pour la première fois l’usage inapproprié de l’IA dans le cadre d’un litige.
Avant cette décision, aucun tribunal québécois n’avait encore imposé de sanction pour un usage inapproprié de l’IA. En 2023, la Cour supérieure du Québec avait toutefois publié un avis invitant les plaideurs à la prudence[2]. Dans Specter Aviation, la Cour rappelle que d’autres juridictions canadiennes s’étaient déjà penchées sur des situations semblables. La Cour suprême de la Colombie-Britannique, dans Zhang v. Chen[3], avait conclu que la citation de décisions inventées par ChatGPT constituait un abus de procédure compromettant l’intégrité du système de justice. Pareillement, dans Lloyd’s Register Canada Ltd. v. Choi[4], la Cour fédérale a rejeté une procédure entachée de références fictives produites par un outil d’IA.
Dans Specter Aviation, le défendeur, Monsieur Laprade, se représentait seul dans une contestation d’une demande d’homologation d’une sentence arbitrale. L’affaire s’inscrit dans un long et complexe différend en lien avec un avion. Pour préparer sa défense, le défendeur a eu recours à divers moyens, dont l’IA[5]. Il a ainsi, à plusieurs reprises, intégré dans sa contestation de fausses citations, décisions et références, de même que des conclusions qui ne concordent pas avec le contenu invoqué[6].
En se fondant sur l’article 342 du Code de procédure civile du Québec, la Cour a estimé que ce comportement constituait un manquement grave au déroulement de l’instance, justifiant l’imposition d’une sanction de 5 000 $[7]. Cette pénalité découle du fait que le défendeur a tenté d’induire la partie adverse et le Tribunal en erreur en produisant des extraits fictifs de jurisprudence et d’autres autorités fabriquées par l’IA (communément appelées des « hallucinations »). La Cour précise qu’une telle conduite constitue un manquement grave, qu’elle soit intentionnelle ou simplement négligente, puisqu’un justiciable, même non représenté, demeure tenu aux plus hauts standards de rigueur lorsqu’il dépose une procédure devant la Cour[8].
Ainsi, bien que l’accès à la justice soit un droit fondamental, il doit s’exercer dans le respect des règles du processus judiciaire. Le Tribunal rappelle que l’usage de l’IA ne saurait, en aucun cas, justifier la présentation de documents inexacts ou fabriqués[9].
Au-delà de ce cas d’espèce, cette décision marque un tournant jurisprudentiel au Québec en matière d’utilisation de l’IA. Bien que la Cour ne condamne pas l’usage de ces outils technologiques en soi, elle rappelle la nécessité de prudence et d’intervention humaine à chaque étape[10].
Cette décision fournit ainsi un cadre de réflexion utile pour tout secteur d’activité intégrant l’IA. En effet, elle illustre les exigences de diligence et de traçabilité que doivent désormais adopter les entreprises utilisant l’IA. Elle confirme ainsi l’importance que les systèmes d’IA soient soumis à des vérifications rigoureuses et à un contrôle humain (souvent référé en anglais à « human in the loop »). L’IA ne peut à elle seule exonérer une entreprise de sa responsabilité à l’égard de ses produits et services.
Pour ainsi dire, toute entreprise recourant à l’IA devrait mettre en place des mécanismes de contrôle de l’IA, notamment par l’adoption de pratiques de gouvernance et de politiques internes (protocoles de vérification et contrôle de la qualité, documentation, audits, etc.) ainsi que par l’intégration, dans ses ententes contractuelles ou ses termes et conditions, de clauses relatives à l’usage de l’IA, aux conditions d’utilisation et aux limitations de responsabilité.
En bref, bien que l’intelligence artificielle constitue une avancée remarquable en matière de rapidité et d’assistance, son utilisation actuelle requiert néanmoins un encadrement.
Pour en savoir plus sur l’IA dans un contexte juridique en évolution et ses éventuelles répercussions sur votre organisation, n’hésitez pas à contacter les membres de la rédaction ou encore un membre de notre groupe Droit de Intelligence artificielle.
[1] Specter Aviation Limited c. Laprade, 2025 QCCS 3521
[2] Avis à la communauté juridique et au public de la Cour supérieure du Québec, daté du 24 octobre 2023 (Avis_a_la_communaute_juridique-Utilisation_intelligence_artificielle_FR.pdf)
[3] Zhang v. Chen, 2024 BCSC 285
[4] Lloyd's Register Canada Ltd. v. Choi, 2025 FC 1233
[5] Specter Aviation Limited c. Laprade, préc. note 1, par.35 (« Specter Aviation »)
[6] Id., par.53
[7] Id., par.55;60
[8] Id., par.57
[9] Id., par.43
[10] Id., par.45
CECI NE CONSTITUE PAS UN AVIS JURIDIQUE. L'information qui est présentée dans le site Web sous quelque forme que ce soit est fournie à titre informatif uniquement. Elle ne constitue pas un avis juridique et ne devrait pas être interprétée comme tel. Aucun utilisateur ne devrait prendre ou négliger de prendre des décisions en se fiant uniquement à ces renseignements, ni ignorer les conseils juridiques d'un professionnel ou tarder à consulter un professionnel sur la base de ce qu'il a lu dans ce site Web. Les professionnels de Gowling WLG seront heureux de discuter avec l'utilisateur des différentes options possibles concernant certaines questions juridiques précises.