Susan H. Abramovitch
Associée
Chef – Groupe du droit du divertissement et du sport
Article
9
Une véritable tempête secoue l'industrie du divertissement. Avec ses algorithmes capables de transformer les processus de production et d'améliorer les effets visuels, l'intelligence artificielle est en train de chambouler nos modes de création, de consommation et de communication. Jetons un coup d'œil dans les coulisses controversées de l'IA pour découvrir les récents soubresauts dans le monde du sport et du divertissement, et les conséquences juridiques qui pourraient en découler.
Le 2 mai dernier, les scénaristes à Hollywood représentés par la Writers Guild of America (WGA) sont entrés en grève, du jamais vu en 15 ans. Depuis, une grande partie de l'industrie du divertissement a cessé de travailler en signe de protestation et les effets commencent déjà à se faire sentir. Émissions de télévision? Hors d'ondes. Talk-shows? Interrompus. Tapis rouges? Désertés. Parmi ses demandes, la WGA réclame la réglementation de l'intelligence artificielle dans l'ensemble du secteur pour empêcher les studios de générer artificiellement des matériaux littéraires et sources ainsi que d'utiliser les œuvres créées par ses membres pour entraîner une IA.
En termes simples, les systèmes d'IA générative combinent des algorithmes d'apprentissage automatique et d'apprentissage profond pour prédire la prochaine phrase d'un texte à partir de documents sources. Ces systèmes peuvent être entraînés à analyser le corpus d'œuvres d'un créateur, soit des milliers et des milliers de pages, et à produire un résultat reflétant le style original de celui-ci, et ce en une fraction du temps qu'il en faudrait à un être humain. Or, dans l'article intitulé « AI Image Generations: Drawing Infringement Claims, Not US Copyright Protection » (Générateurs d'images par IA : pas de droit d'auteur sur les images et poursuites en justice aux États-Unis, en anglais seulement), on mentionne que l'utilisation de matériel protégé par le droit d'auteur pour entraîner une IA (qui, à son tour, créera de nouvelles œuvres) soulève certains enjeux. Si les tribunaux n'ont pas encore tranché définitivement à savoir si cette pratique constitue ou non une violation du droit d'auteur, il est évident que la WGA s'attend à ce que l'industrie prenne position. Cette grève vient nous rappeler à quel point les syndicats et les groupes sectoriels ont leur mot à dire dans l'élaboration des lois et des politiques qui les concernent. Mais outre les questions de droits d'auteur, le dénouement de la grève de la WGA créera assurément un précédent quant à la manière d'utiliser et de réglementer l'IA dans l'industrie du divertissement et ses domaines connexes, comme le journalisme et la conception graphique.
Si l'intelligence artificielle est responsable de cet « arrêt laboral » pour les membres de la WGA, cela n'a pas arrêté le joueur de basketball Ja Morant pour autant : il s'en serait servi récemment pour servir ses intérêts professionnels. Pour donner du contexte, après avoir exhibé à deux reprises une arme à feu lors de diffusions en direct sur Instagram, le célèbre joueur des Grizzlies de Memphis a été suspendu des activités de son équipe dans l'attente d'une enquête. Suite à la controverse, Morant a présenté ses excuses, mais les fans le soupçonnent d'avoir eu recours à l'IA pour les rédiger.
La question se pose : pourquoi formuler des excuses si elles ne sont pas sincères? Morant est une personnalité publique dont les moindres faits et gestes sont hautement scrutés, étant donné sa grande visibilité et ses obligations professionnelles. Et en tant que partie prenante de nombreux contrats de commandite représentant plusieurs millions de dollars, il y a fort à parier qu'il est contractuellement tenu de respecter certaines normes comportementales, appelées « clauses de moralité ». On peut donc conclure qu'en confiant la rédaction de ses excuses à l'IA, l'athlète espérait éviter les mesures correctives prévues en cas de violation d'une telle clause.
Grâce aux clauses de moralité, les marques peuvent résilier unilatéralement un contrat ou encore prendre certaines mesures correctives si le talent qu'elles parrainent se livre à des comportements susceptibles de nuire à leur image (comme le fait de brandir un pistolet dans un bar). En cette ère de culture du bannissement et dans un contexte numérique en constante évolution, une clause de moralité claire et détaillée s'avère un outil plus précieux que jamais dans l'arsenal d'une marque pour minimiser ses risques, et il s'avère qu'il n'a jamais été aussi difficile de rédiger une telle clause.
Bien que fréquentes, les clauses de moralité sont souvent mal accueillies par les talents, qui craignent notamment que la portée excessive des comportements visés et le manque de clarté dans le libellé donnent lieu à une application arbitraire et à des conséquences injustes. Qui plus est, le phénomène actuel de la culture du bannissement leur fait craindre que ces clauses servent à faire taire les voix discordantes ou à réprimer les opinions défavorables. Ceux qui s'y opposent réclament qu'elles soient plus clairement rédigées, plus transparentes et mises en œuvre de manière plus juste, pour éviter qu'elles ne deviennent des outils de censure et de discrimination.
Dans notre article intitulé « Les clauses de moralité à l'ère des scandales dans les médias sociaux : ce que les entreprises doivent savoir », nous présentons des facteurs à considérer lors de la rédaction d'une clause de moralité détaillée et intentionnelle, et précisons quand elle devrait être déclenchée (en fonction du moment où les actes ou les allégations deviennent publics, par opposition au moment où ils se sont produits). À l'ère des médias sociaux, où l'historique de nos activités en ligne peut revenir nous hanter des années plus tard, cette considération temporelle est critique. C'est pourquoi les commanditaires insisteront souvent pour englober dans leur clause de moralité toute activité antérieure qui finit par devenir de notoriété publique. En général, les talents s'y opposent, affirmant que leurs agissements passés ne devraient pas constituer un motif de résiliation de contrat valable, puisque c'est au commanditaire de passer tout ce que le talent a précédemment publié en ligne au peigne fin. Si autrefois cette tâche représentait un défi de taille, elle est tout à coup plus réalisable grâce à l'IA.
On assiste aujourd'hui à un développement sans précédent de l'IA, qui est désormais en mesure de détecter les comportements antérieurs de candidats auxquels une marque songe à s'affilier qui pourraient entrer en conflit avec les valeurs, les convictions et la mentalité qu'elle véhicule, notamment en analysant les pages de leurs médias sociaux pour déterminer un emplacement, les commentaires et même les émojis. Plus remarquable encore, en scrutant le passé virtuel des talents, les outils d'IA sont capables de déterminer si ces derniers sont susceptibles de se livrer à des activités qui enfreindraient les termes de leur contrat, par exemple en violant les droits d'auteur d'un tiers.
Avec des progrès technologiques aussi prometteurs en matière d'IA, il est peut-être temps de se repencher sur la question de la clause de moralité, une protection contractuelle de moins en moins impérative. En théorie, toute violation antérieure et tendance comportementale controversée sera décelée avant la signature du contrat, ce qui permettra de brosser un portrait complet de la personnalité et de la réputation d'une personne (du moins de ce qu'on peut en voir en ligne). Grâce aux informations recueillies par l'IA, les marques peuvent évaluer les talents potentiels avec une plus grande objectivité et en s'appuyant sur des données, réduisant ainsi le besoin d'inclure des dispositions subjectives dans les clauses de moralité. Par ailleurs, les outils de gestion de la réputation alimentés par l'IA pourraient favoriser la surveillance proactive et l'atténuation des risques, et permettre aux marques de soulever des enjeux avant que les choses dégénèrent.
* * *
L'intelligence artificielle inquiète et s'immisce partout : dans les médias, dans nos relations interpersonnelles, et elle affecte même notre perception des personnalités publiques. Protection de la vie privée, mise en œuvre éthique de l'IA pour évaluer les risques, création de normes et de lignes directrices pour l'ensemble de l'industrie, voilà autant de questions qui auraient dû être abordées depuis longtemps pour prévenir l'utilisation abusive de l'IA. La bonne nouvelle? Recourir à l'intelligence artificielle pourrait justement s'avérer utile pour les rédiger!
CECI NE CONSTITUE PAS UN AVIS JURIDIQUE. L'information qui est présentée dans le site Web sous quelque forme que ce soit est fournie à titre informatif uniquement. Elle ne constitue pas un avis juridique et ne devrait pas être interprétée comme tel. Aucun utilisateur ne devrait prendre ou négliger de prendre des décisions en se fiant uniquement à ces renseignements, ni ignorer les conseils juridiques d'un professionnel ou tarder à consulter un professionnel sur la base de ce qu'il a lu dans ce site Web. Les professionnels de Gowling WLG seront heureux de discuter avec l'utilisateur des différentes options possibles concernant certaines questions juridiques précises.