Questions juridiques émergentes dans un monde régi par l'IA

37 minutes de lecture
17 juillet 2019

Auteurs:

Introduction

L'intelligence artificielle (IA) est une nouvelle réalité sur le marché. La puissance de calcul accrue des ordinateurs, l'amélioration des algorithmes et la quantité massive de données accessibles sont en train de transformer la société. Selon l'International Data Corporation (« IDC »), le marché de l'IA devrait atteindre 35,8 milliards de dollars cette année, soit une augmentation de 44 % depuis 20181. L'IDC prévoit également que les dépenses mondiales en l'IA2. Dans le présent article, nous traitons d'un certain nombre de nouvelles considérations juridiques relatives à l'utilisation de l'IA et offrons quelques points de vue sur la façon dont la législation est susceptible d'évoluer.

Qu'est-ce que l'IA?

L'IA désigne la capacité d'un ordinateur à effectuer des tâches couramment associées à des humains3, y compris la capacité d'analyser, de discerner le sens, de généraliser, de mettre à profit l'expérience acquise et de trouver des schémas et des relations de manière à réagir de façon dynamique à des situations changeantes4.

En 2017, les sociétés Accenture Research et Frontier Economics ont mené une étude visant à comparer les taux de croissance économique de 16 secteurs et à évaluer l'incidence de l'IA sur la croissance économique mondiale. Le rapport publié à l'issue de cette étude démontre que d'ici 2035 l'IA pourrait améliorer la rentabilité de 38 % en moyenne, et donner lieu à un boom économique de 14 000 milliards de dollars américains dans 16 secteurs d'activité, dans 12 économies5.

L'IA laisse présager que nous serons en mesure de prendre de meilleures décisions et de vivre des expériences potentiellement meilleures. Dans leur livre intitulé Machine, Platform, Crowd, les chercheurs du MIT Andrew McAfee et Erik Brynjolfsson avancent qu'il a été démontré de façon probante que chaque fois qu'il est possible de le faire, se fier uniquement à des données et algorithmes (plutôt qu'au jugement humain, même celui d'un expert avéré6) mène aux meilleures décisions et prédicitions. Cependant, comme le domaine de l'IA n'est pas encore réglementé, on craint que le fait d'y avoir recours sans la supervision et le contrôle humains puisse produire des résultats fâcheux.

Aspects juridiques de l'IA

Les analystes reconnaissent que la prépondérance de l'IA soulève de nouveaux défis juridiques et éthiques de taille et certains ont souligné la nécessité de faire intervenir des éthiciens en la matière pour qu'ils se penchent sur cette avancée technologique et nous indiquent jusqu'où elle pourrait nous mener7.

En octobre 2016, la Chambre des communes britannique a publié un rapport sur la robotique et l'IA qui mettait en évidence certaines questions éthiques et juridiques, y compris la transparence de la prise de décisions, la réduction de la partialité, la confidentialité et la responsabilisation8. Le 18 décembre 2018, le groupe d'experts de haut niveau sur l'IA de la Commission européenne (GEHNIA) a publié la première ébauche des « lignes directrices en matière d'éthique pour une IA digne de confiance »9. Selon ces lignes directrices, l'IA digne de confiance doit avoir une finalité éthique et être robuste sur le plan technique10 :

  1. Finalité éthique : le développement, le déploiement et l'utilisation de l'IA doivent respecter les droits fondamentaux et la réglementation applicable ainsi que les valeurs et principes de base, garantissant une « finalité éthique »;
  2. Robustesse sur le plan technique : l'IA doit être fiable et robuste sur le plan technique, car même avec de bonnes intentions, l'utilisation de l'IA peut causer des préjudices involontaires11.


Au Canada, le Secrétariat du Conseil du Trésor du Canada (le « Conseil ») s'intéresse aux enjeux entourant l'utilisation responsable de l'IA dans les programmes et les services gouvernementaux12. Le 2 mars 2019, le Conseil a publié une directive (entrée en vigueur le 1er avril 2019) sur le processus décisionnel automatisé, dont le but était d'assurer que la prise de décision fondée sur l'IA se fasse de manière compatible avec les principes fondamentaux du droit administratif, comme la transparence, la responsabilisation, la légalité et l'équité procédurale13.

Pour bien saisir les aspects juridiques de l'IA, l'une des questions centrales est de savoir comment la législation évoluera en réponse à l'IA. Est-ce que cela se fera par l'adoption de nouvelles lois et de nouveaux règlements? Ou par la voie traditionnelle des tribunaux qui créent le droit en appliquant les lois existantes aux nouveaux scénarios découlant d'un changement technologique?

L'IA a déjà été utilisée et acceptée en tant qu'outil dans un bon nombre de décisions aux États-Unis. Dans l'affaire Washington v. Emanuel Fair, par exemple, la défense dans une procédure pénale a demandé le rejet des résultats obtenus au moyen d'un logiciel de génotypage ayant recouru à l'IA pour analyser des mélanges complexes d'ADN, tout en exigeant que le code source du logiciel lui soit communiqué14. Le tribunal a accepté l'utilisation du logiciel et déclaré que d'autres États en avaient fait de même, sans toutefois obliger la divulgation du code source de ce logiciel15. En outre, dans l'affaire State v. Loomis, la Cour suprême du Wisconsin a conclu que l'utilisation par un juge du procès d'un logiciel algorithmique d'évaluation des risques pour établir une sentence ne violait pas le droit de l'accusé à un procès équitable, malgré le fait que la méthodologie employée pour produire l'évaluation n'ait pas été communiquée à l'accusé ni à la Cour16.

Au Canada, les litiges mettant en cause l'IA en sont à leur premier stade. En 2018, un article du Globe and Mail rapportait qu'une poursuite mettant en cause un système d'IA avait été engagée au Québec17. On y apprenait qu'Adam Basanta avait créé un système informatique autonome qui produisait des images abstraites18 de façon aléatoire. M. Basanta a été poursuivi devant la Cour supérieure du Québec pour contrefaçon de marque de commerce en raison d'une image créée par son système19. En effet, Mme Amel Chamandy, propriétaire de la Galerie NuEdge à Montréal, alléguait qu'une des images du projet de M. Basanta, intitulé All We'd Ever Need Is One Another, violait son droit d'auteur quant à la photo intitulée Your World Without Paper (2009ainsi que la marque de commerce lui appartenant et associée à son nom20.

L'IA est également employée pour rendre des décisions judiciaires. En Argentine, par exemple, les procureurs généraux y ont recours pour les aider à rédiger des décisions dans des affaires peu complexes comme les litiges relatifs aux permis de taxi que les présidents du tribunal peuvent soit approuver, résilier ou rédiger à nouveau21. Puisant dans la bibliothèque numérique des procureurs généraux comptant 2 000 décisions rendues entre 2016 et 2017, le programme d'IA établit une correspondance entre la cause à l'étude et les décisions les plus pertinentes de la base de données et estime la décision probable du tribunal22. Jusqu'à présent, les juges ont approuvé toutes les décisions suggérées par le logiciel, soit 33 au total23.

Protection des renseignements personnels

Le volume des données recueillies et la relativité de la collecte de données continuent de faire de la protection des renseignements l'un des enjeux juridiques les plus importants auxquels les utilisateurs de l'IA seront confrontés à l'avenir. En effet, les systèmes d'IA utilisent de grandes quantités de données, et plus l'on puise dans ce volume élevé de renseignements, plus cela soulève de questions : à qui appartiennent les données que se partagent les développeurs et les utilisateurs de l'IA? Ces dernières peuvent-elles être vendues? Devraient-elles être transformées en données anonymes aux fins de protection de la vie privée? L'utilisation projetée des données est-elle divulguée de façon appropriée et conforme à la loi, notamment à la Loi sur la protection des renseignements personnels et les documents électroniques (LPRPDE) ?

À l'heure actuelle, les gouvernements s'affairent à actualiser leur législation sur la protection des renseignements personnels pour répondre aux inquiétudes à ce sujet, alimentées par l'indignation générale face aux importantes violations des données personnelles et à l'absence de restrictions imposées aux grandes entreprises qui les utilisent. Les consommateurs se préoccupent de plus en plus des abus potentiels quant à l'utilisation de leurs renseignements personnels. En 2015, la Commission européenne a mené un sondage dans 28 états membres de l'Union européenne (UE). Ce dernier a démontré que près de sept personnes sur dix sont préoccupées par le fait que leurs renseignements puissent être utilisés à des fins autres que celles pour lesquelles ils ont été recueillis24.

L'UE et des organismes de réglementation internationaux s'intéressent activement à l'IA. Non seulement ils reconnaissent ses avantages, ils se préoccupent également des risques potentiels et des conséquences néfastes25. Le Parlement européen a adopté le Règlement général sur la protection des données (« RGPD »), qui met de l'avant une liste complète de règles destinées à protéger les données personnelles de tous les citoyens de l'UE contre l'accès ou l'utilisation non autorisés26 à ces dernières. En vertu du RGPD, les entreprises qui recueillent des données auprès des citoyens doivent indiquer de façon claire et brève comment elles les recueillent et les utilisent, les raisons pour lesquelles elles sont recueillies et si elles seront utilisées pour établir le profil des citoyens, soit leurs actions et habitudes27. En d'autres mots, les entreprises et organisations doivent faire preuve de transparence quant au type de renseignements recueillis sur les consommateurs et leur usage. Cependant, les opposants à ces pratiques soutiennent que le RGPD pourrait entraver le travail des experts qui cherchent à développer de nouveaux algorithmes complexes et hautement techniques28.

Contrairement à l'UE, les législateurs fédéraux américains n'ont pas encore réglementé l'utilisation des renseignements personnels alors que la course mondiale à l'IA bat son plein29. Conscientes que la réglementation des données est inévitable, de grandes sociétés américaines comme Apple, favorisent l'adoption d'une telle réglementation aux États-Unis30. Le 18 janvier 2019, Accenture a d'ailleurs publié un rapport offrant un cadre visant à aider les organismes fédéraux américains à évaluer, déployer et surveiller les systèmes d'IA31.

Le Canada n'a pas encore adopté de réglementation s'apparentant au RGPD. Toutefois, le nouveau règlement fédéral obligeant la notification des atteintes à la protection des données (entré en vigueur le 1er novembre 2018) a été rédigé de manière à s'harmoniser autant que possible aux exigences du RGPD32. Le Règlement sur les atteintes aux mesures de sécurité d'application de la LPRPDE, impose des obligations aux organisations en cas d'atteinte à la protection des données33. La LPRPDE définit comme suit l'« atteinte aux mesures de sécurité » : « [la] communication non autorisée ou perte de renseignements personnels, ou accès non autorisé à ceux-ci, par suite d'une atteinte aux mesures de sécurité d'une organisation »34. En cas d'atteinte aux mesures de sécurité, les organisations sont tenues de déclarer les atteintes au Commissariat à la protection de la vie privée du Canada, de tenir et maintenir un registre de chaque atteinte impliquant les renseignements personnels qu'ils contrôlent, et de remettre les registres associés à l'atteinte au Commissariat, sur demande35. Les organisations devront non seulement évaluer leur conformité avec la législation sur la protection des renseignements personnels, mais elles devront également s'assurer que leurs pratiques de traitement des données sont suffisamment sécuritaires pour empêcher les atteintes à la cybersécurité.

Contrats

abstract photo of digital mind

En raison de la nature même de l'IA, les personnes ou les entités ayant recours à des fournisseurs d'IA devraient songer à se prévaloir de certaines protections contractuelles à l'égard de ces derniers. Par le passé, les logiciels fonctionnaient comme on s'y attendait. Or, l'apprentissage machine n'est pas statique et évolue constamment. Comme le soulignent les chercheurs McAfee et Brynjolfsson, « les systèmes d'apprentissage machine améliorent leur performance à mesure qu'ils prennent de l'ampleur, qu'ils fonctionnent au moyen de matériel plus rapide et spécialisé, qu'ils accèdent à davantage de données et qu'on améliore leurs algorithmes »36. [traduction] Plus le volume de données traitées est élevé, plus les algorithmes parviennent facilement à repérer des schémas37.

Les parties peuvent envisager d'ajouter à leurs contrats des dispositions selon lesquelles la technologie doit fonctionner comme prévu, à défaut de quoi les conséquences indésirables seront traitées de la façon stipulée au contrat. Ces dispositions pourraient prévoir un droit d'audit quant aux algorithmes, des niveaux de service appropriés, une détermination de la propriété des améliorations créées par l'IA, ainsi que l'indemnisation en cas de mauvais fonctionnement. En matière de contrats régissant l'IA, les rédacteurs devront faire preuve de créativité et prévoir les avancées susceptibles d'être réalisées par l'apprentissage machine.

Droit de la responsabilité civile délictuelle

L'apprentissage machine ne cesse d'évoluer et des décisions de plus en plus complexes se prennent en fonction des données disponibles. Bien que la plupart des résultats soient prévisibles, il est fort à parier qu'un résultat inattendu ou fâcheux surviendra tôt ou tard en raison d'un manque de supervision humaine. La nature automatisée et artificielle de l'IA soulève donc de nouvelles questions en matière de responsabilité. Le droit de la responsabilité civile délictuelle est traditionnellement le mécanisme auquel on a recours pour traiter les changements de société, y compris les avancées technologiques. Ainsi, les tribunaux appliquent le cadre analytique établi sous le régime de la responsabilité délictuelle aux nouvelles réalités auxquelles ils sont confrontés.

On peut démarrer l'analyse de la responsabilité délictuelle en se posant les questions suivantes : À qui incombe la responsabilité? Qui est redevable? Dans le cas de l'IA, qui du programmeur, du développeur ou de l'utilisateur est responsable? Est-ce la technologie elle-même? Quels changements seront apportés à la norme de diligence ou aux règles relatives à la négligence en matière de conception?  Comme l'IA évolue et prend ses propres décisions, devrait-elle être considérée comme un mandataire du développeur et dans ce cas, le développeur est-il responsable du fait d'autrui, soit de la négligence découlant des décisions prises par l'IA?

La responsabilité délictuelle la plus commune est le délit de négligence. Il y a délit de négligence si une partie ayant une obligation de diligence envers une autre partie manque de diligence et ce, indépendamment du non-respect de la norme de diligence et de la présence de dommages. La prévisibilité raisonnable est une notion importante en ce qui concerne le délit de négligence. Pour vérifier s'il y a négligence, il faut se demander si une « personne raisonnable » peut prédire ou prévoir les conséquences générales de sa conduite, compte tenu des circonstances et de ses connaissances. Plus les systèmes d'IA s'éloignent des algorithmes et du codage traditionnels, plus ils peuvent avoir des comportements que leurs créateurs ne peuvent non seulement pas prévoir, mais qui sont totalement imprévisibles. S'il n'y a aucune prévisibilité, sommes-nous confrontés à une situation où personne ne peut être tenu responsable d'un résultat susceptible de nuire à autrui? Il est raisonnable de croire que nos tribunaux devront se pencher sur la question pour éviter que de telles situations se produisent.

En l'absence de prévisibilité, les tribunaux effectueront possiblement leur analyse en se fondant sur la responsabilité stricte plutôt que sur la négligence. Selon la responsabilité stricte aussi appelée la règle Rylands v. Fletcher, un défendeur sera déclaré responsable, même en l'absence d'un acte intentionnel ou de négligence de sa part, pourvu qu'il soit établi que ses agissements ont entraîné un préjudice au demandeur38.

Si l'analyse continue d'être fondée sur la négligence, l'obligation de diligence devra alors être redéfinie dans le contexte de l'IA. Certaines des questions suivantes seront au centre de la réflexion des tribunaux :

  1. Le processus de prise de décision est-il transparent, de manière à permettre au tribunal de déterminer la façon dont la « boîte noire » est parvenue au résultat obtenu?
  2. Quelles mesures ont été prises pour surveiller les résultats découlant de l'apprentissage machine?
  3. L'intégrité et la qualité des données étaient-elles appropriées pour l'objectif que l'on visait à atteindre à l'aide de ces données?
  4. Les données utilisées étaient-elles représentatives ou véhiculaient-elles plutôt des préjugés ou comportements discriminatoires ?
  5. L'algorithme a-t-il été conçu de façon à éviter les résultats non désirés?

À la lumière de ces réflexions, on peut s'attendre à une hausse du nombre de poursuites fondées sur la négligence contre des entreprises de développement de logiciels et des programmeurs.

La responsabilité du fait des produits est un autre volet du droit de la responsabilité délictuelle qui pourrait prendre une importance accrue si un système d'IA produisait des anomalies. En vertu de la common law, la responsabilité du fait des produits est axée sur la négligence dans la conception ou la fabrication ou le non-respect de l'obligation de mise en garde. Il s'agit généralement de la responsabilité d'une ou de plusieurs entités qui participent à la fabrication, à la vente ou à la distribution d'un produit39. Toutefois, pour que cette doctrine s'applique, le système d'IA doit être considéré comme un produit et non comme un service40. Il peut être difficile de localiser avec précision l'origine d'une anomalie dans la chaîne d'approvisionnement d'un produit d'IA, compte tenu de l'autonomie et de la nature évolutive de l'apprentissage machine et des algorithmes. Les analystes de l'industrie estiment que la responsabilité du fait des produits deviendra pertinente en ce qui concerne l'utilisation des véhicules autonomes, des robots et d'autres systèmes mobiles dotés d'IA41.

Préjugés et discrimination

Des sociétés comme Microsoft et Google reconnaissent que le fait d'offrir des solutions d'IA qui soulèvent des problèmes éthiques, technologiques et juridiques risque de porter atteinte à leur réputation42. Les problèmes découlant des préjugés ou de la discrimination sont de plus en plus prévalents, étant donné que de plus en plus d'entreprises et d'organismes gouvernementaux intègrent l'IA à leur processus décisionnel. Par exemple, une enquête menée en 2016 par ProPublica a révélé que dans le cadre de leur processus décisionnel en matière de cautionnement, un grand nombre de villes et d'États américains utilisaient un algorithme qui mettait en évidence un préjugé ethnique : les détenus noirs avaient deux fois plus de risques d'être considérés, à tort, comme potentiels récidivistes, par rapport aux détenus blancs43.

Pour atténuer les préjugés intégrés aux données recueillies et au processus décisionnel, de nombreuses entreprises ont mis au point des algorithmes capables de détecter les préjugés. Ainsi, la société Accenture a mis au point un outil qui permet aux entreprises de repérer et d'éliminer de leur logiciel d'IA les préjugés fondés sur le genre, la race et l'ethnie44. OpenScale d'IBM, par exemple, est une plateforme d'IA qui permet d'expliquer comment un système d'IA prend des décisions en temps réel afin d'assurer la transparence et la conformité, ce qui peut aussi être pertinent aux fins de la définition de l'obligation de diligence45. Toutefois, ces solutions n'élimineront pas nécessairement le problème. Selon un chercheur principal de Microsoft : « Si nous enseignons aux systèmes d'apprentissage machine à reproduire des décisions prises dans une société où règnent les préjugés, en utilisant des données produites par cette même société, alors ces systèmes reproduiront nécessairement ces préjugés.46 »

Pour toutes ces raisons, il est essentiel d'intégrer à nos systèmes d'IA des paramètres qui permettront de traiter le problème des préjugés. Réglementer l'IA ne sera pas une mince tâche : comme l'IA évolue constamment, toute réglementation en matière d'éthique doit évoluer parallèlement pour demeurer pertinente.

Conclusion

L'IA continuera à se développer et à perturber la société de mille et une façons encore inimaginables. Évoluer à la même vitesse que celle à laquelle les systèmes d'IA sont mis en œuvre représente un défi de taille. Récemment, un développeur comparait l'évolution de l'IA à une couche de beurre d'arachides que l'on peut étendre sur un grand nombre de domaines et de secteurs47. À mesure que le « beurre d'arachides est étalé » (et donc que l'IA se répand), les organisations doivent se préparer non seulement aux avancées positives, mais aussi aux conséquences involontaires et probablement nuisibles que peut engendrer cette technologie. Face à cette nouvelle réalité, impossible de prévoir comment évoluera la réglementation, mais il est grand temps de s'atteler à anticiper les conséquences possibles découlant de l'utilisation de l'IA.


Sources

1. International Data Corporation. « Worldwide Spending on Artificial Intelligence Systems Will Grow to Nearly $35.8 Billion in 2019 ». New IDC Spending Guide.  (11 mars 2019). Sur Internet : https://www.idc.com/getdoc.jsp?containerId=prUS44911419

2. Ibid.

3. B.J. Copeland. « Artificial intelligence ». (17 août 2018). Encyclopedia Britannica. Sur Internet : https://www.britannica.com/technology/artificial-intelligence

4. Ibid.

5. Purdy, Mark et Paul Daugherty. « How AI boosts Industry Profits and Innovation ». (2017). Accenture. Sur Internet : https://www.accenture.com/ca-en/insight-ai-industry-growth

6. McAfee, Andrew et Erik Brynjolfsson. « Machine, Platform, Crowd: Harnessing Our Digital Future ». New York: W.W. Norton & Company. 2017, p. 34

7. John Murawski. « Need for AI Ethicists Becomes Clearer as Companies Admit Tech's Flaws ». (1er mars 2019). The Wall Street Journal. Sur Internet : https://www.wsj.com/articles/need-for-ai-ethicists-becomes-clearer-as-companies-admit-techs-flaws-11551436200

8. Chambre des communes du Royaume-Uni, Comité de la science et de la technologie. « Robotics and artificial intelligence ». (12 octobre 2016). Sur Internet : https://publications.parliament.uk/pa/cm201617/cmselect/cmsctech/145/145.pdf

9. Commission européenne. « Have your say: European expert group seeks feedback on draft ethics guidelines for trustworthy artificial intelligence »). (18 décembre 2018). Sur Internet : https://ec.europa.eu/digital-single-market/en/news/have-your-say-european-expert-group-seeks-feedback-draft-ethics-guidelines-trustworthy

10. Groupe d'experts de haut niveau sur l'intelligence artificielle. « Draft Ethics Guidelines for Trustworthy AI  ». Document de travail pour consultation par les intervenants (18 décembre 2018). Commission européenne. Sur Internet : https://ec.europa.eu/digital-single-market/en/news/draft-ethics-guidelines-trustworthy-ai. À la page 17, la robustesse est définie ainsi : « Pour gagner notre confiance, l'IA doit être basée sur des algorithmes sûrs, fiables et suffisamment robustes pour éliminer les erreurs et les incohérences pendant les phases de conception, de développement, d'exécution, de déploiement et d'utilisation du système. De plus, l'IA doit pouvoir réagir adéquatement si le résultat est erroné. »

11. Ibid.

12. Gouvernement du Canada. « Utilisation responsable de l'intelligence artificielle (IA) ». (5 mars 2019). Sur Internet : https://www.canada.ca/fr/gouvernement/systeme/gouvernement-numerique/technologiques-modernes-nouveaux/utilisation-responsable-ai.html

13. Gouvernement du Canada, « Directive sur la prise de décision automatisée ».

14. Cybergenetics. « Seattle judge rules on TrueAllele admissibility and source code ». (12 janvier 2017). Sur Internet : https://www.cybgen.com/information/newsroom/2017/jan/Seattle-judge-rules-on-TrueAllele-admissibility-and-source-code.shtml

15. Ibid.

16. Harvard Law Review. « State v Loomis: Wisconsin Supreme Court Requires Warning Before Use of Algorithmic Risk Assessments in Sentencing ». (2017) 130 Harv L Rev 1530. Sur Internet : https://harvardlawreview.org/2017/03/state-v-loomis/

17. Chris Hannay. « Artist faces lawsuit over computer system that creates randomly generated images ». (4 octobre 2018). The Globe and Mail. Sur Internet : https://www.theglobeandmail.com/arts/art-and-architecture/article-artist-faces-lawsuit-over-computer-system-that-creates-randomly/

18. Ibid.

19. Ibid.

20. Ibid.

21. Patrick Gillespie. « When AI writes the Court Ruling ». (29 octobre 2018). Bloomberg Businessweek.

22. Ibid.

23. Ibid.

24. Mader Patrick, Christian B. Westermann et Karin Tremp. « Analytics in Insurance: Balancing Innovation and Customers' Trust ». (Février 2018), PWC, p.13. Sur Internet : https://www.pwc.ch/de/press-room/expert-articles/pwc_press_20180709_hsgtrendmonitor_maeder_westermann_tremp.pdf

25. Deloitte. « AI and risk management ». (2018); p. 1. Sur Internet : https://www2.deloitte.com/content/dam/Deloitte/global/Documents/Financial-Services/deloitte-gx-ai-and-risk-management.pdf

26. Tech Pro Research. « EU General Data Protection Regulation (GDPR) policy ». (Février 2018). Sur Internet : http://www.techproresearch.com/downloads/eu-general-data-protection-regulation-gdpr-policy/

27. Nitasha Tiku. « Europe's New Privacy Law will change the Web, and More ». (19 mars 2018). Wired. Sur Internet : https://www.wired.com/story/europes-new-privacy-law-will-change-the-web-and-more/

28. Silla Brush. « EU's Data Privacy Law Places AI Use in Insurance Under Closer Scrutiny ». (22 mai 2018). The Insurance Journal. Sur Internet : https://www.insurancejournal.com/news/international/2018/05/22/489995.htm

29. John Murawski. « U.S. Push for AI Supremacy Will Drive Demand for Accountability, Trust ». (20 mars 2019), The Wall Street Journal. Sur Internet : https://www.wsj.com/articles/u-s-push-for-ai-supremacy-will-drive-demand-for-accountability-trust-11553074200

30. Allen, Mike et Ina Fried. « Apple CEO Tim Cook calls new regulations 'inevitable' ». (18 novembre 2018). Axios. Sur Internet : https://www.axios.com/axios-on-hbo-tim-cook-interview-apple-regulation-6a35ff64-75a3-4e91-986c-f281c0615ac2.html

31. Accenture. « Responsible AI for federal agencies ». (18 janvier 2018). Sur Internet : https://www.accenture.com/us-en/insights/us-federal-government/responsible-ai-federal-agencies

32. Gouvernement du Canada. « Règlement sur les atteintes aux mesures de sécurité : DORS/2018-64. » (27 mars 2018). Sur Internet : http://gazette.gc.ca/rp-pr/p2/2018/2018-04-18/html/sor-dors64-fra.html

33. Josh O'Kane. « Federal government debuts data-breach reporting rules ». (18 avril 2018), The Globe and Mail. Sur Internet : https://www.theglobeandmail.com/business/article-federal-government-debuts-data-breach-reporting-rules/

34. Loi sur la protection des renseignements personnels et les documents électroniques, L. C. 2000, ch. 5, art. 2(1).

35. Gouvernement du Canada. « Ce que vous devez savoir sur la déclaration obligatoire des atteintes aux mesures de sécurité ». (29 octobre 2018). Sur Internet : https://www.priv.gc.ca/fr/sujets-lies-a-la-protection-de-la-vie-privee/atteintes-a-la-vie-privee/comment-reagir-a-une-atteinte-a-la-vie-privee-dans-votre-entreprise/gd_pb_201810/

36. McAfee et Brynjolfsson, supra, note 6 p. 85.

37. David Meyer. « A strict regulatory regime may promote public confidence in the use of technology but it might also be seen as an impediment to innovation and progress ». (25 mai 2018). Fortune. Sur Internet : http://fortune.com/2018/05/25/ai-machine-learning-privacy-gdpr/

38. Canadien Encyclopedic Digest, 4e édition (sur Internet). « Torts, Principles of Liability: Standard of Liability: Strict Liability ». (II.1.(c)) par. 18

39. Woodrow Barfield. « Liability for autonomous and artificially intelligent robots ». (2018) De Gruyter, vol. 9, p. 193 à 196. Sur Internet : https://www.degruyter.com/downloadpdf/j/pjbr.2018.9.issue-1/pjbr-2018-0018/pjbr-2018-0018.pdf

40. Ibid, p. 197.

41. Richard Kemp. « Legal Aspects of Artificial Intelligence (v2.0) ». (Septembre 2018). Kemp It Law, p. 31. Sur Internet : http://www.kempitlaw.com/wp-content/uploads/2018/09/Legal-Aspects-of-AI-Kemp-IT-Law-v2.0-Sep-2018.pdf

42. Murawski, supra, note 7.

43. Jeremy Kahn. « Accenture Unveils Tool to Help Companies Insure Their AI Is Fair ». (13 juin 2018), Bloomberg. Sur Internet : https://www.bloomberg.com/news/articles/2018-06-13/accenture-unveils-tool-to-help-companies-insure-their-ai-is-fair

44. Ibid.

45. IBM. « IBM Watson Now Available Anywhere ». (12 février 2019). Sur Internet : https://newsroom.ibm.com/2019-02-12-IBM-Watson-Now-Available-Anywhere

46. Dave Gershgorn. « Microsoft warned investors that biased or flawed AI could hurt the company's image ». (5 février 2019), Quartz. Sur Internet : https://qz.com/1542377/microsoft-warned-investors-that-biased-or-flawed-ai-could-hurt-the-companys-image/

47. Spencer Bailey. « Designed by A.I.: Your Next Couch, Sweater, and Set of Golf Clubs ». (15 février 2019), Fortune. Sur Internet : http://fortune.com/2019/02/15/artificial-intelligence-ai-design/


CECI NE CONSTITUE PAS UN AVIS JURIDIQUE. L'information qui est présentée dans le site Web sous quelque forme que ce soit est fournie à titre informatif uniquement. Elle ne constitue pas un avis juridique et ne devrait pas être interprétée comme tel. Aucun utilisateur ne devrait prendre ou négliger de prendre des décisions en se fiant uniquement à ces renseignements, ni ignorer les conseils juridiques d'un professionnel ou tarder à consulter un professionnel sur la base de ce qu'il a lu dans ce site Web. Les professionnels de Gowling WLG seront heureux de discuter avec l'utilisateur des différentes options possibles concernant certaines questions juridiques précises.

Sujet(s) similaire(s)   Technologie