Article co-écrit par Mathilde Maheu-Savard.

En octobre dernier, le ministère de la Cybersécurité et du Numérique du gouvernement du Québec a publié un
Guide des bonnes pratiques d’utilisation de l’intelligence artificielle générative applicable aux outils d’intelligence artificielle générative externes par l’administration publique. Ce guide s’adresse principalement aux instances de gouvernance des organismes publics au sein de l’administration publique québécoise tout en constituant un signal intéressant pour tous les secteurs d’activités, y compris le secteur privé.

Comprendre l’IA générative

L’intelligence artificielle générative peut être définie comme une classe ou des types d’algorithmes issus de diverses branches, méthodes et techniques de l’IA telles que l’apprentissage machine, l’apprentissage profond, le traitement automatique du langage ou la vision par ordinateur, ayant des capacités de générer des données synthétiques, en texte, images, vidéos, musique et, etc.

Exploiter son potentiel

Ce guide met en lumière le large éventail d’applications de l’IA générative dans différents domaines d’activité. Elle peut être utilisée à presque toutes les étapes des processus d’un projet, de la planification à l’exécution. Toutefois, le ministère insiste sur le fait que l’IA ne remplace pas la réflexion humaine, mais vient compléter et soutenir la prise de décision.

Risques de son utilisation

Catégorie 1 : Risques pour le personnel du secteur public

  • Protection des données : Les renseignements personnels peuvent être stockés dans des systèmes et potentiellement accessibles par des utilisateurs non autorisés.
  • Biais : Il existe un risque de biais implicites ou explicites dans les modèles linguistiques de l’IA.
  • Inexactitude : Les informations générées par l’IA peuvent conduire à des erreurs ou des jugements erronés.
  • Hallucinations : L’IA générative peut produire des informations fausses ou incohérentes, compromettant ainsi la prise de décision.

Catégorie 2 : Risques liés à la cybercriminalité

  • Exploitation par les cybercriminels : L’IA peut être utilisée pour amplifier des campagnes de désinformation, mener des attaques d’hameçonnage plus sophistiquées ou faciliter la propagation de rançongiciels.
  • Exploitation des vulnérabilités : Les cybercriminels peuvent exploiter les failles de sécurité des systèmes d’IA, menaçant leur intégrité, confidentialité et disponibilité. Les attaques peuvent inclure l’empoisonnement des systèmes, l’extraction de données ou des violations par abus.

Ces risques peuvent affecter la perception publique du gouvernement et diminuer la confiance des citoyens envers les institutions publiques.

Recommandations pour une utilisation responsable de l’IA

Au niveau organisationnel :

  • Les organismes publics doivent suivre un ensemble de principes éthiques pour promouvoir une utilisation responsable de l’IA. Ces principes incluent la protection, la responsabilité, l’utilité, la diligence, la neutralité, la traçabilité et la gestion du changement.
  • Une approche prudente est essentielle, et les organismes doivent adapter ces principes en fonction de leur contexte spécifique.

Au niveau individuel :

  • Les employés du secteur public doivent éviter de divulguer des renseignements personnels, confidentiels ou sensibles lorsqu’ils utilisent des outils d’IA.
  • Le contenu généré par l’IA doit être scrupuleusement vérifié pour en évaluer l’exactitude et la conformité aux lois et directives existantes.
  • Toute publication de contenu erroné, trompeur ou diffamatoire doit être signalée immédiatement.
  • Il est recommandé d’utiliser uniquement des outils d’IA approuvés par l’organisme pour garantir la sécurité et la conformité.

En suivant ces recommandations, les organismes publics pourraient intégrer l’IA de manière responsable et sécurisée dans leurs processus de décision et d’administration publique.