CAN-ASC-6.2 : Systèmes d’intelligence artificielle accessibles et équitables

Numéro de référence:
CAN-ASC-6.2
Catégorie de norme:
Norme nationale du Canada - Norme canadienne
Type d’activité d’élaboration de normes:
Nouvelle norme
Code ICS:
03.100
35.020
35.040
35.080
35.100
35.240
Statut:
En cours d'élaboration
Date de début de la période de commentaires OEN:
Date de fin de la période de commentaires des OEN:
Affiché le:

Porté:

Champ d’application

L’objectif de la norme CAN-ASC-6.2 est d’élaborer une norme qui va au-delà des spécifications techniques minimales obligatoires et qui produit des exigences techniques fondées sur l’équité.

Il existe des domaines généraux où les personnes en situation de handicap peuvent être confrontées à des obstacles liés à l’accessibilité des systèmes d’intelligence artificielle. Ces domaines comprennent entre autres ceux présentés ci-dessous.

1. Systèmes d’intelligence artificielle accessibles

Les personnes en situation de handicap doivent être en mesure de participer à l’économie de l’intelligence artificielle. La norme exigera que les obstacles soient éliminés dans divers domaines. Elle visera entre autres les obstacles liés à la participation à la conception, au développement et à la mise en œuvre, à l’utilisation et à l’amélioration des systèmes d’intelligence artificielle. Elle inclut également les obstacles à l’évaluation (ou à l’obtention d’une évaluation par) de tels systèmes, y compris des outils connexes, notamment :

  • les outils de visualisation des données;
  • les outils de programmation et de codage;
  • les produits et les outils commercialisés qui comprennent des processus d’intelligence artificielle;
  • les systèmes de rétroaction des clients et les outils de vérification.

2. Systèmes d’intelligence artificielle équitables

La norme exigera le traitement équitable des personnes en situation de handicap par les systèmes d’intelligence artificielle. Elle fournira des orientations concernant l’élimination des biais à l’égard des personnes en situation de handicap tout au long des étapes du cycle de vie du déploiement du système d’intelligence artificielle; ces biais comprennent entre autres ceux que l’on trouve dans les données, l’étiquetage, la formation, les algorithmes, le déploiement et l’évaluation de l’intelligence artificielle et qui conduisent à un traitement inéquitable des personnes en situation de handicap.

Voici quelques‑uns des domaines dans lesquels la norme fournira des orientations se rapportant spécifiquement aux personnes en situation de handicap :

  • l’exactitude des renseignements, ceci inclue la mésinformation et la désinformation;
  • les biais, entre autres les biais statistiques;
  • l’équité dans les résultats et les processus;
  • la sécurité et la sûreté;
  • la protection des renseignements personnels, la surveillance et la protection contre le mauvais usage des données et les abus;
  • la transparence;
  • la responsabilisation;
  • la capacité d’action, le consentement éclairé et le choix dans l’application d’intelligence artificielle; 
  • le contrôle et le processus décisionnel par l’humain, et l’application du jugement humain dans le processus décisionnel;
  • les préjudices cumulés.

3. Processus pour la mise en œuvre de systèmes d’intelligence artificielle accessibles et équitables

La norme fournira des orientations concernant les processus organisationnels pour la mise en place de systèmes d’intelligence artificielle qui incluent les personnes en situation de handicap. Ces processus comptent :

  • la planification et la justification de l’utilisation de l’intelligence artificielle;
  • l’évaluation des répercussions;
  • la surveillance de l’éthique;
  • la conception, le développement, l’achat et/ou la personnalisation de systèmes d’intelligence artificielle;
  • la formation des utilisateurs et des opérateurs;
  • l’accès à des approches de rechange.

Cela comprend également des processus pour les mécanismes suivants :

  • la transparence, l’imputabilité et le consentement;
  • la rétroaction, les plaintes, la réparation (recours) et les appels;
  • l’examen, le perfectionnement et la finalisation.

Raison d’être du projet

Raison d’être du projet

L’organisation Normes d’accessibilité Canada a été créée en vertu de la Loi canadienne sur l’accessibilité. Son mandat est de prévenir, de cibler et d’éliminer les obstacles à l’accessibilité pour les Canadiens en situation de handicap. Dans le cadre de ce mandat, Normes d’accessibilité Canada élabore des normes fondées sur les besoins des personnes en situation de handicap. Ces besoins ont été déterminés lors de consultations avec des Canadiens en situation de handicap, y compris les membres du conseil d’administration nommés par le gouverneur en conseil, qui sont principalement des personnes en situation de handicap et qui ont approuvé l’élaboration de la présente norme.

En plus de ces besoins définis, les normes de Normes d’accessibilité Canada sont élaborées selon le principe « rien sans nous ». Cela signifie que les normes de Normes d’accessibilité Canada sont élaborées à partir de recherches menées par des personnes en situation de handicap ou ayant une expérience vécue, de la participation de personnes en situation de handicap à nos comités techniques, et qu’elles produisent des exigences fondées sur l’équité qui tiennent compte des besoins et des points de vue des personnes en situation de handicap. Cela signifie aussi que le processus d’examen public de cette norme sera accessible, ce qui permettra à un plus grand nombre de personnes en situation de handicap de prendre part au processus d’élaboration des normes.

Les personnes en situation de handicap vivent les extrêmes à la fois des possibilités et des risques liés au déploiement des systèmes d’intelligence artificielle. Elles doivent également faire face à des obstacles et à la discrimination dans tous les aspects de l’intelligence artificielle. Les outils qui permettent la participation dans l’industrie de l’intelligence artificielle ne sont pas accessibles à un grand nombre de personnes en situation de handicap. Les personnes en situation de handicap sont très différentes les unes des autres. Il en résulte que les données à leur sujet sont traitées comme s’il s’agissait de cas particuliers ou comme si elles étaient trop peu nombreuses; les systèmes d’intelligence artificielle ne comprennent pas ces données, les interprètent mal ou jugent qu’elles ne sont pas optimales. Les mesures de protection éthique actuelles de l’intelligence artificielle ne tiennent pas suffisamment compte des préjudices et des obstacles auxquels sont confrontées les personnes en situation de handicap. 

La norme proposée est requise pour s’assurer que les personnes en situation de handicap ne subissent aucun préjudice et qu’elles bénéficient d’une participation accessible et équitable dans les systèmes d’intelligence artificielle. La norme proposée viendra compléter et améliorer les orientations et directives générales à l’appui de l’adoption de pratiques éthiques dans la mise en œuvre de systèmes d’intelligence artificielle.

Note : L’information ci-dessus a été recueillie et est diffusée par le Conseil canadien des normes (CCN) pour les besoins de son système de notification centralisé et transparent pour l’élaboration de nouvelles normes. Le système permet aux organismes d’élaboration de normes (OEN) accrédités par le CCN et aux membres du public d’être informés des nouveaux travaux d’élaboration de normes au Canada. Il donne aussi aux OEN accrédités la possibilité de repérer et de résoudre les cas de doubles emplois éventuels dans les normes et les travaux de normalisation.

Les OEN sont eux-mêmes responsables du contenu et de l’exactitude de l’information présentée ici. Cette information n’existe que dans la langue dans laquelle elle a été fournie au CCN.