Nouvelles règles et actions pour l’excellence et la confiance en l’IA

Face au développement technologique rapide de l’intelligence artificielle (IA) et à un contexte politique mondial où de plus en plus de pays investissent massivement dans l’IA, l’Union européenne (UE) a présenté le 21 avril 2021, à la fois une proposition de règlement pour établir un cadre réglementaire sur l’IA (Artificial Intelligence Act) (COM(2021) 206 final), ainsi qu’un nouveau plan coordonné avec les États membres (COM(2021) 205 final). La Commission ambitionne ainsi de faire de l’Europe le pôle mondial d’une IA digne de confiance. L’objectif est de promouvoir le développement de l’IA tout en faisant face aux risques potentiels élevés qu’elle représente pour la sécurité et les droits fondamentaux des citoyens. Il s’agit aussi d’encourager l’adoption de l’IA et de renforcer les investissements et l’innovation dans l’ensemble de l’UE.

 

La proposition de règlement donne une définition large du système d’IA. Sont concernées : les approches d’apprentissage automatique, y compris l’apprentissage supervisé, non supervisé et par renforcement, en utilisant une grande variété de méthodes, y compris l’apprentissage profond ; les approches basées sur la logique et les connaissances, y compris la représentation des connaissances, la programmation inductive (logique), les bases de connaissances, les moteurs d’inférence et déductifs, le raisonnement (symbolique) et les systèmes experts ; les approches statistiques, estimation bayésienne, méthodes de recherche et d’optimisation. Ces techniques et approches sont capables, pour un ensemble donné d’objectifs définis par l’homme, de générer des résultats tels que du contenu, des prédictions, des recommandations ou des décisions influençant les environnements avec lesquels ils interagissent.

 

La proposition prévoit des règles qui se veulent proportionnées et souples pour faire face aux risques spécifiques liés aux systèmes d’IA. Les dispositions suivent une approche fondée sur les risques en mettant l’accent sur les risques inacceptables et les risques élevés. La présence de risques inacceptables conduit à interdire les systèmes d’IA considérés comme une menace évidente pour la sécurité, les moyens de subsistance et les droits des personnes. Tel est le cas des systèmes ou applications d’IA qui manipulent le comportement humain pour priver les utilisateurs de leur libre arbitre (par exemple, des jouets utilisant une assistance vocale incitant des mineurs à avoir un comportement dangereux) ; les systèmes qui exploitent les vulnérabilités d’un groupe spécifique de personnes en raison de leur âge ou de leur handicap physique ou mental, afin de déformer matériellement le comportement d’une personne : les systèmes qui permettent la notation sociale par les États (social scoring) ; les systèmes d’identification biométrique à distance fondés sur l’IA et utilisés temps réel dans l’espace public aux fins du maintien de l’ordre. Cette dernière interdiction reçoit toutefois des exceptions restreintes qui sont strictement définies et réglementées (par exemple, lorsque cela est strictement nécessaire pour rechercher un enfant disparu, prévenir une menace terroriste spécifique et imminente ou détecter, localiser, identifier ou poursuivre l’auteur ou le suspect d’une infraction pénale grave). L’utilisation de ces systèmes doit alors être autorisée par une instance judiciaire ou un autre organe indépendant et est soumise à des limitations appropriées concernant la durée, la portée géographique et les bases de données consultées.

Parmi les systèmes d’IA considérés comme à haut risque, on peut citer:

  • les technologies d’IA qui sont utilisées dans les infrastructures critiques (par exemple les transports) et sont susceptibles de mettre en danger la vie et la santé des citoyens;
  • les technologies d’IA utilisées dans l’éducation ou la formation professionnelle, qui peuvent déterminer l’accès à l’éducation et le parcours professionnel d’une personne (par exemple, la notation d’épreuves d’examens);
  • les technologies d’IA utilisées dans les composants de sécurité des produits (par exemple, l’application de l’IA dans la chirurgie assistée par robot);
  • les technologies d’IA utilisées dans le domaine de l’emploi, de la gestion de la main d’œuvre et de l’accès à l’emploi indépendant (par exemple, les logiciels de tri des CV pour les procédures de recrutement);
  • les technologies d’IA utilisées dans les services privés et publics essentiels (par exemple, l’évaluation du risque de crédit, qui prive certains citoyens de la possibilité d’obtenir un prêt);
  • les technologies d’IA utilisées dans le domaine du maintien de l’ordre, qui sont susceptibles d’interférer avec les droits fondamentaux des personnes (par exemple, la vérification de la fiabilité des éléments de preuve);
  • les technologies d’IA utilisées dans le domaine de la gestion de la migration, de l’asile et des contrôles aux frontières (par exemple, la vérification de l’authenticité des documents de voyage);
  • les technologies d’IA utilisées dans les domaines de l’administration de la justice et des processus démocratiques (par exemple, l’application de la loi à un ensemble concret de faits).

Les systèmes d’IA à haut risque devront être conformes à des obligations strictes pour pouvoir être mis sur le marché:

  • systèmes adéquats d’évaluation et d’atténuation des risques;
  • qualité élevée des ensembles de données alimentant le système afin de réduire au minimum les risques et les résultats ayant un effet discriminatoire;
  • enregistrement des activités afin de garantir la traçabilité des résultats;
  • documentation détaillée fournissant toutes les informations nécessaires sur le système et sur sa finalité pour permettre aux autorités d’évaluer sa conformité;
  • informations claires et adéquates à l’intention de l’utilisateur;
  • contrôle humain approprié pour réduire au minimum les risques;
  • niveau élevé de robustesse, de sécurité et d’exactitude.

Les systèmes à risque limité sont les systèmes d’IA auxquels s’appliquent des obligations spécifiques en matière de transparence : lorsqu’ils utilisent des systèmes d’IA tels que des chatbots, les utilisateurs doivent savoir qu’ils interagissent avec une machine afin de pouvoir décider en connaissance de cause de poursuivre ou non. la proposition prévoit des codes de conduite facultatifs pour les systèmes d’IA ne présentant pas de risque élevé.

En outre, la Commission veut aussi encourager l’innovation ainsi que des «bacs à sable réglementaires» afin de faciliter l’innovation responsable.

Enfin, en ce qui concerne la gouvernance, la Commission propose que les autorités nationales compétentes de surveillance du marché veillent au respect des nouvelles règles dont la mise en œuvre sera facilitée par la création d’un comité européen de l’intelligence artificielle qui sera également chargé de stimuler l’élaboration de normes pour l’IA.

 

Ce contenu a été mis à jour le 21 octobre 2022 à 22 h 17 min.