Le Parlement européen planche sur la première législation autour de l’IA

Actuellement étudié par le Parlement européen, un texte de loi sur l'intelligence artificielle devrait, dès cette fin d'année, doter l'UE de la première régulation mondiale dans le domaine. 

 

 

  • Temps de lecture: 2 min
IA regulation

L’aboutissement de 2 ans de travail. Lors de la prochaine session plénière, qui se tiendra du 12 au 15 juin 2023, les parlementaires européens devront s’arrêter sur un texte visant à réglementer les systèmes d’intelligences artificielles. À travers cette législation, le Parlement souhaite notamment assurer certains critères : les intelligences artificiels (IA) au sein de l’UE devront être sûres, transparentes, traçables, non discriminatoires et respectueuses de l’environnement. Il s’agit également d’établir une définition unique et pérenne dans le temps de l’IA. Une fois voté, le texte devra encore être étudié par les ministres du Conseil de l’UE. « L’objectif est de parvenir à un accord définitif d’ici la fin de l’année », lit-on sur le site du Parlement européen.  

Basé sur le cadre réglementaire proposé par la Commission en avril 2021, le texte prévoit des règles différentes en fonction du niveau de danger que constitue chaque système d’IA. Au nombre de 4, ces degrés incluent les risques inacceptables, élevés, limités et les IA génératives comme ChatGPT.  

Les IA génératrices d’un score social seront proscrites 

Sont considérés comme porteurs d’un risque inacceptable, les systèmes qui constituent une menace pour les utilisateurs. On retrouve dans cette catégorie, celles qui permettent « la manipulation cognitivo-comportementale de personnes ou de groupes vulnérables », précise de site institutionnel. C’est notamment le cas d’appareils qui pourraient encourager les enfants à des comportements dangereux. Au même titre, les intelligences artificielles dont l’objet sera la production d’un score social seront proscrites. Enfin, la loi prévoit aussi d’interdire les systèmes de reconnaissance faciale ou autre moyen d’identification biométrique en temps réel. Sur ce dernier point, les parlementaires prévoient tout de même quelques exceptions, notamment après l’approbation d’un tribunal à la suite d’un crime grave.  

Pour les IA dont le risque est considéré comme élevé, c’est-à-dire celles qui auraient un impact négatif sur la sécurité ou les droits fondamentaux, le parlement prévoit deux cas de figure. Certains systèmes relèvent déjà de la législation de l’UE sur la sécurité des produits, ce qui est notamment le cas des voitures, des dispositifs médicaux, des jouets, de l’aviation et des ascenseurs. Les intelligences artificielles n’intégrant pas ces domaines seront référencées sur des bases de données spécifiques créées par l’Union européenne. À noter que ces systèmes « à risque » seront évalués avant leur mise à disposition sur le marché, puis régulièrement tout au long de leur cycle de vie.  

Permettre aux utilisateurs une prise de décision éclairée 

Quand les programmes ne représentent pas de danger majeur pour les utilisateurs, la loi se veut plus souple. Les intelligences artificielles génératives, c’est-à-dire capables de créer du contenu original (texte, image, son), devront gagner en transparence. À ce titre, une mention spécifiant de l’utilisation de l’IA devrait rapidement faire son apparition. Les créateurs de ces programmes devront également faire en sorte qu’on ne puisse pas générer des contenus illégaux avec leurs outils et s’engager à respecter les principes du droit d’auteur.  

Les systèmes dont on considère le risque comme limité seront tenues de permettre aux utilisateurs une prise de décision éclairée en respectant les exigences de transparence.  Sont notamment concernées par cette catégorie, toutes les applications de Deepfake (transformations d’images, de vidéos ou d’audio).  

Martin Ferron
Martin Ferron Rédacteur Web