Le RIA (Règlement sur l'Intelligence Artificielle), également connu sous le nom d'AI Act, est le premier cadre juridique mondial spécifiquement consacré à la régulation de l'intelligence artificielle qui aborde les risques associés à l'IA.
L'objectif principal de cette législation est de promouvoir une IA digne de confiance, en garantissant que les systèmes d'IA respectent les droits fondamentaux, la sécurité et les principes éthiques.
Le RIA propose une approche fondée sur les risques en classant les systèmes d'IA en quatre niveaux :
Risque inacceptable : le RIA interdit un ensemble limité de pratiques contraires aux valeurs de l'Union européenne et aux droits fondamentaux.
(Notation sociale, le recours à des techniques subliminales, l’exploitation de la vulnérabilité des personnes, reconnaissance des émotions sur le lieu de travail et dans les établissements d'enseignement...)
Haut risque : le RIA définit les systèmes d'IA comme étant à haut risque lorsqu'ils peuvent porter atteinte à la sécurité des personnes ou à leurs droits fondamentaux.
(Transports utilisant l'IA pouvant mettre en danger des vies, IA en chirurgie assistée par robot, logiciels de tri de CV...)
Risque spécifique en matière de transparence : le RIA soumet des systèmes d'IA à des obligations de transparence spécifiques, notamment en cas de risque manifeste de manipulation.
(exemple : les systèmes d'IA qui interagissent avec des humains comme des chatbots doivent informer les utilisateurs qu'ils communiquent avec une machine...)
Risque minimal : Pour tous les autres systèmes d'IA, le RIA ne prévoit pas d'obligation spécifique. Il s'agit-là de la très grande majorité des systèmes d'IA actuellement utilisés dans l'EU.
Modèles d'IA à usage général (notamment IA générative) : Le RIA encadre également les modèles d'IA à usage général comme les LLM. Pour ces modèles, plusieurs niveaux d'obligations sont imposés : Transparence, Documentation, Évaluation et Atténuation des risques systémiques.
En résumé :
L'AI Act représente une avancée majeure dans la régulation de l'intelligence artificielle en Europe, établissant un cadre clair pour garantir la sécurité, l'éthique et la transparence des systèmes d'IA. En classifiant les systèmes d'IA selon leur niveau de risque, cette législation offre une protection accrue aux utilisateurs tout en stimulant l'innovation et la confiance dans les technologies d'IA.
C'est à la fois un défi et une opportunité. Chez Spheris, nous vous accompagnons déjà pour intégrer les bonnes pratiques RGPD, c'est pour nous une nouvelle opportunité de démontrer notre engagement envers des pratiques responsables et transparentes en intégrant dès le début ces exigences réglementaires dans nos accompagnements et nos offres.
Vous souhaitez en savoir plus ? Contactez nous !
Comments