Un cadre juridique novateur
Contexte et adoption
Le Règlement (UE) 2024/1689, connu sous le nom d’AI Act, a été proposé par la Commission européenne le 21 avril 2021. Il a été adopté par le Parlement européen le 13 mars 2024, puis approuvé par le Conseil de l’UE le 21 mai 2024. Le texte est entré en vigueur le 1er août 2024, avec une application progressive prévue entre 2025 et 2027, selon les catégories de risque des systèmes d’IA concernés.
Objectifs principaux
L’AI Act vise à :
- Harmoniser les règles sur l’IA au sein de l’UE.
- Protéger les droits fondamentaux des citoyens.
- Favoriser l’innovation en établissant des normes claires.
- Renforcer la confiance dans les technologies d’IA.
Inspiré du RGPD, ce règlement s’applique également aux fournisseurs et utilisateurs d’IA situés en dehors de l’UE si leurs systèmes sont utilisés au sein de l’Union.
Classification des systèmes d’IA par niveau de risque
Le règlement classe les systèmes d’IA en plusieurs catégories :
- Risque inacceptable : Systèmes interdits, tels que la surveillance biométrique en temps réel dans les espaces publics, le scoring social ou la manipulation comportementale.
- Risque élevé : Systèmes soumis à des obligations strictes, incluant des évaluations de conformité, une supervision humaine et une transparence accrue. Cela concerne, par exemple, les IA utilisées dans les domaines de la santé, de l’éducation, du recrutement ou de la justice.
- Risque limité : Systèmes soumis à des obligations de transparence, notamment l’information des utilisateurs lorsqu’ils interagissent avec une IA.
- Risque minimal : Systèmes non réglementés, tels que les filtres anti-spam ou les jeux vidéo.
- IA à usage général : Catégorie ajoutée en 2023, incluant les modèles de fondation comme ChatGPT. Ces systèmes sont soumis à des obligations de transparence, avec des exigences supplémentaires pour ceux présentant des risques systémiques.
Gouvernance et mise en œuvre
Pour assurer l’application du règlement, plusieurs structures ont été mises en place :
- Bureau de l’IA : Rattaché à la Commission européenne, il coordonne la mise en œuvre du règlement dans les États membres.
- Conseil européen de l’intelligence artificielle : Composé de représentants des États membres, il facilite l’application cohérente du règlement.
- Forum consultatif : Regroupe des parties prenantes (industrie, société civile, chercheurs) pour fournir des conseils techniques.
- Panel scientifique d’experts indépendants : Fournit des avis techniques et peut alerter sur les risques liés aux modèles d’IA à usage général.
Les États membres doivent également désigner des autorités nationales compétentes pour surveiller le marché et assurer la conformité des systèmes d’IA.
Calendrier d’application
L’application du règlement est échelonnée :
- 6 mois après l’entrée en vigueur : Interdiction des systèmes à risque inacceptable.
- 12 mois : Obligations pour les systèmes d’IA à usage général.
- 24 mois : Application générale du règlement.
- 36 mois : Obligations spécifiques pour certains systèmes à risque élevé.
Portée internationale et critiques
L’AI Act est la première législation mondiale complète sur l’IA, positionnant l’UE comme un leader en matière de régulation technologique. Cependant, des critiques ont émergé, notamment concernant la complexité du règlement et les défis pour les petites entreprises à s’y conformer. Des discussions sont en cours pour affiner certaines dispositions et assurer un équilibre entre innovation et protection des droits.
Sources :
- Wikipédia
- Vogue Business
0 commentaire