Accord sur l’AI Act – l’Union européenne aura sa loi sur l’intelligence artificielle

Accord sur l’AI Act – l’Union européenne aura sa loi sur l’intelligence artificielle

Un accord provisoire sur la première loi européenne sur l’intelligence artificielle (AI Act) a été trouvé entre le Parlement européen et le Conseil de l’Union européenne 8 décembre 2023 après près de 40h d’âpres négociations.

Pour rappel, la Commission européenne a publié en avril 2021 une proposition de règlementation européenne établissant des règles harmonisées concernant l’intelligence artificielle, aussi appelée « AI Act ». Dans cette proposition de règlement, la Commission élabore une approche de l’intelligence artificielle en fonction des niveaux de risque pour les utilisateurs, avec une interdiction des usages comportant un risque considéré comme inacceptable. Ainsi, plus le niveau de risque est élevé, plus le fournisseur du système d’intelligence artificielle doit respecter des obligations de transparence et de gouvernance.

 

Le règlement cible certains secteurs. Ainsi, l’usage d’intelligence artificielle dans l’éducation, la formation, l’emploi, les services essentiels et l’appareil répressif et judiciaire est considéré comme étant plus à risques.

 

Il s’agit notamment pour la Commission européenne de proposer « une approche réglementaire horizontale équilibrée et proportionnée de l’IA qui se limite aux exigences minimales nécessaires pour répondre aux risques et aux problèmes liés à l’IA, sans restreindre ou freiner indûment le développement technologique ni augmenter de manière disproportionnée les coûts de mise sur le marché de solutions d’IA ». Ainsi, l’AI Act doit permettre de protéger les droits fondamentaux des utilisateurs, sans pour autant imposer des règlementations s’appliquant à la technologie en tant que telle.

 

Très rapidement, de fortes oppositions entre les institutions européennes colégislatrices sont apparues autour de ce texte. Les divergences principales étaient les suivantes :

 

- Identification des usages présentant un niveau de risque inacceptable : le Parlement européen était favorable à une liste élargie de pratiques considérées comme interdites. Il visait notamment les logiciels de reconnaissance des émotions sur le lieu de travail, dans les lieux d’enseignement, chez les forces de l’ordre ou dans le contrôle de la migration. Les Etats, de leur côté, refusaient une interdiction pour les deux derniers cas. De la même manière, le Parlement européen voulait une interdiction des systèmes de police prédictive. La question du recours à l’identification biométrique à distance a également beaucoup animé les débats. Le Parlement européen plaidait en faveur d'une interdiction totale, hors cas d’affaires liées à des crimes graves, tandis que les Etats voulait plus de liberté dans l’usage de cette pratique.

 

-  Régulation des modèles de fondation, aussi appelés intelligence artificielle générative : Face à l’explosion de l’usage d’intelligences artificielles génératives comme le célèbre ChatGPT dans le courant de l’année 2022, le Parlement européen plaidait pour élargir le champ de l’AI Act en ajoutant une régulation s’appliquant spécifiquement à la technologie des modèles de fondation, peu importe le niveau de risque. En parallèle, certains Etats membres, dont l’Allemagne, la France et l’Italie, souhaitaient, pour leur part, que la règlementation se limite à un code de conduite à suivre par les entreprises, sans que des sanctions puissent être appliquées dans un premier temps. Ces Etats avançaient l’importance de laisser les entreprises s’autoréguler afin de ne pas porter préjudice à l’innovation et à la compétitivité européenne.

 

L’ accord interinstitutionnel du 8 décembre 2023 sur l’AI Act apporte les clarifications suivantes :

 

- Champ d’application du texte : l’AI Act n’a pas pour vocation à affecter les compétences des Etats membres en matière de sécurité nationale. De même, il ne s’appliquera pas aux systèmes utilisés à des fins militaires ou de défense ou encore à des fins de recherche. 

 

- Classification par niveau de risque et interdiction : de simples obligations de transparence sont imposées aux IA ayant un faible niveau de risque (par exemple, indiquer que le contenu a été généré par une IA). Les systèmes à haut niveau de risque devront s’acquitter d’obligations techniques supplémentaires pour pouvoir demeurer dans le marché européen. Par exemple, une évaluation d’impact sur les droits fondamentaux devra être réalisée avant la mise sur le marché d’une IA à haut risque. Les systèmes présentant un niveau de risque inacceptable sont bannis de l’Union européenne. Il s’agit par exemple des systèmes impliquant la manipulation cognitive de leur utilisateur, la collecte non-ciblée d’images de visages issus de publications sur internet ou d’images de vidéosurveillance afin de constituer des bases de données de reconnaissance faciale, les systèmes de reconnaissances des émotions sur le lieu de travail ou dans des établissements d’enseignement, des systèmes de notation sociale, etc.

 

- Exemptions pour les forces de l’ordre : afin de permettre aux forces de l’ordre d’utiliser certains systèmes d’IA dans le cadre de leur fonction des exemptions ont été mises en place. L’usage de la reconnaissance biométrique à distance en temps réel dans des lieux publics reste ainsi autorisé aux forces de l’ordre dans certains cas justifiés, par exemple pour la prévention d’attaques terroristes ou la recherche de personnes soupçonnés de crimes graves, après l’obtention d’une autorisation préalable et la réalisation d’une évaluation du risque sur les droits fondamentaux.

 

- Modèles de fondation : les modèles de fondation devront respecter des obligations de transparence spécifiques avant d’être placés sur le marché. Les modèles à fort impact entrainés sur un très grand volume de données et ayant des capacités et performances bien au-dessus de la moyenne seront soumis à un régime plus strict, comprenant notamment un suivi des risques systémiques, des dispositions relatives à la cybersécurité ou encore l'obligation de publier un rapport sur la consommation d'énergie des modèles d’IA en question. Les codes de conduite, voulus par la France, l’Italie et l’Allemagne, viendront en complément pour les fournisseurs de systèmes et modèles représentant des risques systémiques (définis en fonction de la quantité de calcul utilisé à l’entraînement) afin qu’ils puissent se conformer aux futures règles

 

- Gouvernance : Un Bureau européen de l’intelligence artificielle chargé de superviser la mise en œuvre de l’AI Act sera créé au sein de la Commission européenne. Il aura notamment la charge de surveiller les systèmes d’IA les plus avancés et d’élaborer des standards et des bonnes pratiques, avec l’assistance d’un panel scientifique constitué d’experts indépendants.

 

- Sanctions : la violation des règles de l’AI Act sera sanctionnée par une amende représentant un pourcentage du chiffre d’affaires annuel mondial de l’entreprise ou bien un montant prédéterminé selon une grille (par exemple 35 millions d'euros ou bien 7 % pour les violations concernant les applications d'IA interdites). Le montant le plus élevé des deux sera retenu.

 

Des travaux techniques devront encore avoir lieu afin de finaliser les détails de la nouvelle règlementation. Le texte devra ensuite être approuvé officiellement par le Parlement européen et par le Conseil de l’Union européenne et devrait entrer en application d’ici environ deux ans.

 

En plus d’être la première règlementation de l’intelligence artificielle au monde, ce texte crucial sera, selon les mots de Jean-Noël Barrot, ministre délégué au numérique « la régulation la plus contraignante au monde […en matière d’intelligence artificielle…] », faisant ainsi de l’Union européenne l’une des puissances mondiales les mieux équipées pour encadrer l’intelligence artificielle, anticiper ses évolutions et se prémunir de ses risques.

 

Plus d’info : auprès du Bureau de Bruxelles –Loeizig ANDRE – landre@remove-this.maregionsud.fr