Le Parlement européen vient de donner son approbation au règlement destiné à encadrer les logiciels d’intelligence artificielle. Une norme qui instaure une interdiction d’utilisation des outils de notation sociale, d’identification des émotions, etc. L’entrée en vigueur de celle-ci engendrera différents chantiers pour les éditeurs d’outils d’IA déjà sur le marché. De plus, le texte aura un effet rétroactif.
Le Conseil européen examinera prochainement l’AI Act, que les eurodéputés ont approuvé le 13 mars 2024. Une fois validé, le règlement encadrant l’intelligence artificielle dans l’Union européenne entrera en vigueur après 20 jours.
Ce texte instaure une obligation pour certains outils d’IA déjà commercialisés de s’y conformer. Cet impératif concerne les solutions constituant les systèmes d’information européens comme l’Eurodac, le SI dédié aux visas, le SI Schengen… Il vaut également pour les SI sur les casiers judiciaires des apatrides et des ressortissants des pays tiers. Sans oublier le système européen d’autorisation et d’information relatif aux voyages ou de gestion des déplacements des ressortissants de pays tiers.
Mise en conformité des IA déjà sur le marché
Les éditeurs d’IA à usage général doivent se plier à l’AI Act, 3 ans au maximum après son entrée sur le marché. Cette règle s’applique aux fournisseurs dont le produit a été lancé depuis moins de 12 mois avant l’adoption du texte.
Chaque programme d’IA introduit sur le marché 3 ans avant la prise d’effet du texte doit également s’y aligner. Leurs éditeurs ont jusqu’au 31 décembre 2030 pour le faire. Le règlement s’applique en outre aux intelligences artificielles « à haut risque » déployées 2 ans avant l’adoption du texte. À condition cependant que leurs conceptions aient connu de gros ajustements dans cet intervalle. Ces systèmes doivent être mis à jour 6 ans après l’entrée en vigueur de l’AI Act s’ils sont destinés à des autorités publiques.
Ces différentes échéances pourraient créer des opportunités pour les consultants en portage salarial spécialisés en intelligence artificielle. À titre de remarque, ce dispositif se définit comme une forme d’emploi associant freelancing et salariat. Il permet par exemple aux travailleurs indépendants de profiter d’une assurance en cas de perte d’activité. Afin d’estimer le montant de celle-ci, l’on peut effectuer une simulation indemnité chômage.
Des sanctions pour les outils d’IA interdits
L’AI Act prévoit par ailleurs des sanctions en cas d’introduction d’outil d’intelligence artificielle prohibé sur le marché. Un tel acte est passible d’une amende de 7 % du chiffre d’affaires annuel ou de 35 millions d’euros. Sont à ce titre interdit, les outils d’identification biométrique à distance en temps réel dans les endroits publics à des fins répressives. Des exceptions sont néanmoins prévues pour les instruments :
- D’identification ou de localisation d’un individu qui pourrait commettre une infraction pénale passible d’une peine maximale de 4 ans ou plus ;
- De prévention d’une menace réelle et prévisible d’attaque terroriste ;
Une interdiction frappe également les IA vouées à jauger les risques qu’une personne transgresse la loi pénale. De même pour les programmes de notation sociale contribuant à un traitement défavorable ou préjudiciable :
« […] Dans des contextes sociaux dissociés du contexte dans lequel les données ont été générées ou collectées ».
L’interdiction s’applique également lorsque l’outil entraîne un traitement disproportionné ou injustifié au regard du comportement social.
La Commission européenne dispose du pouvoir de former un groupe d’experts indépendants pour appuyer le contrôle de l’application de l’AI Act. Ses membres ne seront rattachés à aucun éditeur d’outils ou de modèle d’IA à usage générale. Pour l’aide et les recommandations, les États membres peuvent être contraints à payer des honoraires.
Cet article vous a-t-il été utile ?
Note moyenne 0 / 5. Votants: 0