Grâce à ces règles, l’UE entend réconcilier éthique et technologie, comme le rappelle la présence même du mot ”éthique”, cité pas moins de 14 fois dans le “règlement (UE) 2024/1689 établissant des règles harmonisées sur l’intelligence artificielle”.
Loin de limiter l’IA, l’UE cherche davantage à la promouvoir afin d’asseoir sa souveraineté numérique, rassurer les citoyens européens ou encore garantir la sécurité juridique des entrepreneurs et investisseurs. Pour cela, elle entend faire de l’IA un outil respectant les droits fondamentaux des individus et mettant en avant ses valeurs et principes (transparence, responsabilité, confidentialité des données, non-discrimination et protection des droits humains).
L’un des piliers de cette législation est d’abord l’approche par les risques. Plutôt que d’interdire ou de tout autoriser, l’UE classe les technologies selon le danger qu’elles représentent pour les citoyens en quatre catégories principales : risque inacceptable, haut risque, risque limité et risque minimal ou nul. Les systèmes présentant un “risque inacceptable” sont interdits depuis le 2 février 2025 : notation sociale, exploitation de la vulnérabilité des personnes, identification biométrique à distance en temps réel dans des espaces publics, etc. Viennent ensuite les systèmes à “haut risque” ou “risque élevé”, ayant un impact significatif sur la santé, la sécurité ou les droits fondamentaux. Les domaines de l’éducation, de l’emploi, de la justice ou de la biométrie sont par exemple concernés.
En 2018, un rapport publié par l’agence de presse britannique Reuters révèle que l’algorithme de recrutement d’Amazon discrimine les candidatures féminines. Nourri par une décennie de données historiques marquées par une forte domination masculine, surtout dans les postes techniques, l’algorithme reproduit ces inégalités. En dévaluant systématiquement les candidatures contenant des termes associés aux femmes, comme des références à des écoles ou clubs féminins, l’outil favorise les hommes pour ces postes, reproduisant un véritable biais sexiste automatisé. Ce cas d’école démontre que l’IA, loin d’être neutre ou « féministe », tend à automatiser les inégalités historiques plutôt qu’à les corriger. Ce biais s’est également manifesté de manière flagrante dans le secteur financier. En 2019, l’algorithme de la Apple Card (géré par Goldman Sachs) a été accusé de sexisme après avoir accordé des limites de crédit nettement inférieures à des femmes, alors même qu’elles partageaient des comptes bancaires et des profils fiscaux identiques à ceux de leurs époux.
Pour remédier à ces risques de discrimination par l’IA, l’UE prévoit notamment la mise en place de “bacs à sable règlementaires”, un dispositif qui doit être appliqué le 2 août 2026 et qui permettra aux entreprises, en particulier les PME, de développer leurs projets tout en respectant les règles établies par l’UE. Grâce à cet outil de régulation, elles pourront tester des systèmes d’IA (souvent ceux classés à haut risque) dans un environnement sécurisé et supervisé par les régulateurs (comme la CNIL, Commission Nationale de l’Informatique et des Libertés, en France) avant leur mise sur le marché.
Les systèmes à risque limité ou spécifique doivent quant à eux informer les utilisateurs qu’ils interagissent avec une IA, comme pour les chatbots, tandis que les IA génératives doivent indiquer que le contenu est artificiel. L’article 50 de l’IA Act garantit ainsi la transparence vis-à-vis des citoyens en imposant le marquage des contenus générés par IA (comme les “deepfakes”). Enfin, les systèmes à risque minimal ou nul sont catégorisés comme ne présentant peu ou pas de risques.
Concernant la sécurité des données, l’UE protège aussi bien les citoyens que les créateurs européens (artistes, journalistes, éditeurs). En effet, au cours de ces dernières années, les affaires impliquant le vol d’identité, de voix ou d’image par l’IA sont légions. En septembre 2023 par exemple, la Authors Guild (le syndicat des auteurs américains) dépose une plainte collective contre OpenAI. Parmi les plaignants, on retrouve George R.R. Martin, John Grisham, ou encore Michael Connelly. Les auteurs démontrent que, si l’on demande à ChatGPT de rédiger un chapitre « à la manière de » George R.R. Martin pour la suite de Game of Thrones, l’IA utilise des points de l’intrigue très précis qui ne se trouvent que dans les livres sous copyright, et non dans des résumés publics. Aux États-Unis, OpenAI se défend en invoquant le « fair use » (“usage raisonnable”).
L’UE, qui a observé ce procès de près, a décidé d’agir en réaction. L‘article 11 impose une documentation technique rigoureuse, tandis que l’article 53 oblige les fournisseurs de modèles d’IA à usage général à publier un résumé détaillé des contenus utilisés et à respecter le droit d’auteur européen. À l’heure où l’un des plus grands défis de l’IA moderne (notamment les IA génératives comme GPT-4, Claude ou Gemini) est l’opacité des données d’entraînement, l’UE se devait de compléter le RGPD (Règlement Général sur la Protection des Données), cadre juridique de référence en Europe pour la protection des données personnelles, entré en application en 2018. Du côté du respect de la vie privée, l’article 5 dispose que l’utilisation de systèmes d’identification biométrique à distance « en temps réel » dans des espaces accessibles au public à des fins de répression est interdite, car jugée intrusive pour la vie privée.
Enfin, le concept de “human-in-the-loop” (“l’humain dans la boucle”), détaillé dans l’article 14 intitulé “Surveillance humaine”, est un des piliers éthiques majeurs de l’IA Act. L’UE impose que les systèmes à haut risque soient surveillés tout au long de leur utilisation par des personnes physiques capables d’intervenir, tout comme elle rend obligatoire la prévision d’une supervision humaine pour éviter que des décisions importantes soient prises uniquement par des machines. En somme, l’UE ne cherche pas à freiner l’intelligence artificielle mais à lui imposer un cadre juridique stable afin d’éviter toute incertitude quant à son utilisation, plus que jamais susceptible de générer de nombreux litiges. Le défi est désormais de taille : l’UE doit réussir à faire appliquer ces règles face aux géants mondiaux tout en veillant à ce que cette exigence éthique devienne un moteur d’innovation plutôt qu’un frein pour ses propres entreprises.