Le Règlement européen sur l'intelligence artificielle : publics concernés, dates clés, conséquences pour les entreprises
Le 1ᵉʳ août 2024, le règlement européen sur l'intelligence artificielle (IA) est entré en vigueur. Ce règlement vise à garantir que le développement et l'utilisation des produits et productions de l'IA respectent les droits fondamentaux et les valeurs européennes.
![Smartphone utilisant une intelligence artificielle](/files/styles/ds_image_paragraphe/public/files/Actualites/2025/IA%20-%20elenaleonova%20-%20GettyImages-2043446013.jpg?itok=Rq_Hxore)
Adopté en mars 2024 et publié en juillet 2024, le règlement (UE) 2024/1689 établit un cadre harmonisé pour l’utilisation de l’intelligence artificielle (IA) au sein de l’Union Européenne.
La France voit dans ce règlement une opportunité de renforcer sa souveraineté numérique et stimuler l'innovation. L’État a d'ailleurs annoncé des investissements significatifs, incluant un fonds de 400 millions d'euros dans neuf IA clusters pour former des spécialistes et encourager l'innovation. L'IA est une priorité stratégique avec un objectif de former 100 000 personnes par an dans ce secteur.
Le règlement européen sur l'IA, qu'est-ce que c'est ?
Le règlement européen sur l’intelligence artificielle, également connu sous le nom d'AI Act, est le premier cadre législatif au monde qui encadre le développement, la mise sur le marché et l’utilisation des systèmes d’IA.
Ce texte établit des règles harmonisées dans l’ensemble de l’Union européenne pour garantir que les systèmes d'IA respecte les droits fondamentaux, les valeurs européennes et les exigences de sécurité. Il s’appuie sur une approche basée sur les risques, catégorisant les systèmes d’IA selon leur impact potentiel, de risque minimal à inacceptable. En plus de protéger les citoyens et de limiter les usages nuisibles, le règlement encourage l’innovation, notamment pour les petites et moyennes entreprises (PME), et vise à renforcer la confiance dans ces nouveaux systèmes en pleine expansion.
Quatre catégories de systèmes d’IA
Le règlement européen sur l’IA adopte une approche basée sur les risques pour classer les systèmes d’intelligence artificielle en quatre catégories principales :
Risque inacceptable - Ces systèmes sont strictement interdits : notation sociale, exploitation de la vulnérabilité des personnes, identification biométrique à distance en temps réel dans des espaces publics, etc.
Risque élevé - Les systèmes d’IA ayant un impact significatif sur la santé, la sécurité ou les droits fondamentaux : par exemple, dans les domaines de l’éducation, de l’emploi, de la justice ou de la biométrie.
Risque limité - Ces systèmes doivent informer les utilisateurs qu’ils interagissent avec une IA, comme pour les chatbots. Les IA génératives doivent indiquer que le contenu est artificiel.
Risque minimal ou nul - Les systèmes présentant peu ou pas de risques.
Le calendrier d’application du règlement européen sur l’IA (RIA)
1ᵉʳ août 2024 : Entrée en vigueur du règlement.
2 février 2025 : Interdiction des systèmes d’IA présentant des risques jugés inacceptables.
2 août 2025 : Mise en place des règles pour les modèles d’IA à usage général et désignation des autorités compétentes dans chaque État membre.
2 août 2026 : Application complète aux systèmes d'IA à haut risque déjà identifiés, tels que ceux utilisés dans la biométrie, les infrastructures critiques, l'éducation, l'emploi ou la justice. Cette date marque également la mise en place de bacs à sable réglementaires pour accompagner les entreprises.
2 août 2027 : Application aux systèmes d'IA à haut risque incorporés dans certains produits réglementés, comme les jouets, les dispositifs médicaux, les machines.
Qu'est-ce qu'un bac à sable règlementaire ?
Un bac à sable réglementaire est un cadre contrôlé où des entreprises innovantes peuvent tester leurs produits ou services y compris en conditions réelles, sous la supervision d'un régulateur et avec une souplesse temporaire des règles. Cela favorise l'innovation, permet d'évaluer les risques et aide à adapter la réglementation.
Ce dispositif permet aux entreprises, en particulier les PME, de développer leurs projets tout en respectant les règles.
Quelles sont les règles introduites par le règlement européen sur l’IA ?
Le règlement européen sur l’intelligence artificielle fixe des règles claires pour encadrer l’utilisation des systèmes d’IA afin que leurs productions soient sûres, éthique et respectueuses des droits fondamentaux.
Les pratiques inacceptables sont strictement interdites
Il prohibe la notation sociale par les autorités publiques. L’identification biométrique à distance en temps réel dans les lieux publics est également interdite, sauf dans des cas exceptionnels, comme les enquêtes pour des infractions graves. L'exploitation de la vulnérabilité des personnes (enfants, populations fragiles), pour influencer leur comportement de manière nuisible, est proscrite. Enfin, les pratiques manipulatrices visant à tromper les utilisateurs à leur insu sont également interdites.
Les systèmes d’IA à haut risque doivent être surveillés
Pour les systèmes considérés comme présentant un risque élevé, comme ceux utilisés dans la biométrie, l’éducation ou l’accès à l’emploi, des exigences strictes sont imposées. Ces systèmes doivent être rigoureusement testés avant leur mise sur le marché et surveillés tout au long de leur utilisation. Il est également obligatoire de prévoir une supervision humaine pour éviter que des décisions importantes soient prises uniquement par des machines.
Les systèmes d'IA doivent être transparents
Le règlement met aussi l’accent sur la transparence. Les systèmes d’IA qui interagissent directement avec des utilisateurs, comme les chatbots ou les outils génératifs (capables de créer des images ou des vidéos), doivent signaler clairement que le contenu produit est issu d’une IA. Cela permet aux utilisateurs de savoir avec quoi ils interagissent.
Des bacs à sable réglementaires en soutien à l'innovation
Des mesures sont prévues pour soutenir l’innovation, notamment à travers des espaces de test encadrés appelés « bacs à sable réglementaires ».
Les systèmes d’intelligence artificielle, considérés comme présentant un risque minimal ou nul, ne sont soumis à aucune obligation particulière au titre du règlement.
Qui est concerné par l'IA Act ?
Le règlement sur l'IA concerne toute organisation, qu'elle soit une entreprise, une association ou une administration, qui fournit, importe, distribue ou déploie des systèmes ou modèles d'intelligence artificielle généraux.
Cela inclut les entités établies dans l'Union européenne (UE), ainsi que celles situées en dehors de l'Union, dès lors que leurs produits sont utilisés ou distribués dans l'UE.
Les acteurs particulièrement concernés sont ceux qui fournissent des systèmes d'IA dits « à haut risque » dans l'UE.
Ce que le règlement européen sur l'IA change pour les entreprises
Le règlement européen sur l'intelligence artificielle aura un impact non négligeable pour les entreprises, en particulier celles qui développent ou déploient des systèmes d'IA qui seront classés comme étant à haut risque.
Avant de pouvoir commercialiser ces systèmes, les fournisseurs devront obtenir un marquage CE et s'inscrire dans la base de données de l'Union européenne (base de données contenant des informations sur les systèmes d'IA à haut risque).
Elles devront également mettre en place un système de gestion des risques et garantir la gouvernance des données pour s'assurer que celles-ci ne sont pas biaisées.
Une documentation technique complète sera nécessaire, de même qu'un système de gestion de la qualité pour assurer la conformité à toutes les étapes du cycle de vie du produit, y compris la surveillance après sa commercialisation.
Les entreprises devront distinguer les obligations liées à la transparence des exigences spécifiques aux systèmes d'IA à haut risque, ces dernières ne s'appliquant pas systématiquement. Le contrôle humain sur les décisions prises par l'IA sera de la responsabilité du déployeur, tandis que le fournisseur devra garantir, dès la conception du système, que ce contrôle humain est réalisable. Les obligations liées à la rédaction d’une déclaration de conformité, à la traçabilité et à la transparence relèvent principalement de la responsabilité du fournisseur.
Enfin, elles devront veiller à la robustesse, l'exactitude et la cybersécurité des systèmes d’IA à haut risque qu’elles fournissent.
Le règlement européen sur l'IA et la DGE
La DGE a activement participé aux négociations pour élaborer un cadre réglementaire équilibré. Elle représente à présent la France au sein du Comité IA, organe de gouvernance du règlement des États membres.
Parallèlement, la DGE travaille à l'adaptation du texte en droit français et mène des actions de sensibilisation et d'accompagnement de l'écosystème IA pour faciliter la mise en conformité des entreprises avec le règlement.
Ceci pourrait vous intéresser
IA au service de l'efficience / « AI for Efficiency » : les lauréats de l'AMI en détail
Près de 600 organismes ont répondu à l'appel à manifestation d'intérêt IA au service de l'efficience. Les répondants ont partagé des retours d'expérience concrets sur l'adoption de l'IA. Ils permetten...
11 février 2025
La France et l’IA : bilan et perspectives
Depuis 2018, la France a misé sur une stratégie ambitieuse pour devenir un leader mondial de l’intelligence artificielle. En combinant innovation, investissement et attractivité, elle poursuit son eng...
07 février 2025
![Une femme devant des ordinateurs mentionnant l'usage de l'intelligence artificielle](/files/styles/ds_cartes_image_illustrative/public/files/Actualites/2025/IA%20-%20MTStock%20Studio%20-%20GettyImages-2151904577.jpg?h=b828e062&itok=GvTYjAKr)
Lancement du programme IA Booster France 2030
Dans le cadre de la Stratégie d'accélération en intelligence artificielle (SAIA) du plan France 2030, la Direction générale des Entreprises et le Secrétariat général pour l’investissement lancent le P...
16 juin 2023