• Numérique

  • Intelligence artificielle

IA : les acteurs de la gouvernance

Différents acteurs, au niveau européen et international, interviennent dans la gouvernance de l'intelligence artificielle.

Publié le : 20 sep 2024
© Just_Super - Getty images

L’Union européenne

L’Union européenne s’est saisie des enjeux liés à l’intelligence artificielle afin d’établir un plan stratégique, traduit par le plan « AI for Europe » adopté en 2018 et par le Livre Blanc pour l’IA de la Commission européenne publié en 2020. Elle y souligne la nécessité de positionner l’UE comme un acteur mondial de premier plan en matière d’innovation dans l’économie fondée sur les données et dans ses implications. La technologie doit bénéficier à l’ensemble de la société et de l’économie, en se conformant aux autres objectifs européens (pacte vert, soutien du processus démocratique et des droits sociaux). La stratégie européenne est fondée sur deux piliers : l’excellence et la confiance.

L’IA Act, dont la proposition législative de la Commission européenne a été présentée en avril 2021, a pour objectif de veiller à ce que les systèmes d'IA utilisés dans l'UE soient sûrs, transparents, traçables, non discriminatoires et respectueux de l'environnement. Cette réglementation intervient en complément du soutien au développement de l'IA en Europe.

Le Partenariat mondial pour l’IA

D’initiative franco-canadienne, le Partenariat mondial pour l’IA (PMIA) a été créé en 2019. Il réunit 29 membres – 28 états et l’Union européenne – et prône, entre autres, une transformation numérique, ouverte, libre et sûre. Le PMIA est soutenu par deux centres d’expertise à Paris et à Montréal, et dispose d’un secrétariat à l’OCDE.

La stratégie du PMIA consiste à renforcer la coopération multiacteurs pour une IA reflétant les valeurs démocratiques et répondant aux défis mondiaux. Elle souligne la nécessaire utilisation responsable et centrée sur l’humain de l’intelligence artificielle, respectant les droits de l’homme et les libertés fondamentales.

Le G7

En réaction au sommet du G7 en mai 2023 sous la présidence japonaise, il a été décidé de lancer le « Hiroshima process » dans le but de définir les grands principes régissant l’usage de l’IA générative et plus largement des modèles d’IA avancés (frontier AI) par ses développeurs. Piloté par les Japonais, le « Hiroshima process » regroupe plusieurs groupes de travail créés spécifiquement pour traiter de questions d’IA générative et de frontier models. La France, le Canada, les États-Unis, le Royaume-Uni, l’Italie, l’Allemagne et la Commission européenne participent aux travaux. L’OCDE et le Partenariat mondial sur l’IA interviennent en tant qu’organisations invitées.

Le Conseil de l’Europe 

Le Conseil de l’Europe a initié, via le Comité sur l’intelligence artificielle (ci-après « CAI »), la rédaction d’une Convention sur l’IA contraignante et axée sur les principes de développement d’une IA conforme au respect des droits fondamentaux. Seront concernés par cette Convention, tous les membres du Conseil de l’Europe et tous les signataires supplémentaires de ladite Convention.

Ceci pourrait vous intéresser

Suivez-nous sur les réseaux sociaux et Abonnez-vous à notre lettre d’information