• Numérique

  • Intelligence artificielle

IA au service de l'efficience / « AI for Efficiency » : les lauréats de l'AMI en détail

Près de 600 organismes ont répondu à l'appel à manifestation d'intérêt IA au service de l'efficience. Les répondants ont partagé des retours d'expérience concrets sur l'adoption de l'IA. Ils permettent de dégager des enseignements utiles aux adopteurs potentiels d'IA et aux décideurs.

Publié le : 11 fév 2025 Mis à jour le : 14 fév 2025

Avec l'appel à manifestation d'intérêt « IA au service de l’efficience », ou AI for Efficiency, près de 600 entreprises et organismes publics, en France et à l’international, ont partagé des retours d’expérience concrets sur l’adoption de l’IA : délais de mise en œuvre, coûts, impact économique, nouvelles pratiques organisationnelles, ainsi que bénéfices environnementaux et sociaux. 20% des contributions proviennent d’acteurs internationaux, de 105 nationalités différentes.

L’analyse des dossiers éligibles a permis de dégager des enseignements extrêmement utiles pour les adopteurs potentiels de l’IA, ainsi que pour les décideurs publics en France et à l’international.

L'Observatoire IA

Les lauréats de l'AMI seront référencés dans l'Observatoire IA, un outil de datavisualisation qui permettra de suivre l'évolution de l'adoption des outils et systèmes d'intelligence artificielle par les entreprises et organismes publics.

Données générales sur les organismes qui ont participé à l'AMI IA au service de l'efficience

Le profil des répondants se répartit entre 35 % de PME, 25 % de grandes entreprises, 19 % d’ETI et 20% d’administrations publiques. L’IA générative représente 55 % des solutions mentionnées, surtout dans les services (finance, commerce, éducation, tourisme) où elle atteint 70 % des projets, contre 25 % dans l’industrie et les transports. Le secteur médical est plus équilibré (40 % d’IA générative), principalement pour des usages liés à la R&D et à l’analyse médicale. Dans l’industrie, l’IA générative est généralement cantonnée aux fonctions support (ex. chatbots RH), tandis que la maintenance prédictive, le contrôle qualité ou l’optimisation logistique reposent surtout sur des approches non génératives.

Coûts et durée moyenne des projets d'intelligence artificielle 

La durée moyenne de développement atteint 21 mois, avec un écart marqué entre l’IA générative (17 mois) et l’IA non générative (27 mois). Le coût moyen par projet est de 1,3 millions d''euros, l’IA générative (900 000 euros) étant moins coûteuse que l’IA non générative (1,8 millions d'euros). L’analyse montre que les projets d’IA générative, souvent centrés sur des chatbots ou des fonctionnalités de type RAG (génération augmentée par récupération), tirent parti de technologies déjà éprouvées, alors que les projets non génératifs impliquent parfois des travaux de R&D plus lourds. Les projets les plus coûteux (plus de 5 millions d'euros) et les plus longs (plus de 30 mois) se trouvent majoritairement dans l’industrie, les télécoms, l’énergie ou la biotech, tandis que les secteurs des services (finance, commerce, tourisme, éducation) investissent plutôt sur des solutions de 300 000 euros à 500 000 euros développées en 15 mois en moyenne.

Défis rencontrés par les organismes ayant adopté des systèmes d'IA

Près de 70 % des répondants soulignent la difficulté à accéder à des données de qualité et la nécessité de réorganiser leurs processus pour intégrer l’IA. Le manque de financement est cité par 30 % des répondants, tandis que les enjeux éthiques et réglementaires concernent 40 % des projets d’IA générative et 15 % pour ceux non génératifs, suggérant une vigilance accrue pour la première catégorie. Enfin, le manque d’expertise technique affecte 30 % des projets en IA générative contre seulement 5 % des autres, ce qui reflète la nouveauté et la complexité plus élevée de l’IA générative.

55 %

des projets évoqués font appel à l'IA générative

21 mois

durée moyenne de développement des projets

1,3 million d'euros

coût moyen par projet

70%

des répondants soulignent la difficulté d'accéder à des données de qualité

Entreprises et organisations publiques lauréates de l'appel à manifestation d'intérêt AI for Efficiency

Taille de l'organisation

Entreprise de taille intermédiaire (250-5 000 employés)

Localisation

France

Nom du projet d'IA

AI powering up Collaborative Learning in the corporate world

Portée et objectifs du projet

Notre premier objectif était de doter les utilisateurs d’outils leur permettant de créer du contenu de formation de grande valeur en quelques minutes. En effet, un élément clé de Collaborative Learning consiste à permettre aux employés de partager leurs connaissances et leur expertise avec leurs pairs, même s’ils n’ont aucune expérience en ingénierie pédagogique.

Dans un premier temps, l'IA serait utilisée pour générer des “suggestions” de questions automatiques (simple choice, multiple choice, true/false) intégrées nativement à notre plateforme. Ces questions seraient proposées à l’author pour inclusion dans sa formation, et s’appuieraient sur un corpus de texte sous forme de fact sheets ou de video transcripts, afin de tester les apprenants sur des éléments de connaissance. Nous pourrions ensuite faire évoluer cette logique vers la génération d’un quiz d’évaluation complet à insérer au début, à la fin ou à n’importe quel moment d’un “path” de cours.

Dans un deuxième temps, l'IA serait exploitée pour permettre à tout expert en la matière de générer un cours complet (incluant plusieurs activités textuelles, des images et des questions correspondantes pour tester les connaissances) à partir d’un document qu’il télécharge. Ensuite, il n’aurait plus qu’à relire et modifier selon ses besoins.

Dans un troisième temps, l'IA serait mise à profit pour créer un cours à partir d’un simple “prompt” fourni par l’auteur, c’est-à-dire une instruction donnée par l’auteur sous la forme d’un titre de cours, d’un objectif de cours et d’une audience cible. Accompagner l’auteur dans la création d’un prompt d'IAen le découpant en étapes simples était également un moyen d’aider nos organisations clientes à faire monter en compétence leurs créateurs de contenu en matière d’IA prompt proficiency, une compétence cruciale dans ce secteur de nos jours.

Toutes ces fonctionnalités s’appuient sur la technique de Large Language Models (LLMs) utilisée pour la génération de texte, et sur laquelle chatGPT est notamment fondé. Nous savions que nous avions la possibilité d’apporter plus de valeur aux auteurs que ce qu’ils obtiendraient en utilisant simplement chatGPT, grâce à :

  • une intégration native dans notre plateforme : ils n’auraient pas besoin de quitter l’authoring tool pour créer du contenu, offrant ainsi une expérience fluide.
  • l’utilisation de Retrieval-Augmented Generation pour la contextualisation des formations : nous pourrions exploiter – de manière sécurisée – le contenu de formation existant de cette organisation sur notre plateforme afin d’informer l’IA du contexte et du jargon spécifiques de l’organisation, produisant ainsi des résultats de meilleure qualité.

    La réussite de cet objectif se définissait ainsi :

  • utilisation confiante de l'IA par les experts pour la création de contenu – mesurée par le pourcentage de cours créés, puis partagés, par les utilisateurs de notre plateforme, qui ont été conçus avec l’aide de l'IA
  • nouvelle activation d’auteurs – mesurée par l’évolution du ratio “active authors within 30 days”, c’est-à-dire parmi les auteurs actifs, le nombre de ceux qui ont été actifs dans les 30 jours suivant l’obtention des droits d’écriture

    Le deuxième objectif était que l'IA agisse comme un L&D assistant fiable et un contrôleur de prompt. Sur la base des discussions dans notre L&D collective (une grande communauté de L&D leaders) et des retours de nos clients, nous savions que la principale préoccupation des L&D leaders concernant la décentralisation de la création de contenu (aux experts de leur organisation, ainsi qu’à l'IA) était le manque de contrôle sur le résultat, pouvant conduire à un contenu de formation non conforme ou mal aligné. Nous avons identifié que nous pouvions utiliser l'IA pour exercer ce contrôle pour eux, en ouvrant un espace dédié sur notre plateforme permettant aux administrateurs L&D de définir les paramètres de conformité, les préférences pédagogiques en matière de mise en page, le ton de l’organisation, etc. Cela inclurait des templates de prompt pré-construits, dans le but d’aider les L&D leaders à monter en compétence sur l’IA prompt proficiency.  

    La réussite serait mesurée par le nombre de plateformes appliquant les prompt settings définis par L&D.

    Troisièmement, l'IA peut faciliter la tâche des L&D leaders pour activer les fonctionnalités typiques de collaborative learning sur notre plateforme, comme l’utilisation de discussion forums associés aux formations. Ces forums renforcent l’apprentissage grâce à l’engagement avec les autres apprenants et aux interactions avec les experts. L'IA pourrait permettre aux L&D leaders de les activer sans avoir à se soucier d’une charge de travail supplémentaire liée à la modération ou aux community guidelines, car l'IA pourrait être mise à profit pour assurer la modération.

    La réussite serait mesurée par la garantie qu’aucun client ou prospect ne soit dissuadé d’adopter collaborative learning pour des raisons de modération.

    Enfin, l'IA pourrait renforcer davantage Collaborative Learning en permettant aux administrateurs de traduire un cours créé par un expert dans toutes les langues de l’organisation en un clin d’œil, leur permettant ainsi de diffuser le contenu à grande échelle.

    Ce projet a été mené par l’IA Product squad, avec l’assistance de l’Authoring Product squad (qui gérait l’authoring tool sur notre plateforme). Des discoveries ont été menées auprès de clients ainsi qu’auprès des équipes internes en charge du chiffre d’affaires (Client Success Team, Sales Team, Learning Engagement Coaches qui sont nos experts internes sur la création et la gestion de catalog).

En savoir plus

Taille de l'organisation

Micro entreprise (moins de 10 employés)

Localisation

France

Nom du projet d'IA

AI TO IMPROVE IMPROVING WASTE DIVERSION FROM LANDFILL

Portée et objectifs du projet

  • Créer une base de données nationale auto-apprenante ;  
  • Partager les données avec les fabricants d’emballages pour soutenir leurs pratiques durables ;  
  • Augmenter la productivité du contrôle qualité ;  
  • Réaffecter les travailleurs à des tâches à plus forte valeur ajoutée
  • Améliorer la pureté des matériaux triés.  

Le projet couvrait à la fois les aspects IA et industriels : 

  • AI Integration in a Vision Arch : l’IA est intégrée dans une "vision arch" qui scanne le flux de déchets. Son objectif est d’identifier les matériaux, de déterminer leur position sur un convoyeur et d’établir un "niveau de certitude" pour leur détection.  
  • AI-Controlled Robotic Arms : à partir des données de la vision arch, des bras robotiques sont dirigés pour cibler et extraire les éléments identifiés comme indésirables.  

    Ce projet présentait un double défi :  

  • Ensuring Detection Performance : la précision est surveillée par une vérification humaine, avec des résultats comparés à ceux du système d'IA. L’objectif était d’identifier plus de 95 % des éléments avec une précision moyenne dépassant 95 %.  
  • Optimizing the Suction System : le système doit être capable de manipuler efficacement une variété d’objets, y compris des éléments humides, de grande taille et de petite taille. La performance est mesurée en comptant le nombre de "prises" réussies par minute, avec un objectif de plus de 33 prises réussies.  

La mise en œuvre de bras robotiques contrôlés par IA pour le contrôle qualité n’avait jamais été réalisée en France ni à l’étranger, ce qui représentait un défi considérable. 

En savoir plus

Taille de l'organisation

PME (10-250 employés)

Localisation

France 

Nom du projet d'IA

Measurement of crowd levels in public transportation

Portée et objectifs du projet

Depuis plusieurs mois, nous menons des projets expérimentaux de comptage dans les transports publics afin de fournir des informations sur les flux de passagers aux entreprises gestionnaires de réseaux de transport (des projets sont actuellement en cours avec SNCF, Île-de-France Mobilités, Kéolis Rennes) ou directement aux passagers.  

La technologie que nous avons développée permet d’estimer le niveau de charge d’un train/métro/tramway. Connue sous le nom de technologie "Scan" (brevetée le 06/07/2022 sous le numéro FR 2206894), elle repose sur un capteur (caméra + boîtier de comptage) placé sur le quai, qui "scanne" les métros/trains/trams en passage afin d’estimer leur taux d’occupation à travers les fenêtres lorsqu’ils quittent la station.  

La technologie "Scan" constitue une solution innovante qui complète les statistiques classiques de fréquentation du réseau en intégrant des données d’utilisation en temps réel, avec un coût nettement inférieur et des délais de déploiement beaucoup plus rapides. Par exemple, équiper l’ensemble d’un réseau métropolitain de capteurs embarqués dans le cadre d’un projet unique est difficilement envisageable, alors que cela devient faisable avec la technologie "Scan". Elle permet ainsi de collecter des données fiables sur l’utilisation des moyens de transport existants, facilitant une planification plus précise des nouvelles lignes ou extensions. La mesure en temps réel du taux d’occupation, rendue possible grâce à l’installation de capteurs sur les quais plutôt qu’à bord des véhicules, ouvre la voie à de nouvelles applications allant bien au-delà des simples statistiques : ces données peuvent être exploitées pour l’information des passagers, l’optimisation du réseau, et bien plus encore.  

Dans ce contexte, l’intelligence artificielle nous permet de détecter automatiquement le passage d’un métro/train/tram devant la caméra, puis d’estimer l’occupation à bord. Ces deux opérations ne sont pas réalisables avec les algorithmes traditionnels de Machine Learning et de Computer Vision en raison de nombreux défis technologiques : visibilité limitée à travers les vitres, vitesse des trains pouvant atteindre 150 km/h, temps de traitement et d’analyse contraint pour une diffusion rapide aux passagers de la station suivante, etc.  

Le développement de cette technologie mobilise des équipes transversales :  

  • En amont, nos équipes opérations déterminent l’emplacement optimal des capteurs sur le quai afin de garantir des mesures fiables du taux d’occupation à bord.  
  • Une fois le capteur installé, une équipe projet dédiée est constituée pour coordonner la création des datasets, l’entraînement des modèles, l’évaluation de la fiabilité et la diffusion des informations.
  • Tout au long de ces étapes, l’équipe de recherche et développement intervient dans la conception, l’implémentation, le déploiement et la vérification du bon fonctionnement du système.

En savoir plus 

Taille de l'organisation

Grande entreprise (plus de 5 000 employés)

Localisation

France

Nom du projet d'IA

LIM: Combined Primary Production and Customer Delivery Optimization

Portée et objectifs du projet

  • Après la mise à niveau du Proof of Concept (PoC) en un Minimum Viable Product (MVP), l’objectif principal était de répliquer et déployer le LIM MVP dans différentes entités géographiques en Europe et à l’international.  
  • Atteindre un taux d’adoption utilisateur d’au moins 80 % pour la solution LIM en Europe.  
  • Générer des économies ou éviter des coûts, ainsi qu’une réduction de l’empreinte carbone grâce à la mise en œuvre du projet LIM.

Pertinence de l’IA pour le projet

  • L’IA joue un rôle clé dans le projet LIM, en particulier dans le développement et l’implémentation de l’optimiseur.  
  • Les algorithmes basés sur l’IA sont utilisés pour la prévision de la demande, le clustering des clients et l’optimisation du processus d’approvisionnement.  
  • Les composants IA du projet doivent améliorer la prise de décision, accroître l’efficacité et réduire les coûts.

Le projet s’appuie sur des données provenant de plusieurs sources, notamment :

  • Données de distribution et de ventes générées par les opérations Industrial Merchant  
  • Système SCADA (Supervisory Control and Data Acquisition) pour la production primaire dans les Large Industries  
  • Données issues du Truck Loading System (pour le suivi des livraisons)  
  • Données historiques sur les livraisons et les schémas d’approvisionnement  
  • Le projet utilise une combinaison de modèles d’optimisation et de Machine Learning :
    • Machine Learning : utilisé pour la prévision de la demande et le clustering des clients.  
    • Modèle d’optimisation : le cœur de l’optimiseur LIM repose sur un modèle de programmation linéaire ou de programmation linéaire en nombres mixtes, utilisé pour déterminer le plan optimal de la supply chain, de la production à la livraison, en fonction de diverses contraintes et objectifs.  

Fonctions métier impliquées ou impactées

  • Large Industries (LI) : responsable de la production et de l’approvisionnement des produits liquides.
  • Industrial Merchant (IM) : se concentre sur la distribution et la livraison des produits liquides aux clients.  
  • Supply Chain Operations : impact direct sur l’approvisionnement, la production et la distribution des produits liquides.  
  • Finance : le projet vise à générer des économies et éviter des coûts, influençant la performance financière de l’organisation.
  • Sustainability Department : les gains d’efficacité sont également mesurés en termes de réduction de l’empreinte carbone.  

Indicateurs de réussite

  • Adoption métier : mesurée par le pourcentage de semaines où LIM est utilisé pour la planification. L’objectif est d’au moins 80 %, idéalement plus de 90 %.  
  • Précision des prévisions : l’écart entre la prévision initiale, la prévision révisée par les dispatchers et les livraisons réelles doit montrer une amélioration de 2 à 3 % après la révision.  
  • Engagement utilisateur : mesuré via des enquêtes.  
  • Nombre d’utilisateurs : le projet vise à former un nombre défini d’utilisateurs en Europe sur l’utilisation de LIM.  
  • Temps d’exécution de l’optimiseur : le temps moyen d’exécution de LIM doit être inférieur à 5 minutes.
  • Économies/coût évité et réduction de l’empreinte carbone : le projet vise un objectif précis en termes d’économies et de réduction de l’empreinte carbone globale.
  • Réplicabilité : le succès du projet est également mesuré par le nombre de pays hors Europe qui adoptent LIM lors de la phase de déploiement, avec un objectif d’au moins deux pays.

Taille de l'organisation

Entreprise de taille intermédiaire (250-5 000 employés)

Localisation

France

Nom du projet d'IA

Mo: a conversational medical AI deployed in real life

En savoir plus 

Taille de l'organisation

Grande entreprise (plus de 5 000 employés)

Localisation

France

Nom du projet d'IA

AI for Efficient Delivery of Railway Projects

Portée et objectifs du projet

Nous voulons maximiser l’efficacité dans la livraison de nos projets de signalisation ferroviaire. De tels projets concernent le système global de contrôle et de commande permettant aux métros ou trains de circuler en mode automatisé ou semi-automatisé, avec potentiellement plusieurs lignes, une densité de trafic élevée et une forte exigence en matière de qualité de service et de fiabilité. Le type et la configuration des composants de la solution de signalisation dépendent du type de projet (nouvelle ligne, modernisation ou extension d’une ligne existante, nouvelle signalisation sur du matériel roulant Alstom ou non-Alstom, neuf ou existant, topologie spécifique, conditions environnementales, etc.). Nous pouvons également déployer une solution de nouvelle génération ayant encore peu d’exposition réelle sur le terrain. Ainsi, un projet de signalisation sera souvent unique en son genre. Il est complexe à configurer, à diagnostiquer et à maintenir.

Le projet d’IA que nous présentons vise à automatiser autant que possible les tâches complexes de réglage et de diagnostic du réseau de communication radio entre le train et le sol. Ce lien est essentiel pour garantir le bon fonctionnement des opérations de train automatisées ou semi-automatisées.

À cette fin, nous configurons nos systèmes afin de générer en permanence des données (appelées fichiers de log) et de les stocker dans le cloud (sauf si les clients préfèrent un déploiement local). À la réception de nouvelles données, des pipelines de traitement sont automatiquement déclenchés. Ils calculent des KPI’s, exécutent des algorithmes de data science et d’IA, et produisent automatiquement des rapports. Ces rapports offrent une vision synthétique des performances et des éventuels problèmes, tout en permettant, si nécessaire, une analyse approfondie.

L’objectif principal de la Data Science et de l’IA dans ce projet est donc de détecter et diagnostiquer automatiquement les anomalies et de proposer des recommandations pour leur résolution. Au-delà du projet de diagnostic radio, nous développons de manière similaire des projets d’IA visant à automatiser le diagnostic et le réglage de l’ensemble de notre solution.

Le Big Data et l’IA permettent d’identifier et de diagnostiquer des événements rares ou des dysfonctionnements mineurs dans une immense quantité de données. Il ne serait pas humainement possible d’analyser systématiquement ces données sans ce cadre. Auparavant, les ingénieurs ne déclenchaient pas systématiquement la collecte de données et n’intervenaient qu’après coup, une fois des dysfonctionnements significatifs survenus. Des experts étaient envoyés sur site pour mener des campagnes de collecte de données et tenter de reproduire les problèmes. Désormais, en combinant les données d’exploitation (position et vitesse du train, actions du conducteur, commandes de contrôle et actions appliquées, etc.) avec des mesures détaillées (ex : mesures du réseau radio) et des journaux de débogage logiciel (ex : état détaillé de la pile logicielle et événements, échantillonnés toutes les 50 ms), des algorithmes avancés permettent d’automatiser le travail fastidieux des experts, leur permettant ainsi de se concentrer sur les problèmes les plus complexes.

Cette approche met en place un cercle vertueux entre les données et l’IA : un cadre est instauré pour collecter en continu des données riches et les traiter automatiquement. L’exécution dans le cloud permet à tout expert de la communauté d’ingénierie d’Alstom dans le monde d’apporter son expertise depuis son bureau. Cela engendre des gains d’efficacité et des opérations plus respectueuses de l’environnement : plus besoin d’envoyer des experts aux quatre coins du monde pour des interventions locales. Les données collectées, organisées de manière structurée et présentées dans des rapports pertinents, fournissent une connaissance précieuse de manière extrêmement efficace : en un clic, les ingénieurs peuvent visualiser le comportement détaillé de leurs solutions dans de multiples déploiements réels. Cette connaissance leur permettra de concevoir des solutions améliorées pour les futurs projets ou mises à jour logicielles et offrira une formation optimale aux nouveaux ingénieurs à travers le monde. En service commercial, ce cadre vise la maintenance prédictive. Il permet d’intervenir uniquement lorsque cela est nécessaire. Cela génère des économies, protège l’environnement et améliore la sécurité du personnel en évitant des inspections inutiles sur site et en permettant d’intervenir avant que les pannes ne surviennent.

Les principaux indicateurs de réussite d’un tel projet sont des indicateurs business : respect des délais de livraison, coût du diagnostic et du réglage, efficacité de la maintenance.

Taille de l'organisation

Administration publique ou ONG

Localisation

Liban 

Nom du projet d'IA

AI-mediated Interactive Health Messaging for Community Health Promotion in Low-Middle Income Countries

Portée et objectifs du projet

The Health Information Bot Assistant (HIBA) est une initiative novatrice visant à améliorer la littératie en santé, à faciliter l’accès à une information précise et à renforcer l’engagement en santé publique parmi les populations vulnérables des pays à revenu faible et intermédiaire (LMICs). Fondé sur les principes de l’ingénierie humanitaire et de la santé publique, HIBA exploite l’IA pour combler des lacunes critiques en matière de communication et d’accessibilité aux informations de santé. Son objectif principal est de fournir une information médicale fiable 24h/24 et 7j/7 à toutes les catégories de population, dans plusieurs langues, en surmontant diverses contraintes sociétales, d’alphabétisation et technologiques. HIBA fournit des informations sur des enjeux de santé majeurs tels que les maladies infectieuses, les maladies chroniques et la santé maternelle et infantile, tout en impliquant les communautés défavorisées afin d’assurer une équité en santé à travers divers niveaux de démographie et d’alphabétisation. En rendant la plateforme intuitive, culturellement adaptée et réactive aux tendances sanitaires en temps réel, HIBA vise à transformer la manière dont l’information médicale est diffusée auprès de ceux qui en ont le plus besoin.

L’IA joue un rôle central dans la capacité de HIBA à atteindre ses objectifs, en permettant au chatbot de s’adapter à l’échelle et de personnaliser la communication en santé. Grâce aux avancées en Natural Language Processing (NLP), HIBA comprend et répond avec précision et pertinence aux requêtes multilingues et spécifiques à certains dialectes. L’IA facilite également la gestion automatisée des requêtes, permettant à la plateforme de traiter un volume important d’interactions en un temps réduit, garantissant ainsi une diffusion cohérente de l’information. La capacité du système à personnaliser les réponses en fonction des besoins des utilisateurs et de leurs interactions antérieures renforce l’engagement et assure une meilleure réception des messages de santé.

HIBA exploite une large gamme de sources de données pour garantir que ses réponses soient fondées sur des preuves et adaptées au contexte. Celles-ci incluent des directives et protocoles médicaux d’organisations de référence telles que l’Organisation Mondiale de la Santé (WHO) et la Fédération Internationale des Sociétés de la Croix-Rouge et du Croissant-Rouge (IFRC), des données anonymisées des interactions des utilisateurs afin d’améliorer la qualité des réponses, des recherches en santé publique sur les défis sanitaires régionaux, ainsi que des informations contextuelles issues des professionnels de santé de première ligne et des retours des communautés locales. Cette approche holistique permet au chatbot de délivrer des informations adaptées aux besoins de ses populations cibles.

HIBA a été conçu comme un système de Retrieval-Augmented Generation (RAG) intégré à des technologies avancées d’IA. La conception du chatbot repose sur une évaluation approfondie des besoins menée auprès de divers participants au Liban et en Jordanie. Ainsi, grâce au ReAct prompt engineering, à l’intégration de GPT-4 et au traitement des données, le chatbot a été entraîné pour garantir l’exactitude des réponses et minimiser les risques de générer des informations erronées. Ses fonctionnalités ont été renforcées grâce à Whisper V3 et ElevenLabs pour la gestion du langage et de la voix, tandis que son interface utilisateur a été optimisée pour un déploiement via WhatsApp. La gestion des ressources cloud, le suivi des performances et l’approvisionnement en infrastructure ont également été maintenus pour garantir un fonctionnement optimal du chatbot. Un cadre de test en quatre niveaux a été mis en place pour évaluer l’utilisabilité, l’adaptabilité linguistique et l’efficacité de HIBA. Une combinaison de validation de corpus, d’analyse des métriques des tableaux de bord et d’évaluations qualitatives en plusieurs phases sur la satisfaction des utilisateurs et des analyses thématiques ont été réalisées.

L’impact de HIBA améliore la promotion de la santé communautaire en élargissant l’accès à l’information et en renforçant l’éducation sanitaire dans les zones difficiles d’accès. Le chatbot soutient la surveillance de la santé publique en analysant les requêtes des utilisateurs pour identifier les préoccupations sanitaires émergentes et fournit des informations précieuses basées sur les données.

Un cadre d’évaluation en quatre niveaux a mesuré l’utilisabilité, l’adaptabilité linguistique et l’efficacité de HIBA. Une combinaison de validation de corpus, d’analyse des tableaux de bord et d’évaluations qualitatives en plusieurs phases sur la satisfaction des utilisateurs et les analyses thématiques ont été menées. Le succès de HIBA est évalué à travers une combinaison de métriques quantitatives et qualitatives. L’engagement des utilisateurs est mesuré en fonction du volume de requêtes reçues, du nombre d’utilisateurs actifs et du taux d’interactions répétées. La qualité des réponses est suivie via l’évaluation du pourcentage de réponses notées sur une échelle de type Likert. La portée géographique met en évidence l’accessibilité et l’inclusivité de la plateforme. La satisfaction des utilisateurs et leurs retours ont également été des éléments clés dans l’amélioration des fonctionnalités du chatbot, tandis que l’efficacité opérationnelle est évaluée à travers la réduction des délais de réponse et l’optimisation des coûts.

HIBA illustre comment l’IA peut répondre aux défis sanitaires urgents dans les LMICs en comblant le fossé entre l’innovation technologique et les besoins en santé publique. En fournissant une information médicale accessible, précise et culturellement adaptée, HIBA non seulement autonomise les individus, mais renforce également les systèmes de santé publique. Son succès souligne le potentiel des solutions basées sur l’IA pour transformer la communication en santé publique et améliorer les résultats pour les populations les plus vulnérables.

En savoir plus

Taille de l'organisation

PME (10-250 employés)

Localisation

France

Nom du projet d'IA

M.U.S.E - "The Memory of Venus"

Portée et objectifs du projet d'IA :

  • Portée : le projet IA "The Memory of Venus" vise à créer une sculpture qui encapsule plus de 40 000 ans d’histoire de l’art en utilisant l’IA générative 3D. Il repose sur l’intégration de données artistiques historiques, d’algorithmes avancés d’IA et de techniques innovantes d’impression 3D pour produire une œuvre unique et culturellement significative.
  • Objectifs principaux :
    • Synthèse historique : Capturer et synthétiser l’essence de l’histoire de l’art à travers différentes périodes et régions en une seule œuvre.  
    • Innovation artistique : Repousser les limites de la créativité en exploitant l’IA pour générer de nouvelles formes et styles en sculpture.  
      Impact culturel : Engager le public et les décideurs dans des discussions sur l’intersection entre l’art et la technologie, et encourager une réflexion sur le rôle de l’IA dans l’expression artistique.  
    • Sensibilisation éducative : Informer le public sur le potentiel de l’IA dans le monde de l’art et promouvoir une réflexion critique sur ses implications éthiques et sociales.

Pertinence de l’IA dans le projet

L’IA est au cœur du projet, permettant le traitement et l’analyse d’un vaste ensemble de données comprenant 4 000 sculptures scannées en 3D. L’utilisation de l’IA générative permet de créer une œuvre unique qui transcende les limites traditionnelles et reflète la richesse de l’histoire de l’art.

Données exploitées

Données historiques artistiques : 4 000 sculptures scannées en 3D issues de diverses périodes et régions, incluant l’art cycladique, romain, Renaissance, baroque, impressionniste et moderniste.  

Références artistiques : Œuvres spécifiques telles que la Vénus de Hohle Fels, "La petite danseuse" de Degas, "David" de Michel-Ange, "Le Fruit" de Bourdelle et "L’Âge d’Airain" de Rodin.  

Modèle appliqué

  • IA générative 3D : Algorithmes d’IA développés sur mesure affinant itérativement le design de la sculpture à partir des données artistiques historiques. Le modèle a réalisé 704 itérations pour aboutir à l’œuvre finale.
  • Affinement itératif : L’IA a continuellement amélioré la conception en intégrant des éléments de l'ensemble de données, aboutissant à une sculpture incarnant l’essence de l’histoire de l’art.

Fonctions métiers impliquées ou impactées

  • Création artistique : Fonction essentielle pour la production d’œuvres innovantes et culturellement significatives.  
  • Engagement du public : Interaction avec le public à travers des expositions, installations et initiatives éducatives.  
  • Innovation technologique : Avancement de l’utilisation de l’IA dans le domaine artistique et promotion de la collaboration interdisciplinaire.  
  • Critères de succès du projet :
    • Qualité artistique : Cohérence esthétique et conceptuelle de la sculpture finale, évaluée par des critiques d’art et le public.  
    • Exactitude historique : Fidélité à l’histoire de l’art dans l’œuvre, validée par des historiens de l’art.  
    • Engagement du public : Nombre de visiteurs et niveau d’interaction avec la sculpture lors des expositions et installations.  
    • Couverture médiatique : Ampleur de la médiatisation et portée du message du projet sur l’intersection entre l’art et la technologie. 
    • Impact éducatif : Nombre d’ateliers et de conférences organisés, ainsi que les retours des participants.  
    • Dialogue culturel : Qualité et profondeur des discussions générées sur le rôle de l’IA dans l’art et ses implications éthiques et sociales.

En atteignant ces objectifs et indicateurs, "The Memory of Venus" vise à établir une nouvelle référence pour l’art assisté par l’IA, inspirant de futures innovations et approfondissant l’appréciation de la richesse de l’histoire de l’art.

Taille de l'organisation

Administration publique ou ONG

Localisation

France 

Nom du projet d'IA

FISH

Portée et objectifs du projet

La finalité du projet était de développer un outil capable de détecter des signaux faibles sur le web afin de fournir régulièrement une liste de sites pertinents à analyser, et ce, avant même que les épargnants ne deviennent victimes d’escroqueries. Ces sites sont catégorisés en fonction de :  

  • Leur nature (investment, information, outside the financial scope, outside the non-financial scope).
  • Leur caractère frauduleux ou non.  

L’objectif est de tirer parti des données issues des sites web pour les classifier automatiquement, en ne remontant aux équipes métier que ceux nécessitant une analyse humaine approfondie, leur permettant ainsi de se concentrer sur les cas les plus pertinents.  

L’outil s’appuie sur une approche en trois étapes :  

  • Identification des sites à récupérer : Sur la base des résultats de search engine et de keywords prédéfinis, un premier filtrage est effectué afin de ne conserver que les résultats les plus pertinents.  
  • Filtrage initial : Parmi les sites analysés, seuls ceux proposant des investissements financiers sont retenus. 
  • Prédiction de fraude : Ces sites sont ensuite soumis à un predictive model qui les classe en « fraudulent » ou « non-fraudulent ».  

Les experts métier jouent un rôle essentiel dans la validation des prédictions. Ils confirment les prédictions de FISH ou reclassent le site dans la catégorie appropriée. Par exemple, un site prédit comme « fraudulent » peut être reclassé en « non-fraudulent », et un site « information » peut finalement s’avérer « fraudulent ».

L’utilisation de l’AI s’est avérée particulièrement pertinente pour ce projet pour plusieurs raisons :

  • Nouvelle source d’information exploitable : L’AI permet d’analyser automatiquement un grand nombre de sites en un temps réduit, tâche irréalisable manuellement au vu du volume déjà important et croissant d’informations en ligne.  
  • Classification multi-niveaux : L’AI excelle dans la segmentation et la classification de données, permettant de détecter des sites d’investissement financier suspects même lorsque les signaux sont subtils ou dissimulés, ou que les frontières entre les classes sont nuancées.  
  • Adaptabilité et évolution continue : Les modèles de supervised learning peuvent être réentraînés régulièrement avec de nouvelles annotations fournies par les experts métier, garantissant ainsi l’efficacité de l’outil face aux techniques de fraude en ligne qui évoluent sans cesse, notamment en cas de data drift.  
  • Réduction de la charge de travail des experts : En automatisant les phases de filtrage et de classification initiale, l’AI réduit significativement le nombre de sites à examiner manuellement. Les experts peuvent ainsi se concentrer sur les dossiers à forte valeur ajoutée, améliorant l’efficacité globale du processus.  
  • Amélioration de la précision grâce à la collaboration humain-machine : l'IA fournit des prédictions initiales rapides, tandis que les experts métier apportent leur expertise pour ajuster et valider les résultats.  

Les modèles d’IA utilisés reposent sur du supervised learning, avec des algorithmes adaptés aux différentes étapes du processus. Ces modèles sont entraînés sur les annotations fournies par les experts métier, garantissant leur adéquation avec les besoins opérationnels.

L’un des principaux indicateurs de succès est le nombre de sites véritablement suspects signalés par l’outil FISH. Ce critère continue d’être utilisé pour le suivi de l’application, permettant d’ajuster les modèles et d’optimiser leurs performances.  

Lorsqu’un site est confirmé comme frauduleux, il fait l’objet d’analyses complémentaires. Selon les informations collectées (marketing actif en France, activité régulée par l’AMF, absence d’agrément), le site peut être ajouté à la blacklist de l’AMF ou même faire l’objet d’un blocage par voie légale.

Taille de l'organisation

Grande entreprise (plus de 5 000 employés)

Localisation

France

Nom du projet d'IA

PredictIA: facilitating pricing of Ayvens used cars to boost sales performance

Portée et objectifs du projet

  • Rationaliser le temps consacré à la fixation des prix et à l’orientation des véhicules d’occasion à forte rotation (c'est-à-dire les véhicules que nous vendons le plus). 
  • Faciliter l’attribution de chaque véhicule d’occasion aux canaux de commercialisation où les meilleurs résultats seront obtenus en termes de rentabilité et de délai de vente.
  • Adapter plus rapidement les prix aux évolutions du marché grâce à la détection automatique des signaux d’évolution des prix.  
  • Portée : focus sur 6 grands pays d’exploitation d’Ayvens (Espagne, Pays-Bas, Belgique, France, Inde et Luxembourg) et 2 principaux canaux de vente : Business to Business (B2B) et Business to Consumer (B2C).  
  • Livrables : concrètement, pour chaque véhicule d’occasion soumis, PredictIA fournit à l’expert pricing local 5 informations pour faciliter son travail :  
    • 2 prédictions de prix, 1 pour le marché retail (B2C) et 1 pour le marché corporate (B2B).  
    • 2 indices de confiance (1 pour chaque prédiction de prix), allant de 1 à 10, indiquant le niveau de confiance de PredictIA sur le prix fourni. Cette information est considérée comme essentielle pour établir la confiance avec les utilisateurs.  
    • 1 prédiction de la probabilité de vente, à un prix donné, dans le canal de vente B2C.  

Données exploitées et modèles utilisés

  • PredictIA repose sur un modèle CatBoost.  
  • L’entraînement de PredictIA est généralement effectué quotidiennement, basé sur les prix de 3 ans de ventes de véhicules d’occasion d’Ayvens, dans un pays spécifique et pour un canal de vente spécifique (B2B et B2C sont séparés), avec une attention particulière portée sur la période récente. Les données sont actualisées quotidiennement.  
  • L’entraînement exploite un large éventail de données internes, principalement liées aux caractéristiques des véhicules d’occasion vendus par Ayvens (telles que : marque, modèle, kilométrage, type de carburant, options, dommages, couleur), mais aussi des données reflétant l’appétence du marché pour un véhicule (comme le nombre d’enchérisseurs et d’enchères sur un véhicule lors d’une vente aux enchères). Il s’appuie également sur des données externes (fournisseur) pour l’optimisation des prix.  

Fonctions impliquées

  • Le projet a mobilisé un large éventail de contributeurs répartis entre SG, Ayvens holding et les différents pays d’exploitation d’Ayvens. 
  • Il a été piloté et sponsorisé par Ayvens holding via les équipes data centrales, sous la supervision des équipes SG AI et Innovation.  
  • Les utilisateurs étaient situés dans chaque pays d’exploitation où le déploiement a eu lieu.  
  • L’équipe data locale fournissait les données actualisées pour l’entraînement et la requête PredictIA, et intégrait la sortie PredictIA dans l’outil utilisé localement pour le pricing.  
  • Les data scientists travaillaient en binôme pour chaque pays de déploiement, avec 1 data scientist central encadrant 1 data scientist local dans chaque pays d’exploitation.  

Trois principales métriques utilisées

  • Qualité des prédictions : utilisation du MAPE (Mean Average Percentage Error) pour comparer l’exactitude des prix de PredictIA et des experts locaux par rapport au prix final de vente du véhicule d’occasion.  
  • Taux d’acceptation / utilisation des prédictions : pourcentage, par pays et canal de vente, de prédictions PredictIA acceptées par l’expert pricing local par rapport au nombre total de prédictions fournies.
  • Temps économisé pour les experts pricing (considéré comme réinvesti dans des activités à plus forte valeur ajoutée).

En savoir plus 

Taille de l'organisation

Administration publique ou ONG

Localisation

France

Nom du projet d'IA

Automatic first level Control of non-standardized supportive documents 

Portée et objectifs du projet 

L’objectif de cette solution interne AI-powered est de développer un outil d’assistance automatisé pour le contrôle de premier niveau des résolutions de garantie de prêt fournies par les collectivités garantes. En raison de la politique de décentralisation française, qui se traduit par des formats non standardisés pour ce type de document à travers 50 000 collectivités locales, l’outil est conçu pour réduire considérablement le temps et l’effort requis par les loan officers et les controllers. Il améliore à la fois l’efficacité et la fiabilité du processus de validation.
 
Le projet se concentre sur le processus d’approbation des prêts géré par la Banque des Territoires, qui, rien qu’en 2024, a fourni 21 milliards d’euros de prêts publics pour soutenir les bailleurs sociaux. Ces prêts permettent la construction de 100 000 nouveaux logements sociaux et la rénovation de 100 000 logements existants. Chaque demande de prêt implique une documentation importante pour démontrer l’éligibilité aux prêts publics concessionnels. La vérification et l’approbation de ces documents, traités en volumes industriels, sont actuellement manuelles, ce qui rend le processus chronophage et exigeant en main-d’œuvre.

En tirant parti de l’IA, ce projet automatise la récupération, la vérification et le traitement des documents critiques, ainsi que la production de pistes d’audit. Il se concentre spécifiquement sur les résolutions de garantie de prêt émises par les municipalités garantes, un élément clé de la validation des prêts.

  • Objectifs :
    • Enhance Efficiency: Réduire le temps de traitement pour la validation des résolutions de garantie de prêt grâce à l’automatisation, afin d’atteindre une échelle significative.  
    • Improve Reliability: Minimiser les erreurs humaines dans la vérification des documents et garantir une application cohérente des critères d’approbation des prêts. 
    • Streamline Workflows: Libérer du temps pour les loan officers et les controllers, leur permettant de se concentrer sur des tâches à plus forte valeur ajoutée en déléguant les vérifications répétitives à l’outil AI.  
    • Ensure Scalability: Fournir une solution capable de gérer le volume croissant de demandes de prêt au fur et à mesure que l’organisation se développe.

L’IA est au cœur de la réussite du projet, répondant aux défis cruciaux d’analyse et d’interprétation de documents. L’utilisation du deep learning est particulièrement nécessaire en raison de la nature non standardisée des documents produits par les collectivités locales françaises. Tous les algorithmes sont développés et maintenus en interne, avec des réseaux neuronaux spécialement entraînés et optimisés pour les documents et les objectifs de l’organisation.

  • Automation of Text Extraction in unstructured documents:  
    • Image Processing Models: Des modèles personnalisés pour la détection de texte et la segmentation de zones (par exemple, identification de paragraphes, tableaux, titres et autres éléments structurels). Ces modèles ont été spécifiquement entraînés sur des ensembles de documents internes grâce à nos volumes industriels, enrichis par des techniques avancées de data augmentation pour gérer les problèmes courants tels que les scans mal alignés, la faible résolution et les variations de luminosité.  
    • OCR (Optical Character Recognition): Un modèle OCR spécialisé, basé sur des convolutional neural networks (CNNs), extrait le contenu textuel des régions segmentées avec une grande précision.  
      Ce pipeline combiné assure une extraction de texte robuste et fiable, même à partir de documents mal numérisés, offrant une base solide pour les étapes de validation ultérieures.  
  • Named Entity Recognition (NER) : Un modèle CamemBERT affiné, développé par un laboratoire de recherche français, extrait avec une grande précision les informations critiques telles que les détails du contrat de prêt, l’identité de l’emprunteur et les informations du garant.  
  • Legal Phrase Interpretation: Un sentence similarity algorithm, également basé sur CamemBERT, identifie et signale les variations de formulation juridique par rapport aux modèles attendus, permettant une validation efficace de la conformité légale.

Données exploitées

Le projet repose sur deux principales catégories de données disponibles en volumes industriels :

  • Document Data : Images scannées des résolutions de garantie de prêt soumises par les municipalités garantes.  
  • Training Data : Jeux de données internes annotés pour la reconnaissance d’entités, adaptés aux besoins spécifiques de la Banque des Territoires.

Fonctions impactées

Le projet impacte directement les flux de traitement et de validation des prêts en automatisant la revue des documents. Il soutient indirectement les fonctions stratégiques de l’organisation en permettant :  

  • Une mise à disposition plus rapide des prêts aux bailleurs sociaux.  
  • Une meilleure allocation des ressources à la planification stratégique et à la prise de décision.

Le fort parrainage de cette solution d'IA par deux membres du Comité Exécutif a été déterminant pour assurer une gestion du changement et un déploiement efficaces dans nos processus industriels. Ces processus sont soumis à des réglementations financières strictes et au caractère public de nos activités, où les erreurs ne sont pas permises.

Taille de l'organisation

Entreprise de taille intermédiaire (250-5 000 employés)

Localisation

France 

Nom du projet d'IA

AIGen Foundation

Portée et objectifs du projet

AIGen Foundation représente une base technologique innovante pour le développement d’une série d’assistants intelligents, visant à révolutionner les interactions avec les connaissances liées aux métiers couverts par les produits Berger-Levrault. Ces assistants intelligents constituent la première étape d’une transformation majeure dans notre relation avec les utilisateurs. À ce stade, il s’agit principalement de solutions d’intelligence artificielle offrant des avancées notables, telles que la recherche sémantique intégrant l’IA et la génération de réponses via l’IA générative. Ce système vise à dépasser les limites actuelles en permettant à terme à nos utilisateurs d’interroger n’importe quel produit de gestion ou base de données en langage naturel.

AIGen Foundation est une technologie innovante combinant un pipeline avancé de traitement documentaire, une technologie de recherche d’information sémantique et une solution de génération de réponses. Notre solution repose sur les modèles de fondation de Mistral AI, notamment Mistral Large2 et mistral-embed. Ces trois composantes constituent des solutions développées par Berger-Levrault, rendues possibles grâce à des investissements en recherche.

La plateforme a pour objectif de fournir des réponses fiables aux questions des utilisateurs, comme celles des secrétaires de mairie, leur faisant gagner un temps précieux tout en offrant une interaction quotidienne riche et différente. Au-delà de la rapidité, il est essentiel de souligner la qualité et l’exhaustivité des réponses, qui se distinguent des solutions « traditionnelles » couramment utilisées. Une attention particulière a également été portée à la capacité de nos IA à répondre « Je ne sais pas », afin de renforcer la confiance des utilisateurs dans le système.

Tous nos assistants intelligents reposent sur une couche technologique commune, mais chacun est conçu pour répondre à un cas d’usage spécifique, grâce à l’architecture de l’AIGen Foundation. À ce jour, les déclinaisons déployées sont les suivantes :  

  • Assistant intelligent pour l’équipe hotline des collectivités locales françaises de Berger-Levrault ;  
  • Assistant intelligent intégré à la gamme de produits WeMagnus, dédié aux secrétaires des petites collectivités ;  
  • Assistant intelligent associé à la gamme Légibase, qui traite du contenu juridique destiné aux agents des collectivités locales ;  
  • Assistant intelligent pour l’équipe support de la Business Unit canadienne de Berger-Levrault ;  
  • Assistant intelligent pour l’équipe support de la Business Unit espagnole de Berger-Levrault ;  
  • Assistant intelligent intégré à CARL Source, notre solution de gestion de maintenance assistée par ordinateur, destinée aux responsables et techniciens de maintenance.

Les connaissances exploitées par AIGen Foundation proviennent principalement de corpus documentaires élaborés par nos experts métier, nos services support ainsi que des supports pédagogiques des équipes de formation de Berger-Levrault. Les formats de ces documents sont extrêmement variés et sont pris en charge par la plateforme, incluant l’aide en ligne au format HTML, les documentations PDF ou Word, les articles WordPress et les bases de connaissances. Par exemple, dans le cadre des collectivités locales, notre système permet l’exploitation de plus de 22 000 documents produits et réglementaires à la disposition de nos utilisateurs.

Il est important de noter que des évolutions de cette base technologique sont en cours, visant à intégrer l’analyse des bases de données structurées de nos produits de gestion et à étendre la prise en charge d’autres formats, tels que les images, l’audio et la vidéo.

Indicateurs de réussite

Nous mesurons régulièrement le succès et l’impact des assistants à l’aide des métriques quantitatives et qualitatives suivantes :  

  • Nombre d’utilisateurs actifs quotidiens
  • Nombre de questions posées  
  • Taux de retours positifs/négatifs sur les réponses du système  
  • Nombre et volume de données dans la base source de la solution  
  • Données de navigation entre nos produits et la solution IA  
  • Quantité de requêtes et de tokens consommés auprès de nos fournisseurs LLM  
  • Gain de temps perçu par les utilisateurs

La prochaine étape consistera à mesurer avec précision les temps moyens de traitement des demandes de support pour nos équipes d’assistance clientèle, ainsi que les bénéfices perçus par nos clients dans leur quotidien grâce à ces nouveaux outils. Une évaluation à long terme nous permettra d’obtenir des données fiables et exploitables.

Taille de l'organisation

Entreprise de taille intermédiaire (250-5 000 employés)

Localisation

France

Nom du projet d'IA

BL.Predict : a Smart IoT Platform For Predictive Maintenance and Energy Efficiency powered by AI

Portée et objectifs du projet

BL Predict est une plateforme interopérable avancée qui combine les atouts de l’IA et de l’Internet des Objets (IoT). Son principal objectif est d’optimiser les conditions opérationnelles des équipements industriels, ainsi que des installations publiques et privées (bâtiments, réseaux, machines) en garantissant une qualité, des performances et une fiabilité supérieures. À la fin de l’année 2024, BL Predict a établi une base client solide, avec des clients qui étendent de plus en plus leur utilisation de la plateforme pour exploiter pleinement l’ensemble de ses fonctionnalités dans des environnements opérationnels en direct.

Au cœur de son fonctionnement, BL Predict repose sur une saisie de données multi-sources, principalement via un réseau sophistiqué de capteurs installés sur l’équipement pour surveiller et interpréter en continu les opérations dans le monde réel, ainsi que via un réseau préexistant de compteurs de ressources. Ces capteurs et compteurs génèrent des flux de données horodatées en temps réel, qui sont traitées pour identifier les comportements anormaux, les dysfonctionnements et les événements irréguliers. Ce traitement en temps réel est crucial pour la predictive maintenance, car détecter les anomalies le plus tôt possible peut prévenir des pannes et perturbations coûteuses. Ce qui distingue BL Predict, c’est son intégration de fonctionnalités adaptatives basées sur l’AI, permettant au système d’évoluer au fil du temps en réponse à des changements de conditions opérationnelles ou à des commandes externes. Cette adaptabilité réduit au minimum les interruptions de production ou la consommation de ressources inutiles et garantit des performances constantes dans des environnements dynamiques. Contrairement aux plateformes IoT conventionnelles qui s’appuient sur des modèles statiques de détection d’anomalies, les modèles intelligents de BL Predict apprennent et s’adaptent en continu, offrant une fiabilité et une pertinence inégalées.

Les efforts de commercialisation de BL Predict ont commencé en janvier 2023 avec la création d’un spin-in dédié au sein de l’organisation Berger-Levrault pour renforcer sa présence sur le marché. Depuis son lancement, la plateforme a été déployée avec succès sur 16 sites clients, et sa montée en échelle rapide témoigne d’une forte adéquation entre l’innovation et la demande du marché. BL Predict est conçu pour répondre à des besoins spécifiques dans divers secteurs verticaux, notamment l’équipement de production industrielle, l’optimisation des ressources dans les environnements urbains et l’amélioration de l’efficacité opérationnelle des installations. Chaque déploiement met l’accent sur une approche ciblée et sectorielle, s’appuyant sur une expertise approfondie en predictive maintenance pour relever les défis et saisir les opportunités propres à ces domaines.

BL Predict fait progresser activement la recherche et le développement dans des domaines d’AI de pointe, en collaborant avec des institutions académiques et des équipes opérationnelles pour maintenir son avantage concurrentiel. Les efforts clés se concentrent sur les modèles d’unsupervised anomaly detection, capables d’identifier des schémas inconnus sans jeux de données prédéfinis, ainsi que sur le federated learning, une approche décentralisée permettant un entraînement collaboratif des modèles tout en préservant la confidentialité des données. Ces initiatives garantissent que BL Predict intègre les dernières avancées en AI, offrant une convivialité ultra-simple, un ROI rapide et des solutions deep-tech innovantes.

L’IA occupe une place centrale dans BL Predict, transformant la predictive maintenance grâce à l’intégration de modèles de machine learning qui détectent des schémas subtils et imperceptibles, au-delà de la perception humaine. Cela renforce la précision et la portée des processus de maintenance, en optimisant l’allocation des ressources, en garantissant des interventions opportunes et en éliminant les actions superflues. Le résultat est une approche hautement efficace, fondée sur les données, qui réduit les coûts, maximise la fiabilité et améliore la performance d’actifs critiques. Un avantage clé de BL Predict réside dans sa capacité à prolonger la durée de vie des actifs, ce qui est particulièrement pertinent pour les objectifs de durabilité au cœur de l’Industry 5.0. En s’appuyant sur des insights pilotés par l’AI, les organisations peuvent gérer de manière proactive l’usure, réduire le gaspillage et accroître la valeur à long terme de leurs investissements. Par ailleurs, l’intégration fluide de la plateforme avec les systèmes existants facilite son adoption dans tous les secteurs, accélérant son impact et garantissant sa compatibilité avec un large éventail de flux de travail opérationnels.

La stratégie commerciale et technique de BL Predict reflète un double objectif : fournir une valeur opérationnelle immédiate tout en faisant progresser des objectifs d’innovation plus larges. En proposant aux clients une plateforme qui combine facilité d’utilisation, ROI rapide et fonctionnalités de pointe, BL Predict s’est imposé comme un leader du marché en predictive maintenance. La plateforme répond non seulement aux défis opérationnels urgents, mais s’aligne également sur les impératifs stratégiques de durabilité, d’efficacité et d’innovation, permettant aux organisations de prospérer dans un paysage industriel de plus en plus complexe et concurrentiel.

Cette double priorité, centrée sur l’excellence opérationnelle et la recherche, garantit que BL Predict reste à la pointe des solutions IoT propulsées par l’AI, permettant aux organisations de découvrir de nouvelles opportunités d’efficacité, de durabilité et de croissance.

En savoir plus 

Taille de l'organisation

Administration publique ou ONG

Localisation

France 

Nom du projet d'IA

PROMETHEE SMARTSHEET

Portée et objectifs du projet

Le projet vise à améliorer les capacités de prise de décision des investisseurs en private equity en développant une solution basée sur l’IA pour la recherche et l’analyse efficace d’informations issues d’un vaste ensemble de documents liés aux investissements. Cette solution répondra au défi d’identifier les informations pertinentes parmi 750 000 documents variés, allant des notes d’investissement et pitch decks à des documents moins pertinents comme les déclarations fiscales et les notes d’entretien.  

Objectifs du projet :

  • Recherche d’informations efficace : Permettre aux investisseurs de localiser et d’accéder rapidement aux données pertinentes dans un large référentiel documentaire grâce à des capacités avancées de recherche IA.  
  • Analyse interactive des données : Fournir un outil de tableau dynamique permettant aux investisseurs d’extraire et d’organiser des informations sur les startups, y compris des indicateurs financiers et des détails sur les fondateurs, en fonction de requêtes spécifiques.  
  • Amélioration de la prise de décision : Optimiser la pertinence et la qualité des insights en affinant les modèles IA et en intégrant des sources de données complètes.
  • Conception centrée sur l’utilisateur : Développer des interfaces et des fonctionnalités intuitives adaptées aux besoins des investisseurs, garantissant une navigation fluide et une facilité d’utilisation.  
  • Rapports automatisés : Générer des rapports concis et pertinents pour soutenir les décisions stratégiques, en moins d’une minute.

Performance durable de l’outil : Assurer une disponibilité élevée du système et atteindre un taux minimum de satisfaction utilisateur grâce à des mises à jour continues et un support efficace.

Indicateurs de succès

  • Précision des réponses : Atteindre au moins 90 % de précision dans les réponses générées par l’IA.  
  • Engagement des utilisateurs : Obtenir un taux d’adoption de 90 % dans les six premiers mois.  
  • Disponibilité du système : Maintenir un taux de disponibilité supérieur à 99 %.  
  • Rapidité de génération des rapports : Produire des rapports en moins de 5 secondes.  
  • Satisfaction des utilisateurs : Atteindre un score de satisfaction utilisateur d’au moins 90 % dans les enquêtes de feedback.  

Périmètre du projet

  • Pipeline robuste d’ingestion pour les 750 000 documents.  
  • Outil de tableau interactif permettant l’extraction et la visualisation dynamique des données en fonction des requêtes des investisseurs.
  • Interface utilisateur ergonomique pour l’outil interactif, garantissant une utilisation intuitive. 
  • Intégration de sources de données supplémentaires pour fournir des insights précieux aux investisseurs.  

Modèles d'IA utilisés

  • Modèles GPT d’OpenAI : Utilisés comme modèles principaux pour les fonctionnalités clés de l’IA, notamment Retrieval-Augmented Generation (RAG), reranking, résumé et recherche de similarité. Ces modèles assurent une compréhension avancée du langage naturel et génèrent des réponses pertinentes et contextuelles pour les investisseurs.  
  • Modèles Claude : Principalement exploités pour les capacités de vision, notamment la transcription des documents en format markdown. Ces modèles servent également de solution de secours en cas de limitations de taux des modèles GPT, de faux positifs liés aux filtres de contenu GPT ou d’autres contraintes opérationnelles.  

En s’appuyant sur des modèles IA de pointe et des indicateurs de succès clairs, ce projet vise à offrir une solution évolutive et à forte valeur ajoutée pour la prise de décision des investisseurs.

Taille de l'organisation

Administration publique ou ONG

Localisation

Royaume-Uni 

Nom du projet d'IA

Product Photo AI Enhancements for Non-Profits: Driving Circular Economy with Innovation

Portée et objectifs du projet

Le projet d'IA vise à améliorer l'efficacité opérationnelle et les standards visuels de la plateforme e-commerce de la British Red Cross en intégrant l'outil avancé de suppression d’arrière-plan de Photoroom. Le périmètre inclut l’adoption, le test et l’optimisation de cette technologie afin d’améliorer la présentation des produits, d’optimiser les flux de travail et de générer des améliorations mesurables des ventes dans plusieurs catégories.  

Objectifs principaux :

  • Définir et standardiser les processus d’édition d’images pouvant être déployés à grande échelle.  
  • Piloter et intégrer complètement Photoroom dans le flux de travail e-commerce.  
  • Augmenter les ventes et le chiffre d’affaires en améliorant le Sell-Through Rate (STR) et l’Average Selling Price (ASP).  
  • Automatiser les tâches chronophages comme la suppression d’arrière-plan afin d’économiser des ressources et d’améliorer la productivité.  
  • Réduire l’impact environnemental en diminuant l’utilisation de matériaux et d’énergie dans la photographie produit.  
  • Intégrer les retours d’expérience pour résoudre des défis tels que la vitesse de traitement par lots et l’amélioration de la qualité des images.  

Pertinence de l’IA

  • L’outil de suppression d’arrière-plan alimenté par l’IA de Photoroom est au cœur du projet.  
  • Il garantit une présentation produit homogène et professionnelle sur des milliers de références uniques.  
  • Il réduit considérablement le temps consacré à l’édition manuelle, améliorant ainsi l’efficacité.  
  • Sa scalabilité permet de traiter de grands volumes d’images avec facilité.  

Données exploitées

  • Les métriques de vente, telles que le STR et l’ASP, sont analysées pour mesurer l’efficacité.  
  • Les données opérationnelles suivent le temps consacré à l’édition d’images et à l’optimisation des processus.  
  • Les retours utilisateurs fournissent des insights sur l’utilisation de l’outil et permettent d’identifier des axes d’amélioration.  

Fonctions impactées

  • E-Commerce : Des visuels améliorés enrichissent l’expérience d’achat et stimulent les ventes.  
  • Marketing : Une meilleure qualité d’image renforce l’image de marque et les actions promotionnelles.  
  • Durabilité : La réduction de l’utilisation des ressources s’aligne sur les objectifs environnementaux.  
  • Opérations : L’automatisation allège la charge de travail, permettant de se concentrer sur des initiatives stratégiques.  
  • Indicateurs de succès  
  • Sell-Through Rate (STR) : Accélération du taux de rotation des articles en ligne.  
  • Average Selling Price (ASP) : Augmentation des prix de vente grâce à une meilleure qualité visuelle.  
  • Gains de temps : Réduction significative des heures consacrées à l’édition manuelle d’images.  
  • Durabilité : Diminution de l’utilisation des matériaux et de l’énergie dans les processus de photographie.  
  • Adoption utilisateur : Retours positifs et intégration réussie de l’outil.

Taille de l'organisation

PME (10-250 employés)

Localisation

France 

Nom du projet d'IA

Automatic video adaptation to article

Portée et objectifs du projet

L’objectif principal de ce projet est de mettre en place un workflow automatisé permettant à l’équipe éditoriale de publier efficacement du contenu (en adaptant des vidéos en articles) sur notre site web, améliorant ainsi considérablement leur productivité.

Le projet a été divisé en deux volets interdépendants :

  • Co-Writing Platform : Un outil collaboratif intégrant des workflows de fact-checking et d’optimisation SEO, permettant l’adaptation de vidéos en articles sous supervision éditoriale.
  • Fully Automated Workflow : Un système de bout en bout pour publier des articles, incluant l’internal linking vers du contenu connexe afin d’améliorer la navigation de l’utilisateur, sans supervision éditoriale.

Ces deux jalons servent de base à l’amélioration itérative du workflow, renforçant la confiance et la fiabilité du processus. À mesure que le système évolue, l’adaptation des articles peut être entièrement automatisée et publiée directement sur le site, accompagnée d’un disclaimer pour maintenir la transparence vis-à-vis de notre audience.

Le projet a impliqué plusieurs fonctions métier, dont l’équipe éditoriale dirigée par le rédacteur en chef, le website product manager chargé de la supervision de l’intégration de la plateforme, ainsi que l’AI product manager et les ingénieurs responsables du développement et de la mise en œuvre des solutions techniques. La direction exécutive a également joué un rôle clé en soutenant et en orientant l’initiative.

Comme input, nous avons utilisé la transcription de vidéos existantes via une API tierce de speech-to-text et le on-the-shelf Claude LLM (voir détails ci-dessous).

Indicateurs de réussite

  • Adaptation Quality : Mesurée par le nombre de hallucinations, les retours de l’équipe éditoriale et les scores SEO fournis par une API tierce.
  • Cost Efficiency : Évaluée en fonction du coût total d’adaptation par article.
  • Online Performance : Évaluée sur la base des impressions, du classement dans les moteurs de recherche et du nombre de visites générées par des articles adaptés par l’IA.

En savoir plus 

Taille de l'organisation

Administration publique ou ONG

Localisation

France 

Nom du projet d'IA

Machine Learning 

Portée et objectifs du projet

  • Réduire le mean time to detection (MTTD) des anomalies de performance de 50 %
  • Prédire les dégradations potentielles du système 30 minutes avant leur occurrence
  • Automatiser l'analyse des causes racines pour les problèmes de performance courants
  • Optimiser l’allocation des ressources en fonction du comportement prédit des applications
  • Réduire les faux positifs de 70 %
  • Identifier et atténuer les schémas de fraude

Pertinence de l’IA

Les outils de monitoring traditionnels avec des seuils statiques n’étaient pas adaptés à notre environnement dynamique. L’IA/ML était essentielle car :  

  • Elle pouvait apprendre les schémas de performance normale sur différentes périodes  
  • Elle pouvait corréler plusieurs métriques pour identifier des schémas de défaillance complexes  
  • Elle pouvait s’adapter aux changements de comportement des applications sans reconfiguration manuelle  
  • Elle pouvait traiter en temps réel le volume massif de données APM  

Données exploitées 

  • Temps de réponse de tous les endpoints API
  • Traces de transactions  
  • Taux et types d’erreurs  
  • Métriques d’utilisation CPU, mémoire et disque  
  • Performance des requêtes base de données  
  • Métriques JVM pour les applications Java  

Modèle appliqué

Nous avons mis en place une approche multi-couches. Détection d’anomalies sur séries temporelles  :

  • Prédiction de charge et planification de capacité  
  • Algorithmes de clustering pour regrouper les schémas de performance similaires et identifier des signatures de problèmes courants  

Fonctions métier impactées

  • Équipe IT Operations (utilisateurs principaux)  
  • Équipes de développement (optimisation des performances)  
  • Service Desk (résolution plus rapide des incidents)  

En savoir plus 

Taille de l'organisation

CarTow.ie Breakdown Assistance Limited 

Localisation

Irlande

Nom du projet d'IA

AI Pilot for Software CE Certification on Contact Centre Services for Automotive Services, Vehicle Recovery Operations and First Notification of Loss 

Portée et objectifs du projet

Cette initiative d'IA améliore le Contact Center de CarTow.ie en intégrant les solutions de Protostars avec Spire Software. Elle se concentre sur l’automatisation du dispatch, la garantie de la compliance et la fourniture d’insights pour optimiser la performance et la scalability.

  • Principaux objectifs :
    • Automated Dispatch : utiliser l'IA pour améliorer la job allocation, réduire les temps de réponse et optimiser les ressources.  
    • Code Compliance : assurer un logiciel sûr et conforme à la réglementation pour respecter les standards MNC.
    • Real-Time Insights : exploiter les données prédictives pour prévenir les problèmes et améliorer la prise de décision.
    • Policy Alignment : vérifier les politiques par rapport aux contrôles de compliance pour une gouvernance renforcée.
    • Scalability : développer des systèmes qui répondent aux demandes croissantes tout en maintenant une haute performance.

Pertinence de l'IA

L'IA automatise les process, améliore la prise de décision, renforce la sécurité et fournit des insights proactifs. Elle réduit les tâches manuelles, améliore l’efficacité et garantit la scalability.

Données utilisées

  • Codebase : référentiels axés sur la conformité.
  • Operational Data : logs et indicateurs d'interaction client.
  • Policies : normes et cadre de conformité.
  • Performance Metrics : données historiques pour l'utilisation des ressources.
  • Financial Controls : données budgétaires et prévisionnelles.

Modèle appliqué

  • RAG : fait correspondre le code pertinent aux compliance standards.  
  • LLMs : génèrent des insights pour la compliance et l’optimisation opérationnelle.  
  • Custom AI : optimiser le dispatch et la maintenance prédictive.

Fonctions impactées

  • Operations : process de répartition efficaces.
  • Compliance : garantir le respect des normes.
  • Customer Service : améliorer la satisfaction.
  • Technical Teams : intégration rationnelle du système.
  • Leadership : prise de décision éclairée grâce aux données remontées par l'IA.

Indicateurs de réussite

  • Répartition des tâches et délais de réalisation réduits.
  • Taux de validation de conformité élevés. Amélioration de la satisfaction client.
  • Baisse des coûts opérationnels.
  • Performances évolutives et fiables.

L'intégration par IA de Protostars donne à CarTow.ie des outils avancés pour surmonter les challenges, établissant un benchmark pour l’assistance routière pilotée par IA.

Taille de l'organisation

Entreprise de taille intermédiaire (250-5 000 employés)

Localisation

France 

Nom du projet d'IA

"Adaptive learning" training courses

Portée et objectifs du projet

Ce projet d'IA représente une avancée majeure dans la formation professionnelle en développant une solution d’apprentissage adaptatif qui personnalise l’expérience de formation pour chaque participant. Son périmètre inclut l’amélioration de quatre formations existantes du catalogue Cegos, avec pour objectif de proposer cette solution innovante à plus de 1 000 participants. L’intelligence artificielle est intégrée tout au long du parcours d’apprentissage, depuis l’évaluation initiale jusqu’à l’évaluation finale, garantissant un processus de développement des compétences sur mesure et efficace.

Les principaux objectifs de ce projet sont de créer une expérience d’apprentissage plus engageante et efficace, d’améliorer l’acquisition et la rétention des compétences, et d’établir un nouveau standard dans l’industrie pour la formation professionnelle personnalisée. Plus précisément, il vise à recueillir au moins 300 avis détaillés via des enquêtes qualitatives et quantitatives, avec un taux de réponse attendu de 30 %. Le projet ambitionne également de démontrer la scalabilité de la solution basée sur l’IA, facilitant ainsi son extension à l’ensemble du catalogue de formations de Cegos.

Ce projet aura un impact significatif sur l’offre de formation et de développement de Cegos, en renforçant sa capacité à proposer des expériences d’apprentissage personnalisées, efficientes et performantes. Il influencera également le processus de création de contenu, en optimisant potentiellement le développement de nouveaux cours et supports pédagogiques. De plus, il affectera les capacités d’analyse et de reporting des données de l’entreprise, en fournissant des insights plus approfondis sur la progression des apprenants et l’efficacité des formations.  

Le succès de cette solution d’apprentissage adaptatif augmentée par l’IA sera mesuré à travers plusieurs indicateurs clés de performance :  

  • Acquisition des compétences, évaluée via des quiz adaptatifs  
  • Taux d’utilisation des ressources mises à disposition  
  • Progression des participants dans la maîtrise des compétences  
  • Satisfaction globale des apprenants vis-à-vis de leur parcours  

En se concentrant sur ces métriques, Cegos s’assure que le projet ne se limite pas à l’atteinte de ses objectifs immédiats, mais constitue également une base pour une amélioration continue et une expansion à l’ensemble de son portefeuille de formations. Cette approche basée sur les données permettra un affinement itératif des modèles IA et des parcours d’apprentissage, conduisant ainsi à des solutions de formation toujours plus efficaces et personnalisées.

Taille de l'organisation

Administration publique ou ONG

Localisation

France 

Nom du projet de l'IA

UrgentIA

Portée et objectifs du projet

La solution Milvue analyse les images produites dans la salle de X-ray, en les envoyant à la fois au système d’interprétation des radiologists et directement au serveur virtualisé de Milvue. L’analyse par AI est extrêmement rapide, fournissant les résultats au serveur des radiologists. Ces résultats incluent un carré plein mettant en évidence les zones présentant une forte suspicion de lésions osseuses ou de tissus mous, un carré en pointillé en cas d’incertitude et aucune marque si l’examen est jugé normal. La prédiction négative value de la solution d'IA est proche de 99 %, ce qui signifie que si aucune lésion n’est détectée par l’IA, la probabilité d’un faux négatif est très faible. Cependant, le logiciel génère des false positives, qui doivent être écartés par le médecin.

Ce workflow a été mis en œuvre de manière collaborative par les radiologues, les médecins urgentistes et Milvue. Les patients sont informés de ce dispositif. Un format de rapport standardisé a été établi, indiquant que les images ont été analysées par une solution AI, avec l’information transmise aux médecins prescripteurs (médecins urgentistes). Les médecins urgentistes peuvent consulter les radiologues en cas de doute, et les patients peuvent demander un avis complémentaire ou un examen d’imagerie supplémentaire, tel qu’un CT scan de la zone douloureuse.

La solution est en place depuis plusieurs mois et a été bien accueillie par les radiologues, les médecins urgentistes et les patients. Aucune plainte n’a été recensée jusqu’à présent. Une analyse menée par l’assureur de l’hôpital a validé l’organisation du parcours de soins.

Taille de l'organisation

PME (10-250 employés)

Localisation

Inde 

Nom du projet d'IA

Intelligent Data Solution for Disaster Risk Reduction (IDS-DRR) in Asia

Portée et objectifs du projet

IDS-DRR permet de surveiller les risques de catastrophe et le niveau de préparation sur des périodes définies pour les unités de décision à l’échelle infra-nationale (c’est-à-dire l’État), du district et locale (sous-district). Les indicateurs et la méthodologie sont soigneusement sélectionnés en alignement avec les cadres globaux et nationaux de réduction des risques de catastrophe, notamment le Sendai Framework for Disaster Risk Reduction 2015-2030, qui souligne la nécessité de passer de la gestion des impacts des catastrophes à la gestion et à la réduction des risques grâce à un accès constant à des données désagrégées et au renforcement des capacités pour l’analyse des évaluations des risques. Pour mettre en œuvre le Sendai Framework, nous suivons les étapes suivantes avec IDS-DRR :

Identification et collecte des données

En utilisant une approche de recherche mixte combinant des visites de terrain et des enquêtes documentaires, les chercheurs ont acquis une compréhension approfondie du sujet pour définir et classer les données sur les inondations en cinq catégories : (1) aléa (inondation), (2) exposition (données démographiques), (3) vulnérabilité (y compris pertes et dommages) et (4) capacité d’adaptation (réponses gouvernementales). Ce projet exploite des données ouvertes issues de divers sites publics hébergeant des informations sous différents formats, tels que des images géoréférencées, des fichiers PDF et d'autres formats de données structurées comme CSV ou Excel. L’acquisition des données repose sur le web scraping, où des programmes automatisés extraient directement des informations spécifiques de ces sites.

Traitement des données

Les données collectées sont traitées pour être intégrées dans le modèle de données. Cette étape comprend la compilation, le nettoyage, la standardisation et la géocodification des ensembles de données afin de les rendre interopérables et exploitables pour l’analyse.

Modélisation des données

Un score de risque est calculé pour chaque unité de décision en combinant plusieurs facteurs, à savoir l’aléa, l’exposition, la vulnérabilité et les capacités d’adaptation, dans le but d’identifier les zones critiques nécessitant une intervention stratégique pour renforcer la préparation. Le modèle de données repose sur une combinaison de modèles ML (basés sur Random Forest), de méthodes de clustering, d’analyses fréquentielles, de techniques statistiques non paramétriques (Data Envelopment Analysis - DEA) et d’analyse décisionnelle multicritère utilisant la Technique for Order of Preference by Similarity to Ideal Solution (TOPSIS).

Plateforme de données

Suite à une recherche approfondie sur les besoins des utilisateurs, nous avons développé une plateforme open data complète qui héberge les analyses issues du modèle de données ainsi que les ensembles de données bruts, permettant à divers acteurs d’interagir avec la plateforme.

En savoir plus 

Taille de l'organisation

PME (10-250 employés)

Localisation

France

Nom du projet d'IA

Cleverlearn Odyssea

Portée et objectifs du projet

La portée du projet Cleverlearn Odyssea AI est de créer une plateforme qui améliore l’expérience d’apprentissage pour les étudiants et les enseignants en s’appuyant sur l’artificial intelligence pour proposer des parcours éducatifs personnalisés, efficaces et motivants. Le projet cible les établissements d’enseignement supérieur et les organismes de formation continue, avec pour objectif de répondre à leur besoin de solutions d’apprentissage individualisées et évolutives, afin d’améliorer à la fois les résultats des apprenants et l’efficacité pédagogique.

Les objectifs principaux de Cleverlearn Odyssea sont au nombre de trois. D’abord, fournir aux étudiants un parcours d’apprentissage personnalisé qui s’adapte en temps réel à leurs besoins et à leurs capacités. Cela passe par une structure competency-based, où chaque sujet est décomposé en compétences granulaires, soutenues par de courtes leçons, des exemples et des tests ciblés. Ensuite, permettre aux enseignants de disposer d’analytics et de dashboards en temps réel pour suivre la progression des étudiants, leur fixer des objectifs et les monitorer, qu’il s’agisse d’un seul apprenant ou d’une classe entière. Enfin, la plateforme vise à accroître l’engagement et la motivation des étudiants en appliquant des principes neuroscientifiques tels que le flow state et la metacognition, afin de les maintenir dans un niveau de défi optimal, sans les submerger.

L’IA est la pierre angulaire de ce projet, garantissant que la plateforme puisse réaliser ses ambitions. Le modèle d'IA prédictive propriétaire, développé en collaboration avec CentraleSupélec, détermine le parcours d’apprentissage optimal pour chaque étudiant en analysant ses performances, en identifiant ses lacunes et en prédisant ses prochaines étapes d’amélioration. Inspiré des systèmes de notation ELO utilisés dans le gaming, ce modèle se révèle très performant, même avec de petits data sets, le rendant accessible et efficace pour des établissements aux volumes d’apprenants variés. Cette capacité prédictive autorise une combinaison unique d’adaptabilité et d’évolutivité, distinguant la plateforme des systèmes e-learning traditionnels.

Les données exploitées dans le cadre du projet incluent les indicateurs de performance issus des évaluations, l’historique de comportement d’apprentissage et les schémas d’engagement. La plateforme s’appuie sur ces informations pour affiner ses recommandations et optimiser les parcours d’apprentissage. De plus, des données agrégées sont mises à la disposition des enseignants sous forme de tableaux de bord, leur permettant d’identifier des tendances, de mesurer les progrès par rapport aux objectifs définis et d’ajuster leurs stratégies pédagogiques en conséquence.

Le modèle d'IA prédictive utilisé est conçu pour donner la priorité à l’interprétabilité, à la scalabilité et aux considérations éthiques. Son architecture s’articule autour de la transparence et de la frugalité, garantissant un impact environnemental minimal tout en maintenant la souveraineté sur des données éducatives sensibles. Ces choix de conception sont alignés sur les principes d'une IA responsable, qui constituent une valeur fondamentale de Cleverlearn.

Les fonctions métier impactées par le projet incluent la conception des programmes, la mise en œuvre pédagogique et le suivi des performances. Pour les établissements scolaires, Cleverlearn Odyssea propose un moyen simplifié d’aligner leurs programmes sur des cadres basés sur les compétences, tandis que les enseignants bénéficient d’analyses automatisées et alimentées par les données, ce qui réduit leur charge administrative. Les étudiants, bénéficiaires finaux, profitent d’un processus d’apprentissage plus engageant et plus efficace, adapté à leurs besoins.

Les indicateurs de réussite du projet sont à la fois quantitatifs et qualitatifs. Du point de vue quantitatif, on retrouve la progression des étudiants dans la maîtrise des compétences, l’engagement mesuré par le temps passé sur la plateforme - en particulier pour ceux présentant des difficultés d’apprentissage - et le ratio du temps total travaillé par les étudiants par rapport à celui des enseignants, un paramètre clé pour les établissements scolaires. De plus, le feedback des étudiants, recueilli via le NPS, apporte un éclairage sur leur satisfaction. Sur le plan qualitatif, l’engagement et le feedback des enseignants sont cruciaux, en se concentrant sur la manière dont les étudiants améliorent leur concentration et leur participation en classe grâce à ces parcours d’apprentissage personnalisés.

Taille de l'organisation

Grande entreprise (plus de 5 000 employés)

Localisation

France 

Nom du projet d'IA

GM (Customer) Copilot

Portée et objectifs du projet IA

Dans le cadre de sa stratégie haut de gamme, Club Med a développé ses propres canaux de distribution (site web, centres d’appels, réseaux sociaux, etc.) pour promouvoir et vendre ses 70 resorts premium dans 40 pays. Ces canaux représentent plus de 70 % de ses 2 milliards d’euros de ventes annuelles. Cependant, ce succès a engendré des défis opérationnels, avec plus d’un million de demandes clients en 2024, un chiffre en constante augmentation, couvrant des sujets tels que les caractéristiques des resorts, les promotions, les prix, les services et les informations générales.  

L’analyse de deux ans d’interactions clients (enregistrements des centres d’appels et conversations sur les plateformes de messagerie) a révélé qu’environ 60 % de ces demandes pouvaient être traitées par l’IA, sans valeur ajoutée d’une intervention humaine. Les recherches ont également montré que 54 % des consommateurs préfèrent les marques offrant des réponses rapides. Ces conclusions ont mis en évidence que l’IA pouvait considérablement améliorer l’expérience client et l’efficacité opérationnelle.  

Début 2024, en cohérence avec sa vision de transformation digitale, Club Med a lancé GM Copilot, une solution d’IA conversationnelle sur WhatsApp, l’un de ses principaux canaux de communication client. L’IA a été conçue pour répondre efficacement aux demandes courantes, permettant aux agents humains de se concentrer sur des requêtes plus complexes et à forte valeur ajoutée. GM Copilot repose sur deux agents IA spécialisés, développés en étroite collaboration avec les équipes métiers et technologiques :  

  • Quote Automation : collecte les critères de voyage (destination, nombre de participants, durée, date de départ et âge des enfants) et génère un devis personnalisé pour le séjour demandé.  
  • Product Info Automation : explore plus de 100 variables et fournit des réponses aux questions fréquentes sur les resorts Club Med, telles que les équipements, les activités et les politiques.  

Les objectifs principaux de GM Copilot sont de :  

  • Améliorer l’expérience client : offrir des réponses rapides, précises et accessibles 24/7, tout en maintenant la possibilité d’une interaction humaine si nécessaire.  
  • Renforcer l’efficacité commerciale : automatiser les requêtes répétitives, réduire la charge des agents et leur permettre de se concentrer sur des tâches à plus forte valeur ajoutée.  

Pour garantir une expérience fluide, la solution a été co-conçue avec les équipes commerciales et marketing afin d’aligner l’outil sur les attentes des clients, les exigences spécifiques des marchés et les directives métier. 

Un pilote de six mois a été mené au Brésil, faisant de Club Med l’une des premières entreprises touristiques à intégrer des LLM directement dans ses processus métier. Ce pilote a produit des résultats exceptionnels :  

  • 40 à 50 % des demandes ont reçu une réponse de l’IA.  
  • 29 % des conversations ont été entièrement gérées par l’IA sans intervention humaine.  
  • 90 % de précision dans les réponses (validée par une analyse manuelle rigoureuse).  
  • Réduction de 3 heures du temps d’attente moyen des clients sur WhatsApp.  
  • 80 % de satisfaction client pour l’expérience avec l’IA.  

Suite à ce succès, GM Copilot a été déployé dans six nouveaux marchés (France, Royaume-Uni, Singapour, Malaisie, Suisse et Belgique), avec plus de 30 000 conversations traitées en quelques mois. 

Feuille de route future

Club Med prévoit de lancer GM Copilot dans l’ensemble de ses 40 marchés en 2025 pour poursuivre son expansion et renforcer le projet à travers deux initiatives clés :  

  • AI Agentic Platform : développer un système d’agents IA interconnectés capables de collaborer de manière fluide pour traiter diverses demandes clients et employés sur plusieurs canaux (WhatsApp, sites web, applications). Chaque demande sera acheminée vers l’agent IA le plus pertinent pour garantir des réponses adaptées.  
  • Capacités améliorées : étendre les fonctionnalités de GM Copilot en intégrant un parcours de réservation complet, en connectant de nouvelles sources de données pour enrichir les informations produits et en développant des agents IA supplémentaires pour fournir des insights commerciaux.  

En suivant un cadre de développement IA structuré et des principes éthiques, Club Med a intégré GM Copilot comme un élément central de sa stratégie digitale. Cette innovation renforce non seulement son leadership technologique, mais confirme également son engagement à offrir une satisfaction client optimale et une excellence opérationnelle.

En savoir plus 

Taille de l'organisation

Grande entreprise (plus de 5 000 employés)

Localisation

France 

Nom du projet d'IA

SMART SHIP Project

Portée et objectifs du projet

Le projet Smartship est conçu pour améliorer les opérations maritimes grâce à deux principaux cas d’utilisation : Dynamic Routing Models (Digital Twin) et Sensor Data Mapping : Dynamic Routing Models – The Digital Twin

Scope : 

  • Développer des jumeaux numériques pour les navires en utilisant une approche hybride qui intègre des principes physiques avec des algorithmes de machine learning.
  • Améliorer l’efficacité de la planification de la route en prédisant avec précision la consommation de fuel, la résistance du navire et les conditions de fonctionnement du moteur.  

Objectifs :  

  • Améliorer les prévisions de consommation de fuel afin d’optimiser les trajets et de réduire l’utilisation de carburant.  
  • Prédire des variables clés comme la résistance du navire et la performance du moteur pour une meilleure planification de la maintenance.  
  • Fournir des scenario simulations en temps réel pour optimiser les décisions opérationnelles et prolonger la durée de vie du navire.  

Pertinence de l'IA

  • L’IA permet de créer des jumeaux numériques précis en combinant des algorithmes de routing dynamique avec des modèles de performance.  
  • Les algorithmes de Machine Learning affinent les prévisions, permettant un routing plus précis et plus efficace.  

Données exploitées

  • Données des capteurs embarqués, y compris les mesures de consommation de fuel, les relevés de résistance du navire et les rapports sur l'état du moteur.
  • Données de performance historiques pour entraîner les modèles de Machine Learning.  

Modèle appliqué

  • Des modèles hybrides combinant principes physiques et les algorithmes de Machine Learning pour créer des jumeaux numériques.

Fonctions impactées

  • Operations : Efficacité accrue du routing et réduction de la consommation de fuel.  
  • Maintenance : Meilleure planification grâce à la maintenance prédictive.  
  • Durabilité : Baisse des émissions contribuant aux objectifs environnementaux.  

Indicateurs de réussite

  • Réduction de la consommation de fuel et des émissions.  
  • Meilleure précision des prévisions de performance.  
  • Amélioration des plannings de maintenance et de la fiabilité des navires.  

Supporting the Mapping from Onboard Sensors

Taille de l'organisation

Grande entreprise (plus de 5 000 employés)

Localisation

France 

Nom du projet d'IA

INFRACARE

Portée et objectifs du projet

Le projet INFRACARE utilise l’intelligence artificielle (IA) pour améliorer l’efficacité de la gestion des routes. L’IA est employée pour la détection automatique des défauts routiers, y compris les nids-de-poule, les fissures et le faïençage. Nous exploitons des données annotées par les experts routiers de Colas, issues d’images capturées par des caméras GoPro, afin d’entraîner un algorithme de computer vision.

Les principaux objectifs du projet sont :

  • Fournir une méthode simplifiée d’évaluation de l’état du réseau routier grâce à des capteurs légers (caméras GoPro) et des algorithmes d’IA.
  • Optimiser les coûts de maintenance grâce à des évaluations améliorées, une meilleure planification et des décisions basées sur les données.
  • Améliorer la satisfaction des usagers par une maintenance proactive des routes.
  • Faciliter la prise de décision des élus et des services techniques.

L’IA permet une analyse précise et rapide de l’état des routes, transformant un processus traditionnellement long et manuel. En détectant les dégradations mineures avant qu’elles ne s’aggravent, l’IA permet d’intervenir de manière préventive et en temps opportun. De plus, la solution IA peut être déployée à grande échelle et accessible à toutes les municipalités.

L’IA traite les données collectées à partir de caméras GoPro montées sur des véhicules, capturant des images des routes. Chaque image est anonymisée conformément au RGPD avant d’être analysée par l’algorithme INFRACARE pour détecter les fissures, les nids-de-poule et autres types de détériorations. D’autres données sont également prises en compte, notamment les informations du réseau routier, les évaluations historiques pour comparer l’évolution de l’état des routes, ainsi que la détection des panneaux de signalisation et des marquages au sol.

D’un point de vue technique, nous utilisons un modèle de machine learning (YOLOv8) entraîné sur des images annotées par les experts de Colas pour développer l’algorithme INFRACARE (plus de détails sont disponibles en section 3.2).

Plusieurs fonctions métier sont impactées par ce projet :

  • Colas Digital Solutions : Équipe d’innovation et expertise en data science.
  • Colas Core Center : Division centrale R&D apportant l’expertise routière et validant la précision de l’algorithme IA.
  • Colas Local Agency : Aide à identifier les problématiques spécifiques à résoudre par la solution IA.
  • Colas Business Development Team : Promotion des bénéfices de la solution.

Nous utilisons deux types de métriques pour évaluer la performance du projet. La première concerne l’algorithme IA, dont nous mesurons la précision via le F1 Score et le mAP50. De plus, nous avons mis en place une méthodologie "Trust AI" afin de :

  • Développer notre IA de manière responsable (en assurant la conformité avec le RGPD, l’AI Act, etc.).
  • Aligner notre approche avec la réglementation européenne.
  • Instaurer la confiance auprès de nos clients.

Cette méthodologie a été certifiée par le LNE (Laboratoire National d’Essais et de Métrologie), faisant de nous la première entreprise industrielle à obtenir une certification pour notre "Méthodologie de développement IA" par un organisme tiers reconnu.

Nous évaluons également les bénéfices globaux de la solution INFRACARE d’un point de vue métier, notamment :

  • Optimisation des coûts : Réduction des coûts de maintenance grâce à la prévention des réparations majeures et l’adoption d’une approche de maintenance préventive.
  • Satisfaction des usagers : Amélioration de l’expérience des usagers grâce à des outils d’évaluation et de planification clairs et pertinents.
  • Performance environnementale : Réduction de l’empreinte carbone liée aux travaux routiers grâce à une meilleure planification des interventions.
  • Efficacité des processus : Amélioration de la communication et de la prise de décision entre les différents acteurs, y compris les élus, les services techniques et les entreprises de travaux publics.

Dès sa conception, INFRACARE a été pensé comme un outil innovant et stratégique visant à renforcer la durabilité et l’efficacité de la gestion des infrastructures routières par les collectivités locales, en intégrant les technologies d’intelligence artificielle à chaque étape du processus.

Taille de l'organisation

Grande entreprise (plus de 5 000 employés)

Localisation

France 

Nom du projet d'IA

Protect payments in real time

Portée et objectifs du projet

La fraude de paiement repose de plus en plus sur l’exploitation des faiblesses humaines. Bien que les mesures préventives puissent sensibiliser les utilisateurs, elles ne suffisent pas à contenir l’évolution des pratiques des fraudeurs en social engineering et en vol de données.

Les services de paiement les plus utilisés en France sont électroniques, comme les cartes (61 % des transactions, 2,4 % des montants en 2023) et les virements (17,6 % des transactions, 89 % des montants). Les systèmes de communication permettant ces paiements quotidiens reposent sur l’interconnexion des IS des acteurs constituant les différents maillons de la chaîne de paiement.

Pour les banques du Groupe, il est impératif de protéger leurs clients contre la fraude. Crédit Agricole Payment Services investit significativement pour offrir des solutions innovantes, performantes, sécurisées et robustes.

Cependant, dans un monde en évolution rapide, il est tout aussi crucial de permettre aux citoyens d’utiliser leurs moyens de paiement sans encombre et sans interruption. En matière de prévention de la fraude, il s’agit de protéger chacun de façon imperceptible, en quelques millisecondes, dans un environnement où les fraudeurs utilisent des techniques de plus en plus sophistiquées.

L’objectif de Crédit Agricole Payment Services est de tirer parti de technologies permettant au groupe de proposer un service sûr, fluide, rapide et répondant aux attentes des clients. Par conséquent, l'IA doit être efficace, performante et fournir un service de qualité, discrètement intégré dans l’usage quotidien des clients. L'IA appliquée à la détection de la fraude de paiement répond à ces exigences : elle traite des milliards de données en temps réel, évalue chaque transaction dans un cadre complet de traitement de paiement et apprend en continu de ses nombreux succès et échecs pour améliorer sa capacité à détecter de nouvelles tentatives de fraude.

Dans ce contexte d’exploitation de données massives, d’identification de schémas communs dans les comportements frauduleux, de traitement en temps réel et d’amélioration des prédictions, l’utilisation de modèles d'IA est pleinement justifiée.

L’automatisation de la détection de fraude de masse est une réponse efficace pour protéger les citoyens, et l'IA se révèle donc un outil naturel pour y parvenir. En déjouant les tentatives de fraude, ces modèles d'IA contribuent à renforcer la confiance dans les moyens de paiement.

Dans le cadre de la détection en temps réel de la fraude aux paiements bancaires, les données exploitées incluent, entre autres :

  • Des informations sur l’utilisateur des services de paiement
  • Des informations sur le moyen de paiement
  • Des informations liées au contexte de paiement

Les modèles déployés en temps réel sont des systèmes hybrides constitués de business expert systems combinés à des modèles de Machine Learning. Des modèles sont également utilisés pour suivre les retours générés par le système en production et l’améliorer en continu.

Garantissant des temps de réponse de quelques millisecondes, cette utilisation de l’IA permet de protéger les porteurs de cartes contre les actions des fraudeurs en fournissant un risk score pour quantifier le risque de fraude (vol/perte de carte, usurpation d’identité, phishing via un changement de comportement, etc.) avant l’autorisation réelle du paiement.

Une collaboration agile avec les institutions de paiement du Groupe permet d’améliorer continuellement le modèle. La collaboration entre Data experts, technical experts et fraud experts est un facteur essentiel dans ce projet. Plus particulièrement, une approche collaborative menée par les Business Units a été adoptée, associant fraud analysts, IT teams et Data Scientists, afin de s’assurer que la solution réponde aux besoins opérationnels et aux objectifs stratégiques.

Le succès du projet est mesuré à l’aide d’indicateurs d'IA classiques tels que le recall ou taux de détection (true positive / (true positive + true negative)), le taux de précision (nombre de true positives / somme (true positive + false positive)), le F1-score et le taux de false positives (cible à 0 %).

Cependant, ce projet s’inscrit dans les objectifs plus larges de satisfaction globale de la clientèle de Crédit Agricole Payment Services : en 2023, CAPS a enregistré un NPS (Net Promoter Score) historique de +25 et une note de satisfaction globale de 7,9/10. Cet indice est en progression constante depuis sept ans.

En savoir plus 

Taille de l'organisme

Entreprise de taille intermédiaire (250-5 000 employés)

Localisation

France 

Nom du projet d'IA

AI and Computer Vision for Leather Traceability

Portée et objectifs du projet

Le projet de reconnaissance de caractères utilisant l’IA pour la traçabilité s’inscrit dans une initiative plus large de traçabilité. Il constitue un élément indispensable de la solution.  

Avant de développer les algorithmes, il était nécessaire de générer les données requises pour l’entraînement. Une partie du projet a donc été consacrée à la création d’une machine de marquage industriel, qui a été installée sur des sites industriels.  

Une fois cette machine opérationnelle, CTC a déployé des systèmes de vision—soit avec des caméras matricielles, soit avec des caméras linéaires—pour capturer les marquages sur le cuir et constituer une base de données. Cette phase a permis de développer un ensemble de données substantiel à partir d’images réelles issues de tanneries. L’importance de l’utilisation de données de production est indiscutable et évidente, car chaque tannerie emploie des procédés différents qui influencent les peaux de manière distincte. De plus, même au sein d’une même tannerie, l’apparence des marquages dans les images peut varier considérablement. Ce jeu de données est précieux car il couvre un large éventail de variations de marquage, ce qui est essentiel pour rendre les algorithmes suffisamment génériques et applicables dans n’importe quelle tannerie.  

Ensuite, nous nous sommes concentrés sur l’annotation, avec une partie du travail réalisée en interne et une autre sous-traitée. Assurer la qualité et la cohérence des annotations a demandé un effort considérable, aboutissant à une base de données pertinente, efficace et propre.  

Enfin, CTC a développé des algorithmes de lecture pour extraire le code unitaire de chaque peau. Cela a nécessité l’utilisation combinée d’algorithmes tels que RetinaNet, VGG et LeNet pour la détection, la classification et la régression.  

Sans l’IA, il n’aurait pas été possible de généraliser la lecture de ces codes en raison des nombreuses variations non contrôlées introduites au cours du processus de tannage.  

Nos métriques d’évaluation de l’efficacité des algorithmes se répartissent en deux grandes catégories. D’une part, les métriques spécifiques à l’IA, comme le mean Average Precision (mAP) et l’Intersection over Union (IoU) accuracy. D’autre part, la métrique clé du projet : le pourcentage de marquages lus correctement à 100 %, qui constitue l’indicateur principal pour les acteurs industriels en matière de traçabilité.

Taille de l'organisme

PME (10-250 employés)

Localisation

France 

Nom du projet d'IA

TrendLens AI: Automating Strategy Generation Through Data-Driven Insights

Portée et objectifs du projet

Comme mentionné précédemment chez Descartes & Mauss, avant le TrendLens AI project, la construction d’un customer’s framework prenait au moins 3 mois pour une équipe de 5 consultants à temps plein. L’objectif du TrendLens project n’est pas seulement d’automatiser ce processus, mais aussi de l’améliorer. L’objectif principal est de réduire le temps nécessaire à la construction d’un customer’s framework de 3 mois à 1 semaine ! Le deuxième objectif est de capturer des informations qu’une petite équipe d’humains ne pourrait pas récupérer. Pour y parvenir, nous avons développé trois briques :

  • La première brique est une brique de data scrapping et cleaning : dans cette partie, nous effectuons un scraping d’une grande quantité (entre 100,000 et 1,000,000 de documents) concernant l’entreprise. Il est clair qu’aucun humain ne peut ingérer une telle quantité de documents, donc l’AI nous permet d’être bien plus exhaustifs que ne l’étaient nos consultants. Nous mesurons la complétude des données en calculant des métriques et en vérifiant, grâce à un sous-échantillonnage, si celles-ci restent stationnaires. Nous mesurons également la cohérence et la précision des données.
  • La deuxième brique est une brique de topic modeling + genAI dans laquelle nous créons des tendances à partir des documents nettoyés provenant de la brick 1. Nous voyons que nous pouvons créer des tendances et des mots-clés associés de manière beaucoup plus exhaustive, et que cela a un impact positif sur l’équipe de conseil. Nous utilisons également GenAI pour générer une description claire et une ou plusieurs images (quand cela est pertinent) de chaque tendance. Nous mesurons ensuite le taux de tendances retenues par les consultants (nous le voulons le plus proche possible de 1). Nous voulons aussi que les consultants n’ajoutent pas d’autres tendances, et nous mesurons le taux de tendances issues de cette brick 2 dans l’ensemble des tendances finales présentées au client. Enfin, nous évaluons également la cohérence et la clarté de ces tendances.
  • La troisième brique est une brique pour générer les stratégies futures. En utilisant les tendances de la Brick 2, ainsi qu’un “digital twin” sous forme de Knowledge Graph que nous avons créé pour l’entreprise cliente, nous générons les stratégies gagnantes pour le futur. Dans cette brick, nous utilisons GenAI, Knowledge Graphs et Agents. L’entreprise est en effet représentée comme une ontology, basée sur des données publiques et privées, et structurée selon 7 dimensions, depuis le supply chain jusqu’à la distribution. Par la suite, nous prévoyons d’ajouter encore une couche de virtual consumer, afin de simuler également le comportement des consommateurs et d’évaluer le succès potentiel de la stratégie.

En savoir plus 

Taille de l'organisation

Administration publique ou ONG

Localisation

France 

Nom du projet d'IA

Llamandement : from a handycraft solution to generalized AI-serving

Portée et objectifs du projet

La division juridique connaît des périodes de travail intense liées aux amendements législatifs lors du processus du Projet de Loi de Finances. Bien que leurs tâches soient multiples, les applications d’intelligence artificielle pourraient améliorer spécifiquement deux fonctions critiques :  

Premièrement, l’attribution automatisée des amendements aux services gouvernementaux, départements et organismes administratifs compétents pour la formulation des réponses techniques et politiques.

Deuxièmement, la synthèse efficace d’un grand nombre d’amendements, générant des résumés thématiques concis pour faciliter la priorisation gouvernementale et optimiser la réponse.  

Les contraintes opérationnelles actuelles, en particulier l’absence de solutions technologiques, ont nécessité le déploiement d’environ cinq experts juridiques sur tout un week-end pour traiter manuellement ces amendements. Cette approche s’est révélée sous-optimale en raison des erreurs induites par la fatigue et de l’utilisation inefficace des ressources expertes pour une tâche essentiellement mécanique de classification. De plus, la durée du processus d’attribution a empêché l’achèvement de la phase tout aussi essentielle de synthèse, pourtant cruciale pour la prise de décision gouvernementale.  

L’architecture de la solution mise en œuvre repose sur deux approches computationnelles distinctes :  

Le mécanisme d’attribution utilise des méthodologies fondamentales de Natural Language Processing (NLP). Les classifications initiales sont effectuées par un mapping lexical technique propre à chaque service, nécessitant un investissement préalable dans le développement de dictionnaires spécialisés. Les amendements non classifiés font ensuite l’objet d’une analyse de similarité avec les attributions historiques et les amendements en cours, en utilisant des algorithmes de plus proches voisins pour déterminer l’affectation appropriée.  

Chaque amendement est ensuite soumis à un processus de synthèse automatisée avant distribution. Les paramètres de synthèse ont été optimisés grâce à un travail itératif de prompt engineering, mettant particulièrement l’accent sur l’extraction des données numériques et la préservation de la terminologie technique.

Pour évaluer l’efficacité des différents modèles de synthèse dans notre recherche, nous avons employé une métrique conçue pour s’aligner au plus près du jugement professionnel humain. Un panel de dix rédacteurs fiscaux expérimentés a participé à un processus d’évaluation en aveugle, notant la qualité des résumés générés par différentes méthodologies. Chaque rédacteur a attribué une note aux synthèses d’amendements législatifs sur une échelle de 0 à 10, avec 10 comme score maximal. Ces notes ont ensuite été moyennées et converties sur une échelle de 20 points pour fournir une mesure standardisée de performance.

Cette évaluation approfondie comprenait des comparaisons avec les résumés rédigés par les experts eux-mêmes et leurs pairs au cours de l’année précédente, ainsi qu’avec ceux générés par nos modèles pour 30 amendements spécifiquement sélectionnés et non inclus dans les données d’entraînement du Projet de Loi de Finances 2023. Une telle approche garantit une évaluation robuste et impartiale, s’appuyant sur la connaissance pratique et l’expertise critique des professionnels législatifs expérimentés.  

Les rédacteurs fiscaux ont, en moyenne, évalué leurs propres synthèses à 16.5 (± 5.2) sur 20, établissant ainsi un référentiel pour l’évaluation des synthèses automatisées et un objectif quantifiable pour la performance de nos modèles computationnels.  

Dans notre analyse des capacités de synthèse, nous avons comparé plusieurs Large Language Models (LLMs). L’évaluation initiale portait sur deux variantes fine-tunées de Llama 2- les modèles 7B et 13B paramètres - entraînés sur un corpus juridique français, et comparées au modèle de base Llama 2 70B. Ce dernier a obtenu les meilleurs résultats avec un score de 15.8, bien que les modèles plus petits fine-tunés aient démontré une efficacité comparable. Sur la base de ces résultats, le modèle Llama 2 70B a été déployé en production initiale.  

Par la suite, une évaluation a été menée pour mesurer les améliorations potentielles du modèle Llama 3.1 70B. Afin de garantir la cohérence méthodologique tout en tenant compte des changements de personnel au sein de l’équipe juridique et des évolutions potentielles des critères d’évaluation, nous avons employé une méthodologie LLM-as-judge en utilisant Mistral Large. Cette approche a permis une comparaison objective de la qualité des synthèses entre Llama 2 70B et Llama 3.1 70B.  

Les résultats empiriques ont démontré la performance supérieure du modèle plus récent, ce qui a conduit à son déploiement en production fin 2024. Les retours post-implémentation de l’équipe juridique ont confirmé l’efficacité de cette mise à niveau, validant ainsi notre méthodologie d’évaluation et nos critères de sélection.

En savoir plus 

Taille de l'organisme

Grande entreprise (plus de 5 000 employés)

Localisation

France 

Nom du projet d'IA

Dalvia Health

Portée et objectifs du projet

Le Dalvia software permet la génération de résumés médicaux à partir de documents médicaux stockés dans le dossier patient électronique de l’hôpital. Plusieurs modèles de résumé sont disponibles.

L’objectif est de faire gagner aux médecins au moins 10 minutes par patient en 1) réduisant le temps passé à consulter le dossier médical d’un patient grâce à la génération d’un résumé complet du dossier, et 2) réduisant le temps nécessaire à la rédaction de la lettre de sortie obligatoire, en fournissant un brouillon de cette lettre.

Les moteurs d'IA générative (LLMs) ont la capacité de produire des résumés concis à partir de grandes collections de documents, ce qui explique le choix de cette technologie pour résoudre ce problème.

Les données exploitées dans ce projet sont les suivantes

  • Source documents = documents médicaux: rapports chirurgicaux, résultats de laboratoire, comptes rendus d’imagerie, ordonnances de médicaments, etc.
  • Data = antécédents médicaux et chirurgicaux, traitements en cours, détails des affections en cours, allergies, dispositifs médicaux implantés, etc.

Les utilisateurs de la solution incluent: médecins, résidents, professionnels paramédicaux et assistants.

Les indicateurs utilisés pour mesurer la réussite du projet sont :

  • Le nombre d’utilisateurs actifs au quotidien, chaque semaine et chaque mois.
  • Le nombre de résumés générés par jour et par mois.
  • Le nombre d’heures économisées par jour, semaine, mois et année par les médecins pour la consultation des dossiers patients et la rédaction des lettres de sortie.

Taille de l'organisme

Grande entreprise (plus de 5 000 employés) 

Localisation

France 

Nom du projet d'IA

Maryam

Portée et objectifs sur projet

Le principal objectif est d’utiliser les technologies de l'IA pour traiter et analyser la documentation historique, qui inclut de nombreux plans et dessins industriels âgés de plus de 40 ans et uniquement disponibles sous forme d’image. Le système d'IA, nommé Maryam, est conçu pour effectuer de la reconnaissance optique de caractères (OCR) à l’aide d’algorithmes qui intègrent les conventions de dénomination spécifiques d’EDF pour les équipements.

Augmenter la productivité dans la recherche de documents : automatiser l’extraction et la récupération d’informations à partir de documents historiques, permettant aux ingénieurs de se concentrer sur leurs tâches principales. La recherche de documents peut représenter jusqu’à 25 % de leurs activités quotidiennes, impliquant la navigation à travers divers outils sans garantie de trouver le document recherché.

L'IA est cruciale pour ce projet car elle permet de traiter d’importantes quantités de données non structurées (documents historiques au format image) qu’il serait irréaliste de gérer manuellement. Des outils OCR off-the-shelf proposés par les grandes entreprises technologiques (GAFAM) et disponibles sur le marché ont été testés, mais n’ont pas répondu aux attentes de performance de l’unité d’ingénierie d’EDF. Les capacités d’OCR du système AI Maryam, combinées aux algorithmes spécifiques à EDF, permettent une extraction de données précise et efficace, indispensable pour atteindre les objectifs du projet.

Le projet exploite la documentation historique, y compris 10 millions de plans et dessins industriels d’EDF. Ces données sont essentielles pour comprendre l’état actuel des installations nucléaires et planifier leur maintenance ainsi que leur exploitation.

Le système AI Maryam utilise des algorithmes OCR avancés spécialement conçus pour reconnaître et interpréter les conventions de dénomination spécifiques d’EDF pour les équipements. Ces algorithmes sont entraînés sur un ensemble de documents historiques afin de garantir une grande précision dans l’extraction des données.

Taille de l'organisme

Grande entreprise (plus de 5 000 employés) 

Localisation

France 

Nom du projet d'IA

Solar farm inverter failure prediction

Portée et objectifs du projet

EDF Renewables, une filiale d’EDF, possède de nombreuses fermes solaires à travers le monde, produisant de l’électricité renouvelable. Il est essentiel de maximiser la disponibilité des installations afin que l’électricité soit générée lorsque les conditions météorologiques sont favorables. Cela est non seulement crucial pour la rentabilité de la ferme solaire, mais toute électricité non produite par celle-ci doit être générée ailleurs, probablement par des techniques plus polluantes.  

Un des facteurs impactant la capacité de production d’électricité est la défaillance des équipements. Chaque panneau photovoltaïque produit de l’électricité en courant continu (DC) ; la transmission de l’énergie vers les foyers et les entreprises via le réseau électrique nécessite sa conversion en courant alternatif (AC) à l’aide d’un onduleur. Cet équipement clé peut présenter des taux de défaillance significatifs, en particulier dans des environnements difficiles comme les déserts, où les fermes solaires sont idéalement situées.

Une seule installation peut compter des dizaines, voire des centaines d’onduleurs.

En plus d’empêcher la production d’électricité, une défaillance catastrophique d’un onduleur peut provoquer des incendies, mettant en danger le personnel sur site ainsi que les équipements environnants. La maintenance non planifiée doit être effectuée le plus rapidement possible afin de rétablir la capacité de production.  

L’objectif initial du projet était d’étudier les facteurs influençant la défaillance des onduleurs sur deux grands sites aux États-Unis afin de comprendre pourquoi le taux de panne était deux fois supérieur aux prévisions. 

Le succès de cette première phase a conduit à de nouveaux objectifs : développer un outil basé sur le Cloud pour prédire les pannes, fournir des informations plus détaillées et offrir une expérience utilisateur améliorée.  

La Data and AI Factory a collaboré avec des ingénieurs de site, des experts métier et des ingénieurs systèmes IT pour analyser le problème, identifier des pistes potentielles et collecter les données nécessaires.  

Les données comprenaient des informations météorologiques, la puissance générée, des données sur les équipements comme la température des composants, des alertes, ainsi que des rapports de panne et des plans de site.  

La complexité du problème nécessitait l’utilisation de l’IA, en particulier du Machine Learning, pour identifier les facteurs influençant les pertes d’onduleurs. Plusieurs modèles de Machine Learning ont été testés (gaussien, gradient boosting, random forest et régression) en utilisant une méthode de formation par shuffle split afin de déterminer le modèle le plus performant.  

Le succès du projet a été défini par la capacité à prédire correctement les défaillances d’onduleurs suffisamment tôt, sur la base de la précision et du rappel du modèle.

Taille de l'organisme

Grande entreprise (plus de 5 000 employés) 

Localisation

France 

Nom du projet d'IA

Predictive Maintenance: Application to Alarm Classification and Forecasting

Portée et objectifs du projet

Basé sur des discussions avec nos experts maintenance et techniciens, nous visons à relever quatre défis principaux dans le cadre de ce projet :

  • Un grand nombre d’alarmes correspondent au même événement ou à différents événements mais avec la même cause. La capacité à détecter l’équivalence entre deux alarmes et à les regrouper par leur cause d'origine n’est pas triviale dans des environnements dotés de systèmes d’alarme avancés, même pour des opérateurs expérimentés possédant une solide connaissance du domaine. Par exemple, une alarme indiquant que l’état normal d’une porte fermée a changé (la porte est ouverte) et qu’un autre indique que l’état normal de sa serrure a changé (la serrure est ouverte) sont équivalentes dans la mesure où elles se déclenchent toujours ensemble et signalent le même événement : la porte est ouverte.
  • Il est très utile d’identifier les bruits d'alarmes. Une chattering alarm est une alarme dont l’état change très fréquemment. Des exemples industriels de bruits d'alarmes sont causés par du bruit sur un process variable fonctionnant près du seuil d'alarme et des oscillations résultant d’actions on-off répétées avec une période d'oscillation régulière.
  • Pour les équipes de maintenance, il y a un besoin urgent d’identifier des patterns dans les alarmes (et leurs événements sous-jacents). Par conséquent, il faut développer des capacités de maintenance prédictive, notamment pour aider à gérer des ressources disposant d’une expertise rare et coordonner les équipes de production. Le jeu de donées principal que nous exploitons dans ce projet concerne une équipe chargée de la maintenance de quatre tunnels autoroutiers dans une grande métropole française. En moyenne, 60 000 alarmes ont généré 1,5 million d’alarmes par tunnel sur une année. Dans ce contexte, les approches classiques de data mining atteignent rapidement leurs limites.
  • De plus, une fois qu’une approche basée sur l'IA est développée pour un système d’alarme donné, il sera difficile d’adapter le même système à un autre système pour une équipe différente faisant face à des problèmes similaires de gestion d’alarmes. C’est un défi majeur pour une entreprise de notre taille, qui nous a conduits à nous intéresser à AutoML comme approche ultérieure ou, selon la disponibilité d'ensembles de données appropriés, au développement d’une approche standard ou “template” réutilisable pour résoudre des problèmes similaires.

Ce projet a débuté en 2021 et, depuis février 2024, un doctorant (CIFRE) est également dédié à ce projet en collaboration avec l’Université de Haut-Alsace. Notre vision est de traiter ces quatre sous-problèmes pour les systèmes d’alarmes de maintenance, afin qu’une solution globale puisse être développée sur le long terme. Ces sous-problèmes peuvent être abordés en parallèle ou de manière séquentielle, en s’appuyant sur les résultats de l’un pour faciliter la résolution des autres quand c’est possible.

Nous pensons que ce projet est innovant parce que la maintenance prédictive est un domaine vaste et que les solutions actuellement proposées ne répondent pas entièrement au problème industriel auquel nous sommes confrontés. De nombreuses méthodes se concentrent sur des systèmes spécifiques, parfois à petite échelle, et ne correspondent pas au large volume de données auquel nous faisons face. En particulier, bien que les sous-problèmes soient abordés dans la littérature par diverses approches, la problématique de la gestion du large volume de données généré par les systèmes d’alarme n’est pas traitée dans sa globalité dans la littérature. Par “globalité”, nous entendons l’idée de traiter les trois sous-problèmes (P1), (P2) et (P3) sur les données générées par le même système d’alarme et d’utiliser les résultats d’un sous-problème pour faciliter la résolution des deux autres.

En plus du volume de données, le type de données semble également spécifique : la plupart des sources utilisent des données de capteurs au format numérique et très peu se basent sur des données de type “alarme”. De plus, la disponibilité d’un feedback humain sur les outputs proposés est également assez rare, alors même que c’est un élément clé dans l’adaptabilité d’un système. Bien que nous utilisions des métriques quantitatives classiques pour les approches de data mining exploitées (telles que confidence, support et lift pour les association rules), nous travaillons aussi sur une évaluation qualitative continue. Par exemple, nous invitons notre équipe de maintenance à évaluer la pertinence des association rules des alarmes que nous découvrons. En outre, il est très rare qu’on mentionne un système de maintenance prédictive automatisé qui puisse être déployé sur différents sites, alors que nous souhaitons mettre en place un template qui facilite un tel déploiement.

Taille de l'organisme

Grande entreprise (plus de 5 000 employés) 

Localisation

France 

Nom du projet d'IA

ARIIA, Detecting potential wasted interventions on customer premises with natural language processing 

Portée et objectifs du projet

En gérant 95 % du réseau de distribution d’électricité en France continentale, Enedis réalise des interventions pour 32 millions de clients résidentiels au nom de leurs fournisseurs d’électricité. Bien que plus de 90 % de ces clients soient équipés de compteurs Linky, plusieurs millions d’interventions sur site restent nécessaires chaque année pour répondre à leurs besoins.  

Certaines interventions effectuées chez les clients d'Enedis à la demande de leur fournisseur d’électricité aboutissent à des déplacements inutiles. En plus de l’insatisfaction des clients, ces interventions mobilisent inutilement les opérateurs terrain et les programmateurs d’Enedis, sans compter l’impact CO2 des déplacements.  

Enedis reçoit environ 2,5 millions de demandes d’intervention par an nécessitant l’intervention de techniciens sur site. Compte tenu de ce volume très important, l’IA est une solution pertinente pour effectuer des analyses précises et identifier les interventions mal qualifiées. Une analyse complète réalisée par des humains serait extrêmement chronophage.  

Le système développé par Enedis repose sur une approche innovante basée sur l’analyse des commentaires textuels fournis par le fournisseur avec sa demande d’intervention, notamment lorsque le contenu suggère une incohérence entre le type d’intervention demandée et le besoin exprimé par le client. Ces interventions sont donc suspectées d’être mal classifiées, et les opérateurs terrain risquent de ne pas pouvoir les réaliser avec succès. Cette analyse utilise des modèles de traitement du langage naturel basés sur un algorithme de traitement du français enrichi du vocabulaire technique d’Enedis.  

Chaque matin, le système fournit aux équipes en charge de la gestion des activités une liste d’interventions sur site susceptibles d’être inutiles, afin qu’elles puissent rappeler le client, requalifier ou annuler l’intervention.  

En 2023, plus de 230 utilisateurs ont utilisé ce système, évitant ainsi 65 000 interventions inutiles à l’échelle nationale, soit un gain de 3,7 millions d’euros correspondant aux coûts des déplacements évités chez les clients.

Taille de l'organisme

Grande entreprise (plus de 5 000 employés) 

Localisation

France 

Nom du projet d'IA

Qualirail - AI-based integrated maintenance of the rail infrastructure in Gabon

Portée et objectifs du projet 

Qualirail est un programme de digital twin initié par les équipes centrales data, AI et digital transformation d’Eramet, conçu en collaboration avec SETRAG. Il soutient les équipes de maintenance de la voie de SETRAG en consolidant les données dans une plateforme unifiée, permettant une maintenance predictive et intégrée pour la ligne ferroviaire du Transgabonais, essentielle pour le transport du manganese vers les ports d’exportation. Ce programme établit un pont entre l’expertise d’Eramet et les besoins opérationnels de SETRAG, garantissant des solutions avancées adaptées.

Les initiatives axées sur l’AI au sein de Qualirail visent à :  

  • Passer d’une maintenance réactive à une maintenance predictive, en anticipant les risques liés à l’infrastructure.  
  • Intégrer et contextualiser les défauts détectés par diverses technologies — track geometry, onboard imagery, données météorologiques et capteurs — dans un julmeau numérique complet.  
  • Tirer parti de l’explainable AI pour identifier les causes profondes des anomalies et recommander des solutions concrètes.  
  • Améliorer en continu le digital twin en intégrant des technologies comme le Ground Penetration Radar (GPR) et en analysant les impacts environnementaux tels que les précipitations et la stabilité de la plateforme / du sol.

Le projet inclut également les données de maintenance issues du Computerized Maintenance Management System (CMMS) (par exemple, l’historique des work orders) et les rapports d’incidents, ajoutant un contexte essentiel pour planifier les interventions.

Les objectifs du projet incluent :  

  • Assurer la sécurité : prévenir les derailments grâce à la détection proactive et à la résolution des anomalies.  
  • Optimiser les opérations de maintenance : passer d’une maintenance curative à une maintenance predictive, en réduisant les coûts et l’effort manuel.  
  • Garantir l’évolutivité : développer des outils AI adaptables à d’autres opérations ferroviaires d’Eramet (au Sénégal, avec une autre filiale d’Eramet, GCO).  
  • Améliorer la contextualisation : apporter des informations sur les défauts et leur environnement grâce à l’onboard imagery et la fusion de données.

Ces objectifs correspondent aux missions des équipes de maintenance de SETRAG : détecter les défauts, en comprendre les causes profondes et prioriser les actions correctives. En améliorant la fiabilité et en veillant à ce que les trains roulent à des vitesses optimales, le projet soutient la sécurité et la performance.

L’AI alimente Qualirail en offrant des analyses avancées que les systèmes traditionnels ne peuvent égaler :  

  • Defect Detection : le computer vision identifie des défauts de surface tels que des fixations de rail manquantes et la végétation.  
  • Predictive Modeling : le machine learning anticipe l’évolution de la track geometry, permettant des actions préventives.  
  • Root Cause Analysis : les outils d’explainable AI (ex. SHAP) identifient l’origine des défauts et recommandent des solutions.  
  • Data Integration : l’AI consolide des données fragmentées pour une planification efficace de la maintenance.

Le projet s’appuie sur une diversité de datasets, notamment :

  • La track geometry pour des mesures en temps réel et historiques. 
  • L’onboard imagery pour des vues cockpit de l’état de la voie. 
  •  Les données environnementales (par ex. précipitations, température) afin d’évaluer les impacts externes sur la stabilité.  
  • Les données de capteurs (LiDAR, ultrasonic, GPR) pour l’analyse de la sous-surface.  
  • Les données CMMS, y compris l’historique des work orders et les rapports d’incidents.  
  • Les indicateurs opérationnels (par ex. fréquence des trains, charge) pour contextualiser l’usure et la dégradation.

Qualirail utilise des modèles qui évoluent par étapes clés :

  • Predictive Geometry Analysis (2021) :  
    Des modèles de machine learning ont prédit la dégradation de la track geometry, permettant des actions préventives
  •  Computer Vision for Defect Detection (2023) :  
    Un pilote a automatisé la détection de défauts via l’onboard imagery, identifiant les fixations manquantes, la végétation et les dommages sur la voie.
  • Environmental Correlation Analysis (2023) :  
    Un autre test a mis en évidence la corrélation entre la présence d’eau à proximité des voies et les déviations de la track geometry, orientant des mesures préventives.
  • Advanced AI with Explainability (depuis 2024) :  
    Les modèles ont intégré divers datasets (ex. geometry, LiDAR, imagery). Des techniques comme les random forests et SHAP ont permis des prédictions transparentes et l’identification des causes profondes.
  • GeoAI for Spatial Analysis (Futur) :  
    Des technologies GeoAI sont prévues pour améliorer la cartographie des risques et la détection d’anomalies à partir de données spatiales, notamment l’imagerie InSAR pour détecter les mouvements de sol et la présence d’eau.

Fonctions impactées

  • À la maintenance ferroviaire : améliore la planification, réduit les inspections manuelles et facilite des interventions proactives.  
  • Aux opérations et à la logistique : renforce la fiabilité de la supply chain en évitant les interruptions.  
  • À la transformation digitale : fait progresser la vision Railway 4.0 d’Eramet grâce à l’innovation et à l’efficacité.

Indicateurs de réussite   

  • Sécurité : baisse du nombre de déraillements (objectif : zéro). 
  • Efficacité : réduction du temps et des coûts de maintenance curative.  
  • Précision de la détection : amélioration de l’accuracy pour l’identification des défauts (objectif : 80 %).  
  • Réduction des inspections : diminution des inspections manuelles, économisant temps et ressources.

Taille de l'organisme

Grande entreprise (plus de 5 000 employés) 

Localisation

France 

Nom du projet d'IA

Voice of Customer Automation

Portée et objectifs du projet

Le projet Voice of Customer Automation vise à transformer les enregistrements d’appels clients dans plusieurs pays en insights exploitables, permettant aux entreprises d’anticiper les problèmes, d’améliorer la satisfaction client et d’optimiser leurs opérations. Cette solution basée sur l’IA exploite des modèles avancés de machine learning pour traiter de grands volumes de données audio non structurées et fournir des insights objectifs et en temps réel.  

Objectifs principaux :

  • Détecter rapidement les problèmes clients : permettre l’identification et la résolution rapides des insatisfactions ou des problèmes soulevés lors des appels, assurant une approche proactive du service client.  
  • Améliorer la satisfaction client : en identifiant les points de friction récurrents et les inefficacités opérationnelles, le système vise à optimiser l’expérience client.  
  • Identifier les problèmes récurrents liés aux opérations ou à la qualité des produits : exploiter l’analyse des données pour détecter des tendances et des problèmes courants affectant l’expérience client, facilitant ainsi les améliorations opérationnelles ou les ajustements produits.  
  • Réduire l’effort manuel d’analyse des appels : automatiser l’extraction d’insights à partir des conversations clients, éliminant ainsi l’écoute manuelle et réduisant les biais humains dans l’évaluation.  

Pertinence de l’IA

L’IA joue un rôle clé dans Voice of Customer Automation en permettant une automatisation intelligente de l’extraction d’insights à partir de grands volumes de données non structurées. Avec plus de 20 000 appels par jour, un traitement manuel quotidien serait inefficace et impossible à tenir en temps réel. Les modèles IA automatisent la transcription, l’anonymisation, l’analyse des sentiments et l’extraction d’informations, transformant des données brutes en insights structurés et exploitables. Grâce à ces techniques avancées, le projet propose une approche plus évolutive, efficace et précise de l’analyse du feedback client par rapport aux méthodes traditionnelles.  

Données utilisées 

  • Enregistrements d’appels clients (audio)  
  • Métadonnées des appels  

Modèles appliqués

  • Speech-to-Text (transcription)  
  • Anonymisation utilisant la technique Named Entity Recognition pour assurer la conformité GDPR et HIPAA  
  • Analyse des sentiments (modèle de classification)  
  • Generative AI (Large Language Model) pour générer des résumés, extraire des mots-clés, produits et problèmes  

Fonctions métier impliquées

  • Customer Interaction Centers (CICs) : utilisateurs principaux de la solution IA, exploitant les insights pour prioriser les appels à analyser, détecter les problèmes rapidement et améliorer la satisfaction client.  
  • Fonctions opérationnelles (Qualité, Supply Chain, etc.) : les insights sur les problèmes récurrents permettent d’optimiser les opérations, par exemple en améliorant la qualité des produits ou en identifiant des inefficacités affectant la satisfaction client.  

Indicateurs de réussite

  • Précision des modèles à chaque étape : transcription, analyse des sentiments, détection des mots-clés et des problèmes  
  • 100 % des interactions clients analysées et priorisées automatiquement 
  • Nombre de problèmes identifiés et priorisés rencontrés par plusieurs clients  
  • Amélioration de la satisfaction client  
  • Amélioration du taux de rétention client 

Taille de l'organisme

Administration publique ou ONG

Localisation

France 

Nom du projet d'IA

EULER - EUrecom Language model for Education and Research

Portée et objectifs du projet 

Le projet EULER vise une innovation significative dans les méthodes d’enseignement, offrant aux étudiants un accès facilité à un vaste ensemble de données pédagogiques accumulées au cours des 30+ années d’existence de l’école d’ingénierie EURECOM. L’objectif principal est de personnaliser l’apprentissage et de doter les étudiants d’un outil leur permettant de rechercher, d’interagir avec et d’approfondir leur compréhension du matériel de cours. Ces objectifs visent à aider les étudiants à développer leurs propres méthodes d’apprentissage, leurs compétences en pensée critique, et à identifier le meilleur support pédagogique (ex. cours vidéo, manuels, notes de cours ou diapositives) adapté à leurs besoins.  

Le projet EULER est entièrement open-source et model-agnostic, permettant sa reproduction et sa personnalisation en fonction des ressources et de l’expertise disponibles. Il repose sur des Large Language Models pouvant être affinés sur des ensembles d’instructions spécifiques. Les objectifs techniques incluent la conception d’un système IA capable d’apprendre en continu à partir de données multimodales (texte, audio, vidéo, schémas, code), de s’adapter aux préférences et au rythme d’apprentissage des étudiants, et de stimuler leur engagement personnel dans l’assimilation de concepts d’ingénierie complexes à travers la méthode dite socratique. Cette approche encourage les étudiants à s’impliquer activement dans leur parcours d’apprentissage, évitant ainsi les dérives potentielles de l’IA en éducation, perçue comme un simple raccourci permettant d’éviter tout effort mental. Plus précisément, le comportement du tuteur IA est conçu pour ne pas fournir directement de réponses factuelles aux questions des étudiants, mais plutôt pour engager le dialogue avec de nouvelles questions destinées à les guider vers la découverte des réponses par eux-mêmes. EULER fournit systématiquement des références aux supports de cours intégrés lors des interactions afin de justifier ses connaissances, de réduire les hallucinations et d’instaurer un climat de confiance.  

Les indicateurs clés de performance du projet EULER se situent à plusieurs niveaux. Techniquement, ils reposent sur des plateformes de benchmarking de pointe et des méthodes LLMs-as-a-judge. Pédagogiquement, l’utilité d’EULER est évaluée par des tests A/B tout au long des cours, avec un suivi de l’adoption et des retours d’expérience via des questionnaires étudiants mis à jour. Enfin, la performance des étudiants sera analysée sur la durée, à la fois en termes de résultats académiques et de retours issus de leurs stages de fin d’études de six mois obligatoires dans l’industrie.

En savoir plus 

Taille de l'organisme

Entreprise de taille intermédiaire (250-5 000 employés) 

Localisation

Luxembourg

Nom du projet d'IA

FoyerClassify: Automated Client (Claims) Document Classification

Portée et objectifs du projet

Le projet vise à automatiser la classification des documents entrants (e-mails et courriers) reçus de clients et partenaires, notamment d'autres compagnies d'assurance, garages et avocats. Chaque année, environ 400 000 documents sont traités, avec un taux de croissance annuel constant de 7 %. Une équipe dédiée de sept employés est chargée de classer ces documents dans 30 catégories prédéfinies et d'extraire des informations clés, telles que les numéros de sinistre et les noms des compagnies d'assurance adverses. Ces informations permettent ensuite d’acheminer les documents vers les services appropriés et de les attribuer aux gestionnaires de sinistres concernés pour traitement.  

La prochaine phase du projet vise à extraire toutes les informations nécessaires afin d'automatiser davantage le traitement des sinistres gérés par les gestionnaires. Les objectifs sont de réduire les interventions manuelles, d'améliorer la rapidité de traitement et d’accroître la précision.  

Pertinence de l’IA pour le projet

Auparavant, des règles déterministes basées sur les expéditeurs d’e-mails et le contenu des objets avaient été mises en place pour automatiser la classification. Cependant, cette approche n'a permis d'atteindre qu'un taux d'automatisation de 44 %. Les améliorations étaient limitées en raison de la complexité et de la charge de maintenance d’environ 1 000 règles métier. De plus, l’augmentation continue du volume de documents, d’environ 7 % par an, soulignait la nécessité d’une solution plus évolutive et adaptable.  

Plusieurs facteurs ont motivé l’adoption de solutions basées sur l’IA :

  •  Disponibilité de données volumineuses et de haute qualité (environ 1 million de documents étiquetés, classifiés manuellement par l’équipe d’indexation).  
  • Croissance continue du volume de données, rendant les approches traditionnelles moins viables sur le long terme.  
  • Forte demande des équipes métier et des décideurs pour automatiser afin d'améliorer l'efficacité et réduire les délais de traitement.  
  • Forte adoption par les utilisateurs, facilitée par leur implication dans les phases de conception et de validation.
  • Présence d’une équipe IA expérimentée maîtrisant les méthodologies et technologies modernes.  
  • Partenariat établi avec l’Université du Luxembourg, permettant des avancées en recherche et innovation.  
  • Migration simultanée de Lotus Notes vers Outlook, offrant l’opportunité d’intégrer des outils IA dans un environnement modernisé.  

Ces éléments ont justifié l’adoption de technologies IA pour répondre aux défis d’évolutivité, de performance et d’ergonomie.  

Données exploitées

Le projet s’appuie sur un ensemble de données comprenant environ 1 million de documents étiquetés, classifiés manuellement au fil des années. Ces documents constituent une source riche pour entraîner les modèles IA, garantissant une qualité d’entrée élevée pour le développement des modèles. Les étapes de prétraitement des données incluaient la normalisation du texte, l’anonymisation et l’augmentation des données afin d’améliorer les performances des modèles et de gérer les variations dans la structure des documents.  

Modèles d'IA appliqués

  • Large Language Models (LLMs) comme BERT et Mistral pour les tâches de classification textuelle avancée, l’extraction d’informations et la compréhension sémantique.  
  • Visual Transformers (tels que Donut) pour l’extraction d’informations à partir de documents scannés ou basés sur des images.  

Ces modèles ont été sélectionnés pour leur capacité à traiter à la fois des données structurées et non structurées, offrant une classification et une récupération d’informations plus précises que les systèmes basés sur des règles.  

Fonctions métier impliquées et impactées

  • Service d’Indexation des Documents : chargé de la classification et du routage des documents entrants. Les outils IA ont considérablement réduit leur charge de travail manuel et amélioré leur efficacité.  
  • Équipes de Gestion des Sinistres : dépendent d'une classification rapide et précise pour traiter les sinistres. Le système IA leur permet de se concentrer davantage sur les cas complexes en réduisant les délais causés par des erreurs de manipulation des documents.  

Indicateurs de réussite

  • Taux d'automatisation : objectif fixé à 80 %.  
  • Précision des prédictions : objectif fixé à 90 %.  
  • Temps moyen de traitement quotidien des documents non automatisés (et des vérifications aléatoires) : objectif fixé à 2 heures.  

Un suivi régulier et une évaluation continue de ces indicateurs garantissent que le système répond aux attentes de performance et permettent d’identifier des axes d’optimisation supplémentaires.

Taille de l'organisme

Administration publique ou ONG

Localisation

France

Nom du projet d'IA

MarIAnne

Portée et objectifs du projet

Le principal objectif de ce projet est de concevoir et de déployer un Generative AI system, spécifiquement adapté aux besoins et exigences de la Présidence. MarIAnne servira de solution d’assistance virtuelle capable de répondre aux questions, de converser, d’extraire des informations d’un data warehouse, de générer du computer code, ainsi que de rédiger, traduire ou synthétiser des textes. Les objectifs spécifiques incluent :

  • Gain de temps et de productivité 
  • Rédaction et traduction de textes 
  • Synthèse et vulgarisation de thèmes techniques, opérationnels et stratégiques 
  • Correction orthographique et syntaxique ;
  • Génération de computer code.

Support interne : Développer un outil basé sur l’IA pour accéder rapidement à des informations sensibles (par exemple, documentation IT interne) et répondre aux questions courantes sur les procédures et contenus internes (procédures RH, menu du déjeuner, etc.)

Sécurité : Offrir une alternative aux outils externes tels que ChatGPT, Microsoft Copilot ou DeepL afin de minimiser le risque de fuite d’informations internes. Assurer la protection des données sensibles en intégrant des mesures de sécurité conformément aux recommandations pour un Generative AI system de l’ANSSI.

Évolutivité et maintenance : Structurer une application évolutive permettant des mises à jour régulières, l’intégration de nouvelles fonctionnalités et de nouveaux modèles d’IA, ainsi qu’une adaptation aux besoins actuels de notre institution.

Taille de l'organisme

Administration publique ou ONG

Localisation

Allemagne

Nom du projet d'IA

KIEZ - AI for Development Cooperation

Portée et objectifs du projet

La portée du projet "KIEZ" AI est de tirer parti de l’IA pour optimiser les opérations de BMZ dans le domaine de la coopération économique et du développement. KIEZ est une abréviation allemande pour "KI für EZ" : AI for Development Cooperation.

Objectifs :

  • Efficiency Improvement : Réduire jusqu’à 25 % le temps consacré au traitement de forts volumes de texte (par ex. rapports, évaluation des projets). Les premiers tests ont démontré que cet objectif était réaliste.  
  • Enhanced Decision-Making : Améliorer la qualité et la rapidité de l’extraction, de l’analyse et de la synthèse d’informations pour la prise de décision stratégique et opérationnelle.  
  • Capability Development : Doter le personnel de BMZ des outils et compétences nécessaires pour utiliser l’AI de manière responsable et efficace dans diverses tâches.  
  • Data Security and Compliance : S’assurer que la solution AI est conforme aux réglementations de l’UE en matière de sécurité des données et adaptée aux exigences réglementaires spécifiques de BMZ, tout en atténuant les risques liés à l’utilisation d’outils AI externes.  
  • Customizability : Mettre au point des applications et configurations spécialisées afin de répondre aux besoins uniques des départements de BMZ. Les améliorations en cours incluent les data sources et la business intelligence spécifiques au travail de BMZ.

Pertinence de l'IA

Les grands modèles de langage servent d’outils flexibles et puissants pour des tâches de récapitulation, extraction, drafting et évaluation. BMZ Datalab améliore leurs performances au sein de BMZ grâce à des services backend spécifiques, principalement la génération augmentée par récupération (RAG) et des modèles de templates prédéfinis côté utilisateur. L’IA est également implémentée sous forme d’un simple agent qui sélectionne et supervise l’utilisation d’outils (par ex. l'analyse de documents).

La solution est suffisamment flexible pour permettre l’utilisation de commercial ou open weight models. Les futures versions connecteront également KIEZ à d’autres applications AI développées par le Data Lab de BMZ, par ex. pour obtenir un aperçu du projet-portfolio.

Données exploitées

Les entrées et sorties conversationnelles se font via une interface de chat, et les conversations ne sont conservées que côté utilisateur, dans le navigateur. Les utilisateurs peuvent uploader des données textuelles et documents internes, par ex. des projets de descriptions, si le niveau de confidentialité de ces documents le permet.

Les textes et ressources disponibles publiquement sont récupérés pour fournir une compréhension contextuelle plus large. Les données issues d’internet, telles que des pages web sur les politiques internationales, peuvent être chargées ou consultées en ligne si cela est autorisé par les mesures de sécurité.

Modèle appliqué

KIEZ vise à proposer des LLMs de pointe comme modèles centraux. Initialement, en septembre 2023, il s’agissait de GPT-4 d’OpenAI. À cette époque, le KIEZ-POC était la première application de tous les services gouvernementaux allemands à utiliser GPT-4. Actuellement, l’interface propose GPT-4o par défaut, avec 4o-mini et Llama-3 en alternatives (sauf si non autorisées pour des raisons de sécurité). En conséquence, GPT-4o1 sera bientôt disponible.  

Le système KIEZ comprend des adaptations administratives visant à garantir la conformité aux exigences organisationnelles de sécurité et de protection des données. Par configuration et accord avec Microsoft et OpenAI, le provider-side logging et les fonctions de sécurité sont désactivés pour assurer un niveau de sécurité plus élevé. Ces mesures et d’autres aspects de sécurité font partie de la formation obligatoire pour tout utilisateur de KIEZ avant sa première utilisation.

Les fonctionnalités intégrées incluent la possibilité d’uploader des documents, des mécanismes de source citation, la documentation des conversations et une BMZ prompt template library. Des outils supplémentaires comme la recherche web sont prêts à être déployés mais ne sont pas utilisables pour l’instant en raison de contraintes de sécurité.

Fonctions impactées

  • Policy and Strategy : Soutien renforcé pour la rédaction de documents de politique et l’évaluation de l’alignement avec les objectifs stratégiques.
  • Operations : Gains d’efficacité dans le management de projet et la gestion de documents.  
  • Training and Development : Développement des compétences du personnel en matière d’IA et de prompt engineering.  
  • Monitoring and Evaluation : Amélioration de la précision et de la rapidité dans l’évaluation des résultats de projet par rapport à des critères prédéfinis.  
  • Communications : Simplification de la rédaction de reports et génération plus rapide de contenu descriptif (comme ce texte lui-même).

En savoir plus 

Taille de l'organisme

PME (10-250 employés) 

Localisation

France 

Nom du projet d'IA

Improving Secrets Prioritization in GitGuardian Products

Portée et objectifs du projet

GitGuardian propose plusieurs solutions pour aider ses clients à se protéger contre les fuites de secrets.  

Nous surveillons :  

  • Le code dans les systèmes de contrôle de version (VCS) : aussi bien les dépôts publics (ex. GitHub) que privés.  
  • D’autres sources de fuite : comme les messages Slack, les tickets Jira et des plateformes similaires.  

Le principal défi réside dans la gestion du grand nombre de fuites de secrets détectées. Notre objectif est de maximiser l’impact du temps limité que les experts peuvent consacrer à la plateforme. Nous cherchons à les assister en agissant comme des experts en cybersécurité virtuels, capables de comprendre en profondeur leur écosystème, voire de dépasser leur propre expertise.  

Objectifs principaux :  

  • Identifier les secrets les plus critiques pour nos clients (équipes de sécurité), en mettant l’accent sur ceux qui représentent le plus grand risque pour leurs actifs sensibles.  
  • Élaborer une feuille de route pour aider les équipes de sécurité à traiter des millions d’incidents de manière efficace, notamment pour les grandes entreprises.  
  • Réduire le temps nécessaire pour évaluer l’importance d’un secret et déterminer les actions appropriées.  

État actuel du système : ce projet constitue un élément différenciateur clé pour GitGuardian. Notre solution hybride s’appuie sur :  

  • Les métadonnées de notre moteur de détection de secrets, telles que le type de secret, l’hôte et les résultats des API.  
  • Quatre modèles de deep learning internes (~100M paramètres chacun) pour enrichir les informations contextuelles.  
  • Un modèle interne plus large (400M paramètres) pour explorer des fonctionnalités avancées comme la similarité contextuelle et des secrets.  
  • Des LLMs standard pour analyser les relations complexes (ex. liens entre entreprises, contextes, produits et filiales).  
  • Ces analyses alimentent des modèles de priorisation plus simples** afin de rendre les décisions explicables.

Ressources et expertise :

  • Experts en machine learning (4 spécialistes) :  
    • L’équipe comprend des ingénieurs français issus de grandes écoles comme l’École Polytechnique et CentraleSupélec.  
    • Trois membres sont des ingénieurs seniors ayant travaillé :  
    •  dans des environnements compétitifs aux États-Unis, tels que la Silicon Valley, le MIT et Amazon, avant de revenir en France.  
    • dans plusieurs startups tech françaises.  
  • Spécialistes en cybersécurité : comprenant des chercheurs et des experts en intégration client pour évaluer l’importance des secrets et valider les résultats.
  • Ils possèdent des PhD et une longue expérience à l’ANSSI, en tant que RSSI et dans l’écosystème français de la cybersécurité (conférences à [Tech.rocks](http://Tech.rocks), édition de [MISC, le magazine français de cybersécurité](https://connect.ed-diamond.com/misc), participation au groupe de cryptographie post-quantique avec l’ANSSI…). 
  • Ils ont découvert et corrigé plusieurs vulnérabilités dans des logiciels majeurs (Apache HTTPd, Cisco Nexus, la Livebox). Le reste de leurs références ne peut être divulgué.  
  • Équipe Support & Intégration
  • Développeurs et product managers 
  • Équipe data engineering, équipe SRE
  • Équipe juridique et marketing ayant travaillé à définir les limites de ce qui est faisable et acceptable dans un écosystème marqué par une forte méfiance liée à la "AI hype", nos données étant par nature sensibles (code interne et informations).  

Données et évaluation

  • Notre système est construit sur une vaste base de données collecté à partir de multiples sources depuis 7 ans.  
  • L’évaluation repose sur plusieurs critères, notamment les retours clients** et les analyses des experts en cybersécurité.  
  • Nous mesurons la performance sur des tâches spécifiques ainsi que sur l’ensemble du pipeline.

En savoir plus 

Taille de l'organisme

Administration publique ou ONG

Localisation

Singapour

Nom du projet d'IA

recursive Machine Learning Site Evaluator (rMSE)

Portée et objectifs du projet

Objectifs principaux :  

  1. Évaluer rapidement, avec précision et à grande échelle, les sites web potentiellement frauduleux. 
  2. Automatiser le processus de signalement et de soumission des sites malveillants à Google Safe Browsing pour application des mesures.
  3. Soutenir les enquêtes de la Singapore Police Force (SPF) sur les escroqueries en ligne.
  4. S’adapter aux tactiques frauduleuses en constante évolution grâce à un apprentissage continu.  

Le projet rMSE exploite l’IA pour pallier les limites des systèmes traditionnels basés sur des règles dans la lutte contre les escroqueries en ligne. Les fraudeurs adaptant continuellement leurs stratégies, la capacité de l’IA à apprendre et à évoluer est essentielle pour assurer une défense efficace. Actuellement, rMSE utilise une combinaison de techniques de machine learning (ex. modèles basés sur les arbres de décision) et d’intelligence artificielle (ex. modèles basés sur les transformers) dans une structure hiérarchique afin d’optimiser vitesse et précision.  

L’IA est particulièrement pertinente dans ce projet car :

  • elle permet de traiter et d’analyser de grandes quantités de données rapidement, ce qui est essentiel pour évaluer des centaines de milliers d’URLs par jour ;
  • les modèles d’IA et de machine learning détectent des motifs et relations complexes entre les caractéristiques des sites web, souvent imperceptibles pour les analystes humains ou difficiles à capturer avec des règles statiques ;
  • la capacité d’affiner et de réentraîner les modèles permet au système de s’adapter aux nouvelles techniques d’escroquerie, garantissant ainsi son efficacité à long terme ;
  • l’automatisation basée sur l’IA réduit la charge de travail des forces de l’ordre, leur permettant de se concentrer sur des enquêtes plus complexes.  

rMSE s’appuie sur un ensemble de données complet et localement pertinent, incluant des sites malveillants confirmés par la Singapore Police et des sites bénins issus de sources représentatives variées.  

Cet écosystème de données diversifié garantit la robustesse, la pertinence et l’adaptabilité du modèle face aux menaces locales.  

Le système est actuellement utilisé pour évaluer et détecter les sites frauduleux à partir de flux de données en temps réel provenant de plus de 10 sources distinctes, incluant :

  • les signalements du public ;
  • les données des agences gouvernementales ;
  • les informations de partenaires du secteur privé.  

rMSE adopte une approche hiérarchique et par ensemble, combinant plusieurs modèles d’IA et de machine learning, tels que :

  • modèles basés sur les arbres de décision : utilisés pour un premier filtrage rapide des URLs à partir de caractéristiques facilement extraites ;
  • modèles basés sur les transformers : utilisés pour une analyse approfondie du contenu et de la structure des sites, exploitant leur capacité à comprendre le contexte et les relations entre les données.  

Ces modèles sont appliqués en structure hiérarchique et en ensemble afin de maximiser vitesse et précision. Actuellement, rMSE traite chaque URL en environ 5 secondes tout en maintenant une haute précision et un bon taux de rappel.  

Fonctions métier impliquées ou impactées :

  • Forces de l’ordre : La Singapore Police Force utilise rMSE pour soutenir ses enquêtes sur les escroqueries en ligne, améliorant ainsi leur efficacité et leur rapidité d’intervention.
  •  Cybersécurité : En identifiant et en signalant rapidement les sites malveillants, rMSE contribue à renforcer la posture de cybersécurité de Singapour.
  • Sécurité publique : L’envoi automatique des sites frauduleux à Google Safe Browsing protège les citoyens contre les escroqueries.
  • Collaboration inter-agences : Le projet favorise la coopération entre GovTech, SPF et d’autres agences gouvernementales
  • Partenariat public-privé : La collaboration avec Google et d’autres partenaires privés montre l’impact du projet au-delà des opérations gouvernementales.  

Indicateurs de succès du projet :

  • Précision : Le suivi en temps quasi réel des métriques de précision et de rappel par rapport aux enquêtes de la police. Depuis son lancement, rMSE maintient un taux supérieur à 90 %. Il est crucial de minimiser les faux positifs, qui augmenteraient la charge de travail des enquêteurs, ainsi que les faux négatifs, qui laisseraient passer des sites frauduleux et exposeraient les citoyens à des arnaques.
  • Vitesse et échelle : rMSE évalue chaque site en environ 5 secondes et peut traiter actuellement plus de 10 sites par seconde.
  • Impact : rMSE soumet automatiquement les sites frauduleux détectés à Google Safe Browsing pour application des mesures. Entre janvier et novembre 2024, plus de 5 000 sites frauduleux signalés par rMSE ont été bloqués par Google sans intervention humaine. Ce chiffre est en forte croissance.  

En combinant ces objectifs, en exploitant les technologies d’IA, en utilisant des sources de données variées et en mesurant son succès à travers plusieurs indicateurs, rMSE adopte une approche complète pour lutter contre les escroqueries en ligne. Son impact dépasse les besoins immédiats des forces de l’ordre, contribuant aux efforts globaux de cybersécurité et de protection des citoyens à Singapour.

En savoir plus 

Taille de l'organisme

Administration publique ou ONG

Localisation

Singapour

Nom du projet d'IA

Virtual Intelligent Chat Assistant (VICA)

Portée et objectifs du projet

VICA vise à améliorer les interactions des citoyens avec les services gouvernementaux de Singapour en s’appuyant sur l'IA. Il se concentre sur le développement d’un chatbot d'IA conversationnel capable de gérer un volume élevé de requêtes de citoyens auprès de multiples agences, de fournir des informations précises et de faciliter des processus transactionnels efficaces.

Le projet emploie une approche AI hybride, combinant natural language processing (NLP) et IA générative (Gen AI) pour offrir aux agences une flexibilité dans l’équilibre entre les productions générées par AI et celles générées par l’humain, en fonction de leur appétit pour le risque.

VICA utilise les bases de connaissances des agences gouvernementales, incluant les FAQs, les fichiers et les noms de domaines, afin de garantir des réponses exactes et faisant autorité. Il a un impact sur les fonctions destinées au public, telles que les services citoyens et la gestion de requêtes, tout en soutenant les opérations back-office en automatisant les tâches répétitives.

Le succès de VICA est mesuré principalement par les économies de coûts réalisées pour les agences, car il réduit de manière significative les dépenses auparavant engendrées par les appels téléphoniques et les échanges par mail exigeant une main-d’œuvre importante. En automatisant et en modernisant l’engagement citoyen, VICA illustre l’engagement de GovTech envers l’innovation et l’efficacité opérationnelle.

En savoir plus 

Taille de l'organsime

Grande entreprise (plus de 5 000 employés) 

Localisation

France 

Nom du projet d'IA

Passenger Flow Monitoring Solution powered by spatial AI and LIDAR sensors

Portée et objectifs du projet

Pour ce projet, nous avons utilisé la solution d’Outsight basée sur des données spatiales en temps réel collectées par des capteurs 3D LiDAR déployés dans l’aéroport pour surveiller les flux de passagers.  

L’IA est essentielle pour traiter et interpréter les vastes volumes de données spatiales générées par les capteurs 3D LiDAR. Le logiciel Shift LiDAR d’Outsight utilise des algorithmes avancés d’IA pour la fusion, le suivi et la classification des données, permettant ainsi une détection précise des objets, la mesure des KPI et la génération d’informations exploitables.

Données exploitées

Le projet exploite les données spatiales générées par le 3D LiDAR, notamment :  

  • Données de nuage de points en temps réel pour le suivi des individus, des véhicules et des objets.  
  • Données historiques pour l’analyse des tendances et la génération de KPI.  

Ces données sont anonymes par nature, garantissant la conformité avec les réglementations sur la protection de la vie privée, telles que le RGPD.  

Le logiciel intègre des algorithmes avancés de perception pour :  

  • Fusionner les données multi-capteurs et produire des analyses spatiales complètes.  
  • Classifier les objets en différentes catégories comme les piétons, les véhicules ou les objets statiques.  
  • Suivre en temps réel les objets et les véhicules avec des identifiants uniques.  

Fonctions impactées

  • Opérations : Le système d'IA optimise en temps réel les files d’attente, les flux de passagers et l’allocation des ressources dans l’aéroport. Les équipes opérationnelles peuvent réagir dynamiquement aux perturbations, améliorant ainsi l’agilité globale des opérations.  
  • Expérience client : La solution améliore l’expérience des passagers en réduisant les temps d’attente et en facilitant les transitions entre les différentes étapes du parcours aéroportuaire (enregistrement, contrôle de sécurité, embarquement). 
  • Sécurité : En analysant les schémas de comportement des passagers, le système IA contribue à renforcer les protocoles de sécurité, notamment en identifiant des mouvements inhabituels nécessitant une inspection approfondie.  

Indicateurs de réussite

Précision: Atteindre plus de 99 % d’exactitude sur des KPI tels que l’occupation, la densité et le suivi des temps d’attente en file. 

  • Efficacité : Réduire le nombre de capteurs requis, permettant de diminuer les coûts matériels et d’installation jusqu’à 90 %.  
  • Conformité : Respect des normes de confidentialité avec une collecte nulle d’informations personnellement identifiables.

En savoir plus 

Taille de l'organisme

Grande entreprise (plus de 5 000 employés) 

Localisation

France 

Nom du projet d'IA

Virtual concierge (AI)  on WhatsApp

Portée et objectifs du projet

  • Améliorer l’expérience des clients en fournissant des réponses personnalisées en temps réel à leurs demandes et questions.  
  • Automatiser les interactions répétitives et routinières pour réduire la charge de travail opérationnelle du personnel.  
  • Engager proactivement les clients grâce à une communication adaptée aux moments clés de leur séjour (par exemple, pré-arrivée, check-in). 
  • Atteindre des améliorations mesurables en termes d’efficacité opérationnelle et d’indicateurs de satisfaction client, en particulier le Net Promoter Score (NPS).  
  • Déployer la solution à grande échelle dans l’ensemble des 30 sites Center Parcs, en garantissant une expérience cohérente et enrichie pour tous les clients du réseau.

Pertinence de l'IA

L'IA était essentielle au projet en raison de sa capacité à :

  • Traiter efficacement un volume élevé d’interactions avec les clients. 
  • Fournir des réponses multilingues et contextuelles, assurant inclusion et personnalisation.  
  • Permettre l’automatisation en temps réel et la communication proactive, ce qui n’est pas réalisable avec des processus manuels.

Données exploitées

  • Guest Data : Détails de réservation, préférences et historiques d’interactions extraits du PMS (Property Management System).  
  • Operational Data : Informations de gestion des tâches liées au ménage, à la maintenance et à d’autres services. 
  • Interaction Data : Questions et retours en temps réel collectés via l’interface Virtual Concierge.

Modèle appliqué

  • Natural Language Processing (NLP) : Pour comprendre et répondre aux questions des clients dans plusieurs langues.  
  • Machine Learning Models : Pour personnaliser les interactions et prédire les besoins des clients à partir de données historiques.  
  • Rule-Based Automation : Pour des workflows opérationnels spécifiques tels que les check-ins et les rappels automatisés.

Fonctions impactées

  • Guest Services : Les réponses pilotées par l’AI ont réduit la dépendance aux interactions manuelles, permettant au personnel de se concentrer sur des tâches à plus forte valeur ajoutée.  
  • Operations Management : L’automatisation de la délégation des tâches pour le ménage et la maintenance a amélioré l’efficacité.  
  • Marketing and Engagement : La communication proactive a encouragé les ventes incitatives et promu des services additionnels.  
  • Customer Experience Team : La gestion simplifiée des demandes a amélioré les temps de réponse et les niveaux de satisfaction globaux.

Indicateurs de réussite

  • Net Promoter Score (NPS) : Mesure de la satisfaction client et de la probabilité de recommandation.  
  • Operational Efficiency : Réduction des tâches manuelles et des temps de réponse aux demandes.  
  • Guest Engagement : Mesuré par les taux d’ouverture de messages (98%) et les taux d’engagement actifs (48.3%).  
  • Automation Coverage : Pourcentage de questions clients entièrement gérées par l’AI (90.2%).  
  • Employee Productivity : Réduction de la charge de travail pour le personnel de première ligne et meilleur focus sur les tâches stratégiques.  
  • Scalability : Déploiement et adoption réussis sur l’ensemble des 30 sites Center Parcs.

En tirant parti de l’IA, le projet Virtual Concierge vise à aligner l’excellence opérationnelle sur une expérience client enrichie tout en étendant son impact à l’ensemble du réseau Center Parcs. Cette évolutivité illustre le potentiel transformateur du projet et sa valeur à long terme.

En savoir plus 

Taille de l'organisme

Administration publique ou ONG 

Localisation

France 

Nom du projet d'IA

OCS GE - Producing national-scale land cover & land use maps with AI

Portée et objectifs du projet

L'objectif principal du projet OCS GE est de produire, à l'échelle nationale, un jeu de données haute résolution sur l'occupation et l'usage des sols, mis à jour tous les trois ans, afin de soutenir les politiques environnementales et les efforts de gestion des terres. Le projet s'appuie sur l'imagerie aérienne capturée par l'IGN (Institut national de l'information géographique et forestière) et utilise des modèles de deep learning de pointe pour la semantic segmentation.

Éléments clés du projet :

  • Données utilisées : Imagerie aérienne haute résolution, bases de données topographiques, données cadastrales et autres informations géospatiales.
  • Modèle appliqué : Modèles de deep learning pour la semantic segmentation, avec des architectures incluant des convolutional neural networks ou des attention-based models.
  • Indicateurs de réussite : Précision de la classification de l’occupation du sol, cohérence dans le temps, réduction du temps et des coûts de production, et possibilité d’étendre la couverture à l’ensemble du territoire national.

En savoir plus 

Taille de l'organisme

Micro entreprise (moins de 10 employés) 

Localisation

Sénégal 

Nom du projet d'IA

Jàngat - A specialized AI

Portée et objectifs du projet

Jàngat est une plateforme avancée basée sur l’IA, conçue pour révolutionner l’accès aux documents stratégiques à forte valeur ajoutée dans des domaines variés et complexes. Construite avec une intelligence artificielle de pointe, Jàngat répond au défi croissant de la surcharge informationnelle rencontrée par les professionnels, les administrations publiques et les organisations. Sa mission est d’offrir un accès intelligent et interactif aux documents critiques, permettant des prises de décision plus rapides et mieux informées.  

Description de la solution

Jàngat se distingue par sa capacité à traiter et rendre accessible un vaste corpus de documents stratégiques, tels que des rapports économiques, des analyses de marché, des études de gouvernance et des publications ministérielles. En exploitant l’IA, la plateforme transforme ces documents en informations exploitables, mettant en évidence les tendances, priorités et stratégies essentielles pour comprendre et naviguer dans la complexité des différents secteurs.  

La plateforme s’adresse à un large éventail d’utilisateurs, allant des décideurs politiques et chercheurs aux dirigeants d’entreprises et citoyens engagés. Grâce à ses fonctionnalités avancées, Jàngat simplifie l’analyse de l’information stratégique, aidant les utilisateurs à anticiper les évolutions sectorielles et les transformations sociétales.  

Principales fonctionnalités

  • Recherche intelligente : Permet aux utilisateurs d’explorer des ensembles de données complexes avec précision et d’identifier rapidement les documents et informations pertinents.  
  • Q&R interactif: Offre la possibilité de poser des questions spécifiques et d’obtenir des réponses précises et contextualisées issues du corpus documentaire.  
  • Résumé automatisé : Génère des synthèses concises de documents longs et complexes, optimisant le temps tout en préservant les éléments essentiels. 
  • Exploration de thématiques complexes : Facilite l’étude approfondie de sujets tels que les réformes économiques, les politiques environnementales et la sécurité nationale.

En savoir plus 

Taille de l'organisme

Administration publique ou ONG 

Localisation

France 

Nom du projet d'IA

Using AI to improve the quality of public services and re-humanizing public services

Portée et objectifs du projet 

Comme l’a annoncé le Premier ministre lors du Comité interministériel pour la Transformation publique, il est impératif de restaurer les fondamentaux des services publics et d’en améliorer la qualité : Services publics+ est un programme à l’échelle nationale qui vise à mettre en œuvre des pratiques et des indicateurs favorisant l’amélioration continue de l’expérience des usagers et de la qualité du service fourni par les principaux services publics (guichets de prestations sociales ; commissariats de police ; régimes d’assurance sociale…).

Pour améliorer les services délivrés aux usagers (en l’occurrence, les citoyens) et rendre les services publics plus efficaces en concentrant le temps des agents publics sur des tâches stratégiques, le gouvernement français développe une stratégie digitale et data proactive. En collectant et en analysant l’expérience des usagers grâce à l'analyse sémantique de verbatims, la plateforme SP+ contribue à l’amélioration continue des processus et du service des administrations.

Objectifs : amélioration continue aux points de contact des parties prenantes

L’évaluation continue des résultats obtenus par les services publics participant à SP+ via la plateforme est exploitée pour identifier et prioriser les actions qui conduiront à des améliorations tangibles dans les services fournis aux usagers grâce à des solutions d'IA générative.

Ce projet développe 3 composants d'IA principaux au sein de la plateforme Services Publics+ pour soutenir le déploiement du programme :

  • la transcription de la parole pour faciliter la consignation des expériences transcrites des usagers mobiles, des personnes en situation de handicap et d’illectronisme,
  • l'assistance automatisée pour aider les agents publics à rédiger des réponses à tous les citoyens français souhaitant donner et partager leurs avis sur la manière d’améliorer les services publics (l'IA propose une ébauche de réponse et les agents peuvent l’utiliser ou la modifier avant de la renvoyer à l’usager),
  • analyses des retours utilisateurs issus des 12 ministères sous forme de synthèses en temps réel, permettant la détection de signaux faibles, d’irritants et de domaines prioritaires de simplification, ainsi que la suggestion de mesures concrètes sous forme de plans d’action.

Ces fonctionnalités produisent déjà des résultats qui se résument en trois principaux bénéfices :

  • améliorer la satisfaction et l’engagement du public ;
  • rationaliser la prestation de services et l’efficacité des processus internes de l’administration, entraînant une réduction du temps des agents consacré à des tâches banales ;
  • réduire les délais de réponse, rendant in fine les services publics plus réactifs aux besoins de la communauté.

Le principal enjeu consiste à évaluer l’impact de ces fonctionnalités AI sur la qualité du service pour les usagers et les agents publics.

En savoir plus 

Taille de l'organisme

Administration publique ou ONG 

Localisation

Ouganda 

Nom du projet d'IA

Leveraging AI for Climate-Resilient Urban Planning in Africa. 

Portée et objectifs du projet

Exploiter l’IA pour une planification urbaine résiliente au climat en Afrique : L’expérience de la Kampala Capital City Authority (KCCA)  

Objectifs du projet :

  • Développer un outil de planification urbaine basé sur l’IA pour soutenir la prise de décision en matière de résilience climatique.  
  • Améliorer l’efficacité de la gestion des déchets en optimisant les itinéraires de collecte et en réduisant les déchets envoyés en décharge.  
  • Renforcer la surveillance environnementale en détectant les variations de la qualité de l’air et de l’eau.

Pertinence de l’IA : l’IA joue un rôle clé dans l’analyse de grands ensembles de données liés au climat, à l’environnement et à l’urbanisme, permettant une prise de décision basée sur les données.  

Données exploitées

  • Données climatiques (température, précipitations, etc.) 
  • Données environnementales (qualité de l’air, qualité de l’eau, etc.) 
  • Données de planification urbaine (occupation des sols, réseaux de transport, etc.) 
  • Données de gestion des déchets (itinéraires de collecte, taux de génération des déchets, etc.)  

Modèle appliqué

  • Algorithmes de machine learning pour l’analyse prédictive  
  • Algorithmes de deep learning pour l’analyse des images et des données de capteurs  

Fonctions impliquées

  • Planification urbaine 
  • Gestion des déchets  
  • Surveillance environnementale

Indicateurs de réussite

  • Réduction des déchets envoyés en décharge  
  • Amélioration de la qualité de l’air et de l’eau 
  • Augmentation du nombre de décisions de planification urbaine résilientes au climat 
  • Réduction des coûts liés à la gestion des déchets et à la surveillance environnementale  

En savoir plus 

Taille de l'organisme

PME (10-250 employés)

Localisation

France

Nom du projet d'IA

Kinetix: Revolutionizing 3D Animation with AI

Portée et objectifs du projet

Kinetix présente ses technologies révolutionnaires basées sur l’IA, conçues pour aider les animateurs 3D dans les studios de jeux et d’animation. L’objectif de notre projet est de rationaliser les workflows d’animation 3D, permettant aux animateurs de créer des animations de haute qualité plus rapidement et de manière plus efficace. Notre solution répond à des problèmes clés de l’animation 3D, notamment le rigging, la création d’animations et le retargeting, en rendant des processus qui prenaient auparavant des jours ou des semaines réalisables en quelques minutes.

Notre suite AI aborde trois tâches majeures dans l’animation 3D :

  • Auto-Rigging : Processus traditionnellement long, le rigging consiste à ajouter une structure squelettique aux modèles 3D. Grâce à notre outil Auto-Rigging, les animateurs peuvent effectuer le rigging des modèles en quelques clics, économisant ainsi des heures de travail manuel.
  • Video-to-Animation et Text-to-Animation : Ces technologies propriétaires permettent aux animateurs de créer des animations dynamiques à partir d’un simple clip vidéo ou d’un prompt textuel. Cela élimine la nécessité d’une keyframe animation chronophage et permet la génération rapide de scalable content.
  • AI-Powered Retargeting : L’adaptation d’animations à différents modèles de personnages nécessite habituellement des ajustements manuels minutieux. Notre technologie de retargeting basée sur l’AI automatise ce processus en tenant compte du mesh et des proportions corporelles de l’avatar, permettant aux animations de s’adapter de manière fluide à des centaines de modèles différents.

Nos principaux objectifs sont :

  • Gagner du temps : En automatisant les tâches manuelles répétitives, nous faisons gagner aux équipes d’animation 3D des heures, voire des semaines, de travail.
  • Stimuler la créativité : En libérant les animateurs des contraintes techniques, ils peuvent se concentrer davantage sur la narration et la création de contenus innovants.

Pertinence de l'IA

Ce projet ne serait tout simplement pas possible sans l’AI. La complexité et l’ampleur de ces tâches - automatiser le rigging, interpréter des vidéos en animations et adapter ces dernières à différents modèles - nécessitent des modèles d’AI avancés entraînés sur de vastes ensembles de données pour fournir des résultats à la fois efficaces et précis.

Données exploitées

  • Des centaines de millions de frames d’animation 3D.
  • Des milliers d’heures de séquences vidéo associées à des animations 3D correspondantes.
  • Des pipelines de data synthétique qui génèrent des données d’entraînement supplémentaires de haute qualité.
  • Des centaines d’heures de motion capture mettant en scène des acteurs réalisant divers mouvements.

Cet ensemble de données robuste garantit que nos modèles peuvent gérer une grande variété d’animations avec une précision et une adaptabilité exceptionnelles.

Modèle appliqué

Toutes les solutions sont alimentées par les modèles d’AI propriétaires de Kinetix, conçus de A à Z avec nos données exclusives. Les modèles centraux incluent :

  • Video-to-3D Animation AI : Transforme les entrées vidéo en animations 3D.
  • Text-to-3D Animation AI : Convertit les descriptions textuelles en animations.

Ces modèles sont spécifiquement adaptés aux besoins des professionnels de l’animation 3D, garantissant à la fois évolutivité et précision.

Fonctions impactées

Notre technologie a un impact significatif sur plusieurs fonctions métier :

  • Équipes d’animation 3D : En automatisant les tâches fastidieuses, ces équipes peuvent créer et adapter des animations plus rapidement, libérant du temps pour des projets créatifs.
  • Équipes Marketing et Communication : Les membres non techniques peuvent désormais créer du contenu 3D de haute qualité sans aucune expertise préalable en animation, démocratisant ainsi la création de contenu.

Indicateurs de réussite

  • Les heures économisées : Quantifier la réduction du temps passé sur des tâches comme le rigging, l’animation et le retargeting.
  • Les économies de coûts : Suivre la réduction des coûts de production pour les studios de jeux et d’animation.

Nos clients constatent d’importants gains de productivité, une livraison de projets plus rapide et une réduction des coûts, illustrant l’impact transformateur de nos solutions AI.

En aidant les animateurs 3D et en élargissant les possibilités créatives au sein des studios, Kinetix redéfinit l’avenir de la production d’animation et élève le potentiel créatif de toute l’industrie.

En savoir plus

Taille de l'organisme

PME (10-250 employés)

Localisation

France

Nom du projet d'IA

Kiro

Portée et objectifs du projet

En s'appuyant sur des technologies numériques et de pointe en machine learning ainsi que sur une base de données propriétaire contenant plus de 1,1 milliard de résultats d’analyses issus de plus de 6 millions de patients uniques, Kiro a développé une plateforme cloud qui assiste les biologistes en laboratoire et les cliniciens aussi bien dans la prescription que dans le diagnostic. En particulier, grâce à nos algorithmes de prédiction basés sur le Machine et Deep Learning, nous fournissons aux biologistes et cliniciens une interprétation des résultats et des recommandations pour affiner leur diagnostic. De plus, nous aidons les patients à mieux comprendre leurs résultats grâce à une communication plus accessible et centrée sur eux. Notre objectif est d’apporter une valeur ajoutée à l’ensemble du système de santé : réduire les coûts pour les assureurs, améliorer l’expérience en laboratoire, optimiser la prise en charge des patients et permettre des opérations évolutives qui libèrent du temps médical, offrant ainsi une proposition de valeur gagnant-gagnant pour tous les acteurs.  

Les objectifs mesurables de notre projet incluent la réduction de la redondance des tests médicaux et la mise à disposition d’un support décisionnel en temps réel, alimenté par l’IA, pour améliorer la précision des prescriptions d’analyses en laboratoire. À chaque étape, nous visons à assurer une interopérabilité fluide avec les systèmes d’information hospitaliers et de laboratoires (LIS, HIS), en intégrant directement les recommandations basées sur l’IA dans le flux de prescription. De plus, nous nous efforçons de prendre en compte les ressources et contraintes spécifiques à chaque établissement, rendant ainsi la solution flexible et adaptable à divers environnements de soins. En fin de compte, notre objectif est d’améliorer la précision et la personnalisation des prescriptions médicales grâce à une approche holistique basée sur l’IA, dépassant les systèmes à base de règles et permettant une prise de décision clinique plus éclairée et efficiente.  

Le cœur de la solution repose sur l’intégration d’algorithmes pilotés par l’IA aux dossiers médicaux électroniques (EHR) et aux systèmes d’information de laboratoire (LIS), permettant des recommandations en temps réel et fondées sur des preuves pour les analyses médicales. Nous déployons des modèles spécifiques de Machine Learning et Deep Learning (tels que MissForest, Neural Networks, etc.), combinant des protocoles standardisés (heuristiques) avec un faible taux d’erreur pour l’imputation et l’interférence, permettant ainsi un apprentissage semi-supervisé. De plus, nous appliquons simultanément des modèles hybrides et combinatoires (univariés et multivariés) en utilisant des approches de filtrage centré sur le contenu et collaboratif (profil prescripteur).  

L’impact de Kiro est suivi à travers divers KPIs en interne et avec nos partenaires. Nous avons atteint un taux de satisfaction des patients de 94 %. Parmi les 160 laboratoires partenaires, les évaluations Google ont montré une augmentation annuelle de 48 %, passant de 3,12 à 4,6 après le déploiement de Kiro. Dans des études de cas sur des cycles de projet de 18 mois, Kiro a contribué à une réduction de 30 % du temps des secrétaires médicales, un taux de précision de 98 % pour les traitements recommandés et une diminution de la consommation de papier de 15 % à 7 %. Enfin, une étude rétrospective menée par Kiro sur 1 million de comptes rendus biologiques a évalué les performances de l’algorithme Beyond (CE-marked). Beyond assiste les médecins généralistes dans l’interprétation des résultats et recommande des analyses complémentaires pertinentes après une première prescription d’examens de biologie médicale. L’étude a révélé qu’en moyenne, Beyond recommande moins d’actions par rapport (-31,8 %) et identifie davantage de consultations de suivi nécessitant des analyses supplémentaires non prescrites par le médecin (+28,6 %). L’étude confirme également que les tests de biologie médicale en soins primaires sont souvent mal formulés, mal priorisés ou choisis de manière inappropriée, et que leur répétition n’est pas toujours justifiée.

En savoir plus

Taille de l'organisme

PME (10-250 employés))

Localisation

Turquie

Nom du projet d'IA

FireAId: Wildfire Management System

Approche de modélisation

Le projet FireAId a été structuré en deux phases distinctes, chacune répondant à des défis de modélisation spécifiques. Dans la première phase, KoçDigital a développé une carte des risques des incendies de forêt à l’aide de techniques de machine learning entraînées sur des données historiques d’incendies. Les résultats de cette phase ont ensuite été utilisés dans un optimisation model afin de permettre une allocation des ressources plus rapide et plus sûre pendant les incendies actifs. La seconde phase s’est concentrée sur l’accompagnement des décideurs en permettant le déploiement des ressources en fonction des niveaux de risque régionaux et des temps de réponse.

La prévision des occurrences d’incendies de forêt constitue un défi unique en raison de leur nature imprévisible. KoçDigital a implémenté un modèle de classification binaire, catégorisant les incidents d’incendie comme des cas positifs et les événements sans incendie comme des négatifs. Le résultat du modèle a été converti en quatre catégories de risque - très haut, haut, moyen, bas - afin de fournir des informations plus exploitables.

Évaluation des performances

L’évaluation des performances du modèle nécessitait l’utilisation de métriques appropriées, compte tenu de la rareté des incendies de forêt. La distribution des données était fortement déséquilibrée, avec bien plus d’instances sans incendie que d’occurrences d’incendie. Les mesures de précision traditionnelles ont été jugées inadéquates, car elles pouvaient donner un avantage trompeur aux prédictions sans incendie sans pour autant améliorer la détection effective des incendies.

Pour y remédier, KoçDigital a mis en avant rappel comme principale métrique d’évaluation, en se focalisant sur la capacité du modèle à identifier correctement les incendies sans produire trop de faux positifs. L’objectif était de maximiser la détection des incendies tout en préservant une utilisabilité pratique pour l’allocation des ressources.

Sources de données

Le jeu de données utilisé dans le projet couvrait 512,000 zones de grille et incorporait diverses caractéristiques à différents niveaux de détail. Parmi celles-ci figuraient les types de végétation, la densité forestière, l’élévation et la proximité d’infrastructures telles que les lignes électriques. Les données historiques d’incendies, remontant à 2010, incluaient des informations sur la taille du feu, sa durée, sa localisation et les efforts de réponse.

D’autres données, telles que les modes d’occupation des sols et les conditions météorologiques, ont été intégrées pour améliorer la précision de la prédiction. Ces caractéristiques ont permis au modèle d’identifier des schémas et des corrélations qui influent sur les risques d’incendie.

Sélection de l’algorithme et optimisation

Dans la première phase, KoçDigital a testé plusieurs algorithmes de machine learning avant de sélectionner un gradient-boosting model pour ses performances supérieures. Bien que plus complexe que les approches basées sur la régression, ce modèle offrait une précision accrue, conforme aux objectifs du projet, justifiant les ressources de calcul supplémentaires.

Pour la seconde phase, l’allocation des ressources a été modélisée comme un problème d'optimisation du réseau. Les sous-districts de la région pilote ont été traités comme des nœuds interconnectés capables de partager leurs ressources. Grâce à une méthode d'optimisation des flux à coût minimum, résolue via une programmation linéaire, l’approche a permis des solutions rapides et extensibles pour la réaffectation des ressources en situation d’urgence.

Collaboration et échange de connaissances

La gestion efficace des incendies de forêt exige la coopération de différents acteurs, dont les décideurs politiques, les équipes de terrain, les chercheurs et les experts en technologies. Les responsables gouvernementaux supervisent la réglementation et les politiques, tandis que les pompiers et le personnel de terrain exécutent les stratégies opérationnelles. Parallèlement, les chercheurs universitaires contribuent par des connaissances théoriques permettant d’améliorer les applications pratiques.

KoçDigital a réuni une équipe pluridisciplinaire composée de project managers, business analysts, machine learning engineers, software developers et data scientists. Leurs compétences combinées ont permis une intégration fluide des techniques d’AI et d’optimisation pour relever les défis liés à la gestion des incendies de forêt.

Conscient que les incendies de forêt constituent un problème mondial, le projet a également mis l’accent sur la collaboration internationale. Le partage d’idées et de meilleures pratiques avec des partenaires internationaux a accéléré l’adaptation à de nouvelles régions, renforcé les capacités techniques et encouragé la sensibilisation mondiale à la prévention et à la lutte contre les incendies.

Implication et soutien des parties prenantes

Le succès du projet FireAId a été largement influencé par l’implication et le soutien du Turkish Ministry of Agriculture and Forestry (TMAF). Leur engagement actif tout au long du cycle de vie du projet a permis de s’assurer que les solutions développées répondent aux défis réels.

TMAF a fourni des ressources clés, notamment des données et une expertise spécifique, tout en testant les modèles d’AI au sein des opérations de terrain. Ce partenariat illustre comment une collaboration étroite entre fournisseurs de technologies et institutions publiques peut aboutir à des solutions évolutives et efficaces pour la gestion des catastrophes.

En savoir plus

Taille de l'organisme

PME (10-250 employés)

Localisation

France

Nom du projet d'IA

AI-Driven Optimization for Collective Heating and Renovation Planning

Portée et objectifs du projet

La plateforme alimentée par l’IA de Kocliko répond aux défis majeurs de l’optimisation énergétique et de la répartition équitable des ressources dans les bâtiments résidentiels collectifs et commerciaux. En exploitant des technologies d’IA avancées et des données en temps réel, le projet vise à améliorer l’efficacité énergétique, à réduire significativement les émissions de CO₂ et à assurer une répartition transparente et équitable des coûts pour les occupants.  

Le projet poursuit trois objectifs principaux :  

  1. Répartition équitable des coûts de chauffage : Développer un système qui répartit les coûts de chauffage de manière juste en fonction de l’utilisation en temps réel et des paramètres spécifiques au bâtiment, offrant aux résidents une facturation précise et transparente.  
  2. Gestion en temps réel des chaudières : Optimiser le fonctionnement des chaudières pour améliorer l’efficacité énergétique, minimiser les pertes et garantir une performance fiable.  
  3. Planification optimisée des rénovations : Générer des scénarios de rénovation adaptés aux objectifs de décarbonation, maximisant les économies d’énergie tout en proposant des solutions rentables pour les gestionnaires de bâtiments.  

L’IA est au cœur du projet, permettant à Kocliko de traiter des ensembles de données complexes et multi-sources afin de fournir des analyses précises et exploitables. Les modèles de machine learning analysent les tendances de consommation énergétique et prédisent les besoins futurs, tandis que les algorithmes d’optimisation garantissent une efficacité énergétique et une rentabilité accrues. Des jumeaux numériques 3D détaillés des bâtiments, créés à l’aide d’outils de simulation, permettent une analyse thermique précise et une planification optimale des rénovations.  

Le projet exploite diverses sources de données :  

  • Données des capteurs IoT : Températures intérieures en temps réel, performance des chaudières et autres indicateurs opérationnels.
  • Données météorologiques : Prévisions et tendances historiques pour contextualiser la consommation énergétique.
  • Métadonnées des bâtiments : Détails structurels, niveaux d’isolation et spécifications des systèmes de chauffage pour améliorer la précision des modèles.  

Les fonctions métier impactées incluent :  

  • Gestion énergétique : Ajustements en temps réel basés sur l’IA pour optimiser les performances des systèmes et réduire le gaspillage énergétique.  
    Gestion financière : Une répartition transparente et équitable des coûts qui renforce la confiance et la satisfaction des résidents.  
    Stratégie de rénovation : Des analyses basées sur les données qui améliorent la prise de décision et rationalisent les projets de rénovation énergétique.  

Les indicateurs de succès incluent :  

  • Une économie d’énergie moyenne de 21 % sur les projets mis en œuvre.
  • Une réduction des émissions de CO₂ liées aux systèmes de chauffage, avec des impacts mesurables sur l’empreinte carbone.
  • Une amélioration de la satisfaction des résidents grâce à une facturation équitable et une allocation transparente des ressources.
  • Des économies de coûts tangibles pour les gestionnaires de bâtiments et les résidents.

En intégrant l’IA à des données robustes et à une approche axée sur la durabilité, le projet de Kocliko transforme la gestion énergétique des bâtiments, générant des bénéfices environnementaux, économiques et sociaux concrets tout en répondant aux défis majeurs de la transition énergétique.

En savoir plus

Taille de l'organisme

Grande entreprise (plus de 5 000 employés)

Localisation

France

Nom du projet d'IA

Kyndryl Bridge

Portée et objectifs du projet

Kyndryl Bridge est une plateforme d’intégration ouverte alimentée par l’AI que nous utilisons pour fournir des services IT à nos clients. Fondamentalement, l’AI est utilisée pour améliorer la disponibilité globale de l’IT, ce qui contribue directement à la productivité et aux performances commerciales de nos clients.

C’est une plateforme puissante qui aide plus de 1 200 clients à avoir une vue d’ensemble de leurs environnements IT hybrides complexes afin de mieux comprendre ce qui se passe à tout moment. Bridge fusionne trois ingrédients clés — nos experts, les données opérationnelles IT et l’AI — pour créer des insights propriétaires pour nos clients et pour nous-mêmes. Les professionnels de Kyndryl utilisent Bridge pour identifier des opportunités et recommander des actions afin d’augmenter la qualité, de réduire les risques liés aux données et d’améliorer l’expérience utilisateur.

Kyndryl Bridge innove en continu.

Le point de départ, ce sont les données. En tant que plus grand fournisseur mondial de services IT gérés pour les infrastructures critiques, nous adoptons l’IA pour soutenir nos propres opérations et les environnements de nos clients. Chaque jour, nous intégrons des données opérationnelles provenant de 10K sources chez 1 200 clients dans nos data planes.

Kyndryl Bridge identifie des schémas et des anomalies à partir d’événements d’apprentissage tels que la réalisation de projets, les alertes d’infrastructure, les experts en sécurité identifiant de nouveaux risques, et les fournisseurs de technologie découvrant des bugs. Nos experts évaluent chaque événement d’apprentissage et enseignent ce schéma ou cette anomalie à Bridge. Nous appelons cela un insight ; Bridge peut appliquer ces insights et les repérer partout où ils se produisent. Chaque mois, nous générons plus de 13 millions d’insights. Cela nous permet d’être proactifs, prédictifs et prescriptifs. Par exemple, il y avait une grande entreprise de télécommunications qui a subi une panne affectant ses services critiques de paiement mobile. Une fois que nous avons découvert et résolu le problème de stockage qui causait cette panne, nous avons pu utiliser les données et l’AI pour déterminer quels autres clients allaient être susceptibles d’être touchés par ce problème et collaborer avec eux afin de corriger leur environnement de manière préventive avant qu’ils ne rencontrent une situation similaire.

Sur la base des données IT provenant de multiples sources et des insights tirés des événements d’apprentissage, Kyndryl Bridge évalue en temps réel les implications pour les problèmes actuels et futurs. Nous prenons ces insights et les transformons en valeur commerciale, incluant environ ~3 milliards de dollars d’économies depuis le lancement pour nos clients, en évitant les incidents majeurs et en automatisant les activités de maintenance.

Kyndryl Bridge utilise trois types d’intelligence artificielle :

  • Classical AI pour effectuer des tâches comme la classification en langage naturel et la recherche sémantique. C’est ce qui nous permet d’analyser les informations de ticketing, l'analyse de la cause, les données d’incident, etc., afin de fournir des recommandations d’amélioration.
  • Anomaly detection pour analyser les schémas dans les données de télémétrie afin de détecter des tendances et des problèmes pour les empêcher de survenir, comme un périphérique à court d’espace ou des changements à haut risque imminents.
  • GenAI nous permet de prendre en entrée des déclarations et questions simples et de générer des réponses. Si un ingénieur demande à Bridge « que devrais-je faire en cas de SAP Hana outage ? », il générera un script basé sur nos années d’expérience sur les actions à mener pour rétablir rapidement les opérations SAP.

Avec nos équipes de delivery utilisant ces trois approches d’AI dans Kyndryl Bridge, nos collaborateurs peuvent tirer parti de leur expertise et des insights issus des données pour réduire la part d’ambiguïté dans les environnements IT de nos clients, se protéger contre les menaces de sécurité et les aider à atteindre leurs objectifs commerciaux et technologiques.

Il existe de nombreux exemples montrant comment Kyndryl Bridge a bénéficié à nos clients.

Un important client ferroviaire aux États-Unis a utilisé Bridge pour prévenir une panne de son système de déraillement. Nous avons pu non seulement identifier ce problème avant qu’il ne se produise, mais aussi aider à y remédier, de sorte qu’il n’y a eu ni panne ni problème de sécurité pour ce client.

Une multinationale d’assurances en Europe qui dispose d’un environnement IT complexe et hétérogène (deux cent mille incidents ; des dizaines de milliers de devices). En tirant parti des insights de Bridge, nous avons pu promouvoir les bonnes pratiques et l’application de l’automatisation à l’échelle de cet environnement, aboutissant à une réduction de 75 % du volume d’incidents, une réduction de 60 % du temps de résolution des problèmes et un respect des politiques de sécurité et de conformité supérieur à 90 %. Ce client a également pu améliorer l’efficacité de ses opérations de 15 %.

Une compagnie aérienne nord-américaine a utilisé Bridge pour identifier un risque majeur lié au hardware et software obsolètes dans l’environnement du client, qui commençaient à défaillir. Ce risque concernait plus de 20 applications mission-critical, dont leur application de maintenance des vols. Cette défaillance aurait exposé la compagnie aérienne à une intervention de la FAA, affectant 1 300 vols, si l’application de maintenance avait échoué, et aurait entraîné des pertes financières importantes. Sans Bridge, ce client n’avait aucune visibilité ni insight sur l’endroit et la manière dont son environnement défaillait. Bridge a permis une stratégie de remédiation proactive, évitant toute panne et toute exposition à la FAA.

En savoir plus

Taille de l'organisme

Entreprise de taille intermédiaire (250-5 000 employés)

Localisation

France

Nom du projet d'IA

Kyriba AI (KAI)

Portée et objectifs du projet

  
Kyriba AI (KAI) est une initiative stratégique visant à intégrer l’intelligence artificielle à l’échelle de l’organisation, avec un double objectif : améliorer l’efficacité interne et l’expérience client. Le périmètre du projet couvre l’ensemble de l’entreprise, en mettant l’accent sur la démocratisation de l’accès à l’IA tout en maintenant des normes strictes de sécurité et de gouvernance.

L’objectif principal était de mettre en place une solution d’IA générative sécurisée et accessible à tous les employés. Cette base devait permettre un prototypage rapide de solutions innovantes, en commençant par l’amélioration de l’expérience client avant d’élargir aux processus opérationnels. Au fil de l’avancement du projet, il est devenu évident que préparer l’organisation à un avenir intégrant l’IA était essentiel, tant pour les opérations internes que pour les solutions futures destinées aux clients.  

Stratégie de données et de modèle

Après une analyse approfondie du marché, Kyriba a adopté une approche « buy versus build » en s’associant à Dust comme fournisseur technologique. Cette décision reposait sur plusieurs facteurs stratégiques :  

  • La nécessité d’un déploiement rapide dans un environnement IA en évolution rapide  
  • L’importance d’agréger des informations internes dispersées à travers divers systèmes  
  • L’avantage de rester indépendant des modèles pour exploiter les meilleures solutions commerciales d’IA  
  • La priorité donnée à la qualité et à l’accessibilité des données plutôt qu’à la spécificité des modèles  

La solution intègre différentes sources de données des systèmes de Kyriba tout en garantissant les standards de sécurité et de conformité, permettant ainsi aux applications IA d’accéder efficacement aux connaissances de l’organisation. 

Fonctions métier et impact

Le projet impacte plusieurs fonctions métier grâce à une approche communautaire particulièrement efficace pour :

  • Identifier et mettre en œuvre des améliorations de productivité dans les différents départements  
  • Permettre aux employés de se concentrer sur des tâches stratégiques  
  • Réduire les erreurs humaines dans les processus opérationnels  
  • Améliorer l’équilibre entre vie professionnelle et personnelle grâce à l’automatisation  
  • Supprimer les silos d’information entre les départements  

Approche de mise en œuvre

Kyriba a adopté une stratégie de mise en œuvre axée sur la communauté, en reconnaissant que l’intégration réussie de l’IA nécessitait :  

  • Une mobilisation à l’échelle de l’organisation pour identifier les opportunités d’amélioration
  • L’autonomisation des employés ayant un intérêt pour l’IA
  • Une adoption organique par l’innovation ascendante
  • Une collaboration transversale pour améliorer la circulation de l’information  
  • Des cycles d’expérimentation et d’apprentissage rapides  

Indicateurs de succès

  • Engagement des employés avec les outils d'IA
  • Nombre et impact des solutions d'IA mises en place
  • Gains de productivité dans les processus automatisés
  • Amélioration de la qualité des livrables
  • Temps économisé grâce aux tâches assistées par IA
  • Augmentation de la collaboration interservices  

L’approche communautaire s’est révélée particulièrement efficace, permettant une identification et une mise en œuvre rapides des cas d’usage tout en renforçant les compétences internes en IA. Cette méthode permet à Kyriba de « fail fast and fail cheap », favorisant l’innovation tout en optimisant les coûts et en maintenant une agilité organisationnelle.

Grâce à cette approche globale, Kyriba s’est positionné pour exploiter efficacement l’IA, tant en interne que dans ses futures solutions à destination des clients, tout en développant une culture d’innovation et d’amélioration continue.

En savoir plus

Taille de l'organisme

Entreprise de taille intermédiaire (250-5 000 employés)

Localisation

France

Nom du projet d'IA

GenIA-L

Portée et objectifs du projet

La ligne de métier GenIA-L répond à deux ambitions principales pour Lefebvre Sarrut :

  • Nous exploitons les technologies d'IA générative pour garantir la fiabilité et la qualité de nos contenus éditoriaux, ainsi que l'expertise de nos équipes dans la conception et l'ingénierie de l'information juridique et fiscale.
  • Nous affirmons que les besoins de nos clients sur les marchés LTR à travers l'Europe, ainsi que les stratégies des Business Units (BU) pour répondre à ces besoins, peuvent être couverts par une solution technologique unique, entièrement évolutive, ce qui permet de réaliser des économies de coûts.

Avec GenIA-L, nous nous concentrons sur la recherche juridique ainsi que sur les opérations courantes ou plus complexes liées à la gestion de documents juridiques et à la génération de textes. Concrètement, cela couvre la majeure partie de la pratique quotidienne des avocats, conseillers, magistrats, mais aussi des comptables et d'autres fonctions d'entreprise qui doivent vérifier la conformité juridique ou réglementaire de tout type de texte qu'ils produisent : contrats, accords, mémorandums, arguments, achats, RH, fiscalité, rapports ESG, etc.

En savoir plus

Taille de l'organisme

PME (10-250 employés)

Localisation

France

Nom du projet d'IA

Speech Toolbox - Empowering European Commission Meetings with AI

Portée et objectifs du projet

LINAGORA est un pionnier français du logiciel open-source, spécialisé dans les solutions alimentées par l'IA et le traitement du langage naturel (NLP). Depuis plus de deux ans, nous collaborons étroitement avec la Commission européenne, en particulier avec la Direction générale de l’interprétation (DG Interpretation), pour relever les défis de la communication multilingue et de la gestion des connaissances dans les environnements institutionnels.

Le projet Speech Toolbox a été lancé grâce à une collaboration stratégique entre l'équipe d'innovation de LINAGORA et la DG Interpretation. Son objectif principal est d'améliorer l'efficacité et l'accessibilité des 1 100 salles de réunion de la Commission en offrant une transcription et une traduction en temps réel dans les 24 langues officielles de l'UE. Cela garantit l'inclusivité, notamment pour les participants en situation de handicap, en leur offrant un accès en direct aux discussions dans le format ou la langue de leur choix.

Pertinence de l'IA

L'IA est au cœur du Speech Toolbox, permettant une transcription, traduction et résumés en temps réel et précis des discussions multilingues. Le projet utilise des modèles d'IA avancés, y compris des algorithmes de traitement du langage naturel de pointe, optimisés pour les environnements multilingues, construits dans un cadre open-source.

Données exploitées

Le projet utilise un jeu de données soigné de records de réunions multilingues et de corpus linguistiques de l'UE, garantissant une transcription et une traduction de haute qualité à travers des contextes linguistiques variés. Ces données sont augmentées avec des corpus disponibles publiquement, assurant la conformité avec les normes de données de l'UE et les lignes directrices éthiques.

Modèle appliqué

La solution repose sur des modèles open-source, affinés pour les tâches de transcription et de traduction multilingues : kaldi, whisper, llama et bientôt Lucie (LLM développé par la communauté OpenLLM France). Ces modèles sont intégrés à l'architecture open-source de LinTO, offrant une solution évolutive et adaptable qui garantit transparence et flexibilité pour le déploiement dans les institutions publiques.

Fonctions impactées

Le Speech Toolbox impacte directement les fonctions clés de la DG Interpretation, notamment :

  • Gestion des connaissances : capture, indexation et archivage des discussions multilingues pour préserver la mémoire institutionnelle.
  • Accessibilité des événements : amélioration de l'inclusivité pour des audiences variées, y compris les personnes en situation de handicap, grâce à la transcription et à la traduction en temps réel.
  • Efficacité opérationnelle : réduction de l'effort manuel nécessaire pour la transcription et le résumé, permettant au personnel de se concentrer sur des tâches à plus forte valeur ajoutée.

Indicateurs de succès

Le succès du Speech Toolbox est mesuré par plusieurs indicateurs clés de performance :

  • Précision : taux de précision de la transcription et de la traduction en temps réel sur les 24 langues.
  • Gains d'efficacité : réduction du temps et des coûts associés à la documentation manuelle des réunions.
  • Inclusivité des utilisateurs : pourcentage d'utilisateurs, y compris ceux en situation de handicap, rapportant une meilleure accessibilité au contenu des réunions et à la qualité de l'expérience en direct.
  • Adoption : taux d'utilisation du système par les participants aux réunions et le personnel de la DG Interpretation.

En exploitant des technologies avancées d'IA dans un cadre éthique et open-source, le Speech Toolbox de LINAGORA établit une nouvelle norme en matière d'accessibilité multilingue et d'efficacité opérationnelle dans les institutions publiques, en accord avec les objectifs de la Commission européenne en matière de souveraineté numérique et d'inclusivité.

En savoir plus

Taille de l'organisme

Entreprise de taille intermédiaire (250-5 000 employés)

Localisation

France

Nom du projet d'IA

Ask AI & Micro-Apps

Portée et objectifs du projet

LumApps, dans le cadre du développement de Ask AI et de ses Micro-apps, visait à révolutionner l'accès des employés à l'information et aux actions au sein de l'environnement de travail numérique. Nous avons pris conscience de la frustration engendrée par la nécessité de basculer entre plusieurs applications et de l'inefficacité de la recherche traditionnelle. Notre objectif était de créer une expérience simplifiée et alimentée par l'IA, où les employés pouvaient trouver des réponses et accomplir des tâches de manière fluide, le tout au sein d'un hub unique.

Au sein de LumApps, Ask AI est une recherche augmentée - votre barre de recherche standard enrichie par la découverte de connaissances alimentée par l'IA, des recommandations personnalisées et la possibilité d'agir directement au sein des résultats de recherche grâce aux Micro-apps. Par exemple, une Micro-app pourrait vous permettre de créer un ticket informatique, d'accéder aux ressources RH, ou même de soumettre une demande de congé directement depuis l'interface Ask AI, sans avoir à ouvrir une application séparée.

Taille de l'organisme

PME (10-250 employés)

Localisation

France

Nom du projet d'IA

Metroscope: AI-Powered Diagnostics for Enhanced Performance and Sustainability of the French Nuclear Fleet

Portée et objectifs du projet

Le projet IA se concentre sur le déploiement complet de la solution de surveillance et de diagnostic en temps réel (M&D) alimentée par l'IA de Metroscope, au sein de la flotte nucléaire française d'EDF, composée de 56 unités. L'objectif est d'améliorer la performance opérationnelle, d'optimiser la maintenance et d'augmenter la disponibilité des centrales en détectant les pannes tôt et en minimisant les pertes en mégawatts. Metroscope combine un jumeau numérique thermodynamique avec une IA avancée pour fournir des diagnostics précis de pannes, quantifier les pertes d'énergie et permettre des actions correctives en temps opportun, contribuant ainsi à une meilleure efficacité énergétique et à une réduction des émissions de CO₂.

Depuis son introduction, Metroscope a détecté 220 pannes uniques, identifiant environ 2,5 GWh de pertes d'énergie chaque année. Au-delà de la récupération d'énergie, la solution apporte de la valeur en réduisant les coûts de maintenance, en améliorant la disponibilité des centrales et en renforçant la sécurité.

Objectifs principaux

  • Améliorer la performance : La détection simultanée des pannes et des analyses de causes profondes associées réduit les pertes de puissance et augmente l'efficacité.
  • Optimiser la maintenance : Les informations basées sur les données minimisent les interventions inutiles et prolongent la durée de vie des équipements.
  • Améliorer la disponibilité : La détection précoce aide à minimiser les arrêts imprévus et à optimiser les périodes de maintenance.
  • Soutenir la sécurité : L'identification précoce des problèmes critiques pour la sécurité (par exemple, dans les équipements sous pression) garantit la conformité.
  • Favoriser la gestion des connaissances : Une interprétation simplifiée des données et des diagnostics clairs améliorent la prise de décision et le transfert de connaissances.
  • Stimuler la transformation : Encourage l'adoption numérique au sein des équipes d'EDF.

Pertinence de l'IA

Les opérations des centrales nucléaires génèrent de grands volumes de données, nécessitant l'IA pour détecter les anomalies et fournir des informations exploitables.

Les principaux avantages de l'IA comprennent :

  • Surveillance en temps réel : Les jumeaux numériques simulent les états nominaux et défectueux pour une détection immédiate des pannes.
  • Détection de pannes à faible bruit : L'IA détecte tôt les problèmes à faible signal, comme les petites fuites de vannes.
  • IA explicable : Des visualisations claires des pannes et des analyses des causes profondes associées soutiennent la compréhension et la confiance des opérateurs.
  • Scalabilité : Le système basé sur le cloud supporte plus de 150 utilisateurs réguliers répartis sur plusieurs sites.

Données utilisées

Metroscope traite des données en temps réel provenant de centaines de capteurs de la centrale, y compris la température, la pression, le débit massique et la pression de vide. Ces données alimentent le jumeau numérique, permettant la détection et le diagnostic des pannes. Des données historiques sont également utilisées pour la calibration et la validation.

Modèle appliqué

  • Le jumeau numérique thermodynamique : Simule les conditions normales et défectueuses dans le circuit de vapeur.
  • Un système expert fournissant l'inférence et la quantification des signatures de pannes simultanées, s'appuyant sur des modèles de substitution pour accélérer les diagnostics en approximant les résultats du jumeau numérique.
  • Modèles de substitution : Accélère les diagnostics en approximant les résultats du jumeau numérique.

Fonctions commerciales impactées

  • Opérations : Améliore la surveillance en temps réel des performances pour les opérateurs.
  • Maintenance : Soutient la priorisation des actions et l'extension de la durée de vie des composants clés.
  • Ingénierie : Aide les ingénieurs de performance à valider les pannes, quantifier les pertes et formuler des recommandations correctives.
  • Gestion d'entreprise : Fournit des informations sur l'efficacité, les économies et la durabilité pour les décisions stratégiques.
  • Durabilité : Contribue aux objectifs de réduction des CO₂ d'EDF grâce à la récupération d'énergie.

Indicateurs de réussite

  • Énergie récupérée : Plus de 2,5 GWh d'énergie identifiée chaque année.
  • Économies : 34 millions d'euros de valeur annuelle provenant de la récupération d'énergie et de l'optimisation de la maintenance.
  • Précision de la détection des pannes : 89 % des pannes confirmées par les opérateurs.
  • Disponibilité : Un taux de disponibilité des logiciels de 99,95 % garantit une utilisation continue.
  • Taux d'adoption : Plus de 160 utilisateurs répartis sur 56 unités, avec 50 % d'engagement hebdomadaire.
  • Impact sur la maintenance : A permis une maintenance proactive et une meilleure planification des arrêts.

Ce projet démontre l'impact transformateur de Metroscope sur la flotte nucléaire d'EDF, en améliorant la performance, l'efficacité et la durabilité. La solution scalable, couplée à l'adoption par les utilisateurs et aux progrès continus, positionne Metroscope comme un élément vital dans la transformation numérique d'EDF et ses objectifs stratégiques. Une valeur supplémentaire peut être débloquée grâce à un engagement accru des utilisateurs et un déploiement plus large au sein de la flotte mondiale d'EDF.

En savoir plus

Taille de l'organisme

PME (10-250 employés)

Localisation

France

Nom du projet d'IA

Video understanding for future of work

Portée et objectifs du projet

L'IA est au cœur de notre produit et de la valeur commerciale de notre entreprise. Nous mesurons le succès à travers notre croissance commerciale et les indicateurs d'adoption de notre produit. Après avoir ouvert la région des États-Unis en 2023, nous avons désormais des clients aux États-Unis (Hearst, Sinclair, Twitch...), en EMEA (TF1, M6, FFF, Bayer Leverkusen, ITN, Brut, Cepsa, Chanel...) et au Moyen-Orient (Asharq News, ASBU...) pour ne citer que quelques références. Notre revenu récurrent annuel a doublé au cours des 12 derniers mois et nous sommes soutenus par des investisseurs en Deep-Tech. Notre objectif est de continuer à croître et devenir la référence en matière de découverte de contenu pour toutes les organisations créatives travaillant avec de grandes quantités de vidéos.

En savoir plus

Taille de l'organisme

PME (10-250 employés)

Localisation

Corée du Sud

Nom du projet d'IA

Morphing Bot

Portée et objectifs du projet

Le projet d'IA chez Morphing I Inc. se concentre sur le développement et le déploiement de Morphing-BOT, un système robotique équipé d'IA conçu pour surveiller et détecter les anomalies dans les pipelines d'eau. Ce projet vise à couvrir l'ensemble du cycle de vie, y compris la collecte de données, la détection d'anomalies en temps réel, la maintenance prédictive et l'analyse de l'intégrité des pipelines. La portée inclut à la fois le développement technologique et la mise en œuvre commerciale, garantissant que Morphing-BOT puisse être intégré dans les systèmes d'infrastructure existants à grande échelle.

Développement robotique : développer des robots compacts et articulés capables de naviguer à travers différents diamètres de pipeline (jusqu'à 4,4 cm) et des structures complexes (coudes, joints, vannes).

Collecte de données multimodales : collecter des images internes, des signaux acoustiques et des données environnementales pour fournir des évaluations complètes des pipelines.

Analyse IA en temps réel : implémenter des algorithmes d'IA pour la détection immédiate des fuites, de la corrosion, des blocages et des dommages structurels.

Maintenance prédictive : créer des modèles prédictifs pour estimer la durée de vie des pipelines et recommander une maintenance ou un remplacement en temps voulu.

Intégration et déploiement : assurer une intégration fluide avec les systèmes de gestion de l'infrastructure existants et garantir la scalabilité pour inspecter des réseaux de pipelines longs (jusqu'à 2 km sans interruption).

Objectifs principaux

  • Détection efficace des fuites : identifier et localiser rapidement les fuites pour réduire les pertes d'eau et l'impact environnemental.
  • Minimiser les dommages à l'infrastructure : prédire et prévenir la formation de nids de poule causés par des défaillances de pipeline.
  • Améliorer l'efficacité de la maintenance : réduire les inspections manuelles et rationaliser les flux de travail de maintenance grâce à l'automatisation basée sur l'IA.
  • Réduction des coûts : réduire les coûts de maintenance et de réparation en passant d'une maintenance réactive à une maintenance prédictive.
  • Scalabilité : déployer la solution sur différents types et tailles de pipelines à l'échelle mondiale.

Pertinence de l'IA

L'IA est cruciale pour ce projet car les méthodes traditionnelles d'inspection des pipelines sont limitées en termes de précision, de portée et d'efficacité. L'IA permet de :

  • Surveillance continue : Traitement des données en temps réel sans arrêter l'approvisionnement en eau.
  • Haute précision : Les modèles avancés détectent des anomalies subtiles que les inspections humaines pourraient manquer.
  • Perspectives prédictives : L'IA prévoit les problèmes potentiels avant qu'ils ne s'aggravent, réduisant ainsi les temps d'arrêt et les coûts de réparation.

Données exploitées

  • Images internes : Capturées par des caméras embarquées pour détecter les anomalies visuelles.
  • Données acoustiques : Sons internes et externes pour détecter les fuites et les faiblesses structurelles.
  • Historique des maintenances : Données des réparations passées pour améliorer les modèles prédictifs.
  • Données des capteurs : Facteurs environnementaux tels que la pression, la température et le débit.

Modèle appliqué

  • Modèles de détection d'anomalies : Modèles d'IA entraînés pour identifier les écarts par rapport aux conditions normales des pipelines.
  • Vision par ordinateur : Utilisée pour analyser les images internes à la recherche de signes de corrosion, de fissures ou de blocages.
  • Modèles de maintenance prédictive : Algorithmes qui prédisent les délais d'échec en fonction des données collectées.

Fonctions commerciales impactées

  • Gestion des infrastructures : Surveillance et diagnostic améliorés des pipelines.
  • Opérations de maintenance : Optimisation des plannings de maintenance et des flux de travail.
  • Contrôle des coûts : Réduction des coûts de réparation et de remplacement grâce à une intervention précoce.
  • Conformité environnementale : Conservation de l'eau améliorée et réduction des risques environnementaux.

Critères de réussite

  • Précision de la détection d'anomalies : Mesurée par le taux de détection et les taux de faux positifs/négatifs.
  • Plage d'exploration : Capacité à couvrir jusqu'à 2 km par déploiement.
  • Efficacité des coûts : Réduction des coûts d'inspection et de réparation par rapport aux méthodes traditionnelles.
  • Temps de réponse : Temps écoulé entre la détection d'anomalie et le début de la maintenance.
  • Réduction des pertes d'eau : Réduction quantifiable des pertes d'eau grâce à une détection précoce des fuites.

En savoir plus

Taille de l'organisme

PME (10-250 employés)

Localisation

Irlande

Nom du projet d'IA

AI in Action: Empowering Movement and Well-Being in Youth

Portée et objectifs du projet

L'objectif du projet est d'utiliser des outils alimentés par l'IA pour relever le défi mondial de l'inactivité physique chez les enfants tout en favorisant l'alphabétisation physique et le développement des compétences motrices. Notre approche se concentre sur le développement de solutions évolutives basées sur les données qui impliquent activement les enfants et les familles dans le mouvement, créant des résultats positifs pour la santé, le bien-être et l'engagement communautaire. Le projet combine des technologies de pointe en IA avec des plateformes mobiles interactives pour redéfinir le temps d'écran en temps d'écran actif, établissant ainsi une nouvelle norme pour des expériences numériques engageantes et percutantes.

Les principaux objectifs du projet sont :

  • Donner aux enfants et aux familles du monde entier des outils innovants et engageants pour promouvoir l'activité physique et le développement des compétences.
  • Fournir des analyses basées sur les données aux parents, éducateurs et organisations pour évaluer la maîtrise des compétences motrices et soutenir un développement individualisé.
  • Créer un cycle vertueux de collecte de données, de raffinement et d'amélioration des modèles grâce à un lac de données en constante croissance qui améliore l'efficacité des modèles d'IA au fil du temps.
  • Stimuler l'innovation collaborative en tirant parti des modèles d'IA open-source, en les enrichissant avec une expertise spécifique au domaine et en contribuant à un pool de connaissances partagées qui profite à la communauté au sens large.
  • Élargir l'impact à travers des partenariats en octroyant des licences de technologie et en développant des applications et des jeux sur mesure adaptés aux besoins spécifiques des clients.

Pertinence de l'IA

L'IA est l'épine dorsale de ce projet, permettant la collecte, l'analyse et l'application des données à une échelle sans précédent. En automatisant l'évaluation des compétences motrices, l'IA nous permet de générer des informations précises et exploitables qui seraient impossibles avec les méthodes traditionnelles. Nos analyses basées sur l'IA alimentent des outils comme la Movement Assessment Platform (MAP), qui évalue les compétences motrices à travers une combinaison de suivi des mouvements et de modèles scientifiquement validés.

L'IA permet également de créer des expériences adaptatives et personnalisées dans nos jeux vidéo actifs, fournissant des retours en temps réel aux enfants et favorisant l'engagement continu. De plus, l'intégration de l'IA facilite l'élaboration de normes mondiales pour les compétences motrices, en exploitant des milliards de points de données provenant de diverses populations pour garantir que les informations sont inclusives et pertinentes à l'échelle mondiale.

Données exploitées et modèles appliqués

Le projet repose sur des données collectées par suivi des mouvements sur des plateformes accessibles telles que les téléphones mobiles et les tablettes. Ces appareils capturent les données de mouvement lors des interactions avec nos applications et jeux, qui sont ensuite traitées pour extraire des mesures clés sur la maîtrise des compétences motrices. Le lac de données en croissance crée un cycle vertueux : à mesure que davantage de données sont collectées, les modèles sont affinés et améliorés, permettant des informations de plus en plus précises et impactantes.

Nous nous appuyons sur des modèles d'IA open-source, que nous enrichissons avec une expertise propriétaire spécifique au domaine pour garantir robustesse et précision. Cette approche collaborative accélère non seulement l'innovation, mais contribue également à l'écosystème plus large de l'IA, soutenant ainsi le travail d'autres acteurs du domaine.

Le projet touche plusieurs fonctions commerciales, notamment :

  • Recherche et Développement : Affinement des modèles d'IA, création de nouvelles applications et amélioration des performances d'outils comme la MAP et les jeux vidéo actifs.
  • Partenariats et Licences : Octroi de licences de technologie aux partenaires et collaboration sur le développement d'applications et de jeux sur mesure pour répondre aux besoins spécifiques des clients.
  • Données et Analyse : Gestion du lac de données, génération d'informations exploitables et affinage des modèles d'IA.
  • Engagement des clients : Fourniture d'expériences personnalisées basées sur les données qui permettent aux parents, éducateurs et organisations de soutenir l'alphabétisation physique des enfants.

Le succès est mesuré à travers une combinaison d'indicateurs qualitatifs et quantitatifs :

  • Impact sur les enfants et les familles : Augmentation des niveaux d'activité physique, amélioration de la maîtrise des compétences motrices et engagement renforcé avec des solutions de temps d'écran actif.
  • Portée mondiale : Expansion de la base d'utilisateurs et croissance du lac de données pour affiner les modèles et établir des références pertinentes à l'échelle mondiale.
  • Satisfaction des clients : Retours positifs et partenariats durables avec des organisations qui octroient des licences à la technologie ou utilisent des solutions sur mesure.
  • Contributions collaboratives : Amélioration des modèles open-source et partage des connaissances avec la communauté IA plus large.
  • Succès commercial : Croissance du chiffre d'affaires grâce aux accords de licence et aux projets de développement sur mesure.

Le projet MoveAhead AI est transformateur, répondant à l'urgent problème de l'inactivité des enfants tout en créant un modèle évolutif et collaboratif pour l'innovation. En utilisant l'IA pour collecter et affiner les données à grande échelle, en intégrant la collaboration open-source et en offrant des solutions uniques par le biais de licences et de développements sur mesure, le projet offre une valeur significative aux clients, partenaires et à la société dans son ensemble. Cette initiative établit une nouvelle norme pour l'application de l'IA en vue d'un impact social positif immédiat et à long terme.

En savoir plus

Taille de l'organisme

Administration publique ou ONG

Localisation

France

Nom du projet d'IA

ZIA

Données exploitées

L'efficacité de ZIA repose sur une variété de types de données :

  • Données des candidats : Informations telles que l'expérience professionnelle, les aspirations et les compétences déclarées.
  • Données contextuelles : Exigences des recruteurs provenant de notre plateforme.
  • Données comportementales : Interactions analysées dynamiquement pour évaluer les compétences comportementales.

Modèle appliqué

ZIA utilise un modèle d'IA générative combiné avec un apprentissage supervisé, garantissant une détection précise des compétences comportementales. Un algorithme de correspondance aligne les profils des candidats avec les opportunités professionnelles pertinentes.

Fonctions impactées

  • Coaching : ZIA réduit la charge de travail des coachs humains tout en améliorant la qualité et l'évolutivité du support.
  • Recrutement : Il simplifie les processus des recruteurs en offrant des diagnostics détaillés des candidats et des recommandations.
  • Marketing : Il promeut un outil innovant qui attire davantage de candidats et de recruteurs, renforçant la visibilité de notre plateforme.

Indicateurs pour évaluer le succès

Le succès du projet est évalué par :

  • Tests pilotes : ZIA a été testé avec 100 candidats coachés, dont les retours ont permis d'affiner le modèle.
  • Tests lors d'événements : Lors de salons de l'emploi et du Sommet pour l'Inclusion Économique, 200 candidats ont interagi avec ZIA, fournissant des retours en temps réel pour des améliorations supplémentaires.
  • Suivi des performances : Grâce à Azure Cloud, nous mesurons :
    • Le trafic de la plateforme et l'engagement des utilisateurs.
    • Le taux de complétion du parcours candidat.
    • Les scores de feedback, qui guident l'amélioration continue.

ZIA représente une approche transformatrice de l'inclusion économique, permettant à la Fondation Mozaïk de mettre à l'échelle le coaching personnalisé tout en optimisant les ressources internes. En exploitant l'IA, nous combinons innovation technologique et impact social, permettant aux candidats de réaliser leur potentiel et de se connecter à des opportunités correspondant à leurs compétences.

En savoir plus

Taille de l'organisme

PME (10-250 employés)

Localisation

France

Nom du projet d'IA

AI-Driven Innovation for Enhanced Waste Sorting and Recycling: Transforming Waste into Resources with the Greyparrot AI Technology

Portée et objectifs du projet

Le projet NextWaste AI, propulsé par les analyses avancées en IA de Greyparrot, transforme les processus de tri et de recyclage des déchets à travers la France, en répondant aux inefficacités et en favorisant la durabilité. En intégrant l'IA dans les infrastructures existantes, le projet soutient les objectifs réglementaires de la France dans le cadre de la loi AGEC et s'aligne avec l'ambition nationale « Zéro Décharge d'ici 2030 ».

Déploiements actuels

  • Installation Environnement Massif Central : Des analyses avancées en IA sont utilisées pour optimiser la récupération des déchets, réduire la contamination et améliorer les taux de recyclage, conformément aux objectifs environnementaux stricts imposés par les éco-organismes CITEO et LEKO.
  • Installation Nicollin : Le système Greyparrot Analyzer a été déployé pour améliorer l'efficacité du tri et fournir des informations en temps réel sur la composition des déchets, permettant une identification rapide et une résolution des problèmes de contamination.

Plan d'expansion

  • Étendre l'intégration de l'IA à d'autres installations en France pour répliquer les succès et maximiser l'impact.
    Exploiter les API Greyparrot Sync pour intégrer les analyses alimentées par l'IA avec des trieurs robotisés, des systèmes de convoyeurs dynamiques et d'autres solutions tierces.
  • Partager des données détaillées et des informations exploitables avec les gestionnaires de déchets, les fabricants et les décideurs pour promouvoir une économie circulaire.

Objectifs

  • Augmenter l'efficacité du recyclage
  • Augmenter les taux de récupération des matériaux en réduisant la contamination et en optimisant les processus de tri.
  • Détourner des millions de tonnes de matériaux recyclables des décharges, réduisant ainsi les émissions de gaz à effet de serre et contribuant aux objectifs de décarbonation de la France.
  • Réduire les inefficacités opérationnelles et récupérer la valeur perdue des flux de déchets, permettant aux clients de réaliser des économies substantielles.
  • Permettre aux installations de répondre aux exigences de la loi AGEC et des autres directives européennes sur les déchets.

Pertinence de l'IA de Greyparrot et impacts

  • Répondre aux défis de longue date dans la gestion des déchets
  • Fournir des analyses en temps réel sur la composition, la masse et la valeur des déchets
  • Permettre des ajustements opérationnels dynamiques pour améliorer les résultats du tri
  • Fournir des informations exploitables au-delà des capacités manuelles

L'IA de Greyparrot permet aux opérateurs de résoudre des problèmes en quelques minutes au lieu de plusieurs jours, réduisant ainsi considérablement les temps d'arrêt et les pertes opérationnelles.

Données exploitées

  • Données visuelles : Images haute résolution capturées sur des convoyeurs.
  • Analyse des matériaux : Mesures en temps réel sur le type de matériau, la contamination et le poids.
  • Données opérationnelles : Indicateurs d'efficacité du tri et de performance des machines.
  • Entrées externes : Intégration des données provenant de trieurs robotisés et de contrôles dynamiques.

Modèle appliqué

Le système Greyparrot Analyzer applique des algorithmes d'apprentissage machine de pointe pour :

  • Reconnaissance des déchets : Des modèles d'IA formés sur plus de 40 milliards d'objets de déchets reconnaissent et classent les matériaux en plus de 100 catégories, incluant les plastiques, le verre, les métaux et les cartons.
  • Optimisation dynamique : Ajustements guidés par l'IA des convoyeurs et des systèmes de tri basés sur les données des flux de déchets entrants.

Fonctions impactées

  • Opérations de tri avec une précision et une rapidité accrues dans la récupération des matériaux
  • Contrôle qualité avec une résolution immédiate des problèmes de contamination ou d'inefficacité
  • Conformité et rapports pour un suivi automatisé de la conformité aux réglementations environnementales
  • Informations basées sur les données avec un soutien continu pour la conception de produits, l'alignement réglementaire et la prise de décisions stratégiques.

Impacts tangibles

  • Avantages économiques : Certaines installations utilisant l'IA Greyparrot de NextWaste ont révélé des pertes cachées de 1,9 million d'euros par an, démontrant un potentiel de récupération inexploité. De plus, les changements opérationnels informés par les données de l'IA ont permis des économies de 750 €/jour sur les coûts de tri.
  • Gains d'efficacité : Les problèmes de qualité, qui prenaient auparavant plusieurs jours à identifier, sont maintenant résolus en quelques minutes, minimisant les temps d'arrêt et améliorant le rendement.
  • Impact environnemental : Au cours des trois prochaines années, l'IA Greyparrot vise à réduire les émissions de 750 MTCO₂eq en détournant plus de 8 millions de tonnes de matériaux recyclables des décharges et de l'incinération.
  • Les informations alimentées par l'IA aident à éliminer les fuites de ressources, garantissant des taux de récupération plus élevés et un impact environnemental réduit.

Indicateurs de succès

  • Augmentation du taux de recyclage : Amélioration significative des taux de récupération des matériaux dans les installations participantes.
  • Économies économiques : Réductions tangibles des coûts opérationnels et récupération de la valeur perdue.
  • Gains environnementaux : Réductions mesurables des émissions de CO₂ et de la dépendance aux décharges.
  • Efficacité opérationnelle : Amélioration du rendement et réduction des temps d'arrêt dans les installations.

Ce projet souligne le rôle de NextWaste en tant que leader en matière de durabilité en France, démontrant comment l'IA peut révolutionner la gestion des déchets tout en générant des avantages économiques et environnementaux substantiels. En étendant la technologie de Greyparrot, NextWaste contribue à un avenir plus intelligent et plus écologique pour la gestion des déchets.

En savoir plus

Taille de l'organisme

Administration publique ou ONG

Localisation

France

Nom du projet d'IA

Presentation  of the first fair dedicated to sustainable Artificial Intelligence held in Normandy

Portée et objectifs du projet

L'initiative Normandie.ai est axée sur l'avancement de l'intelligence artificielle (IA) responsable dans la région Normandie. Ses principaux objectifs sont les suivants :

Organisation d'événements annuels : Créer des opportunités pour des conférences, des discussions, des ateliers et des événements de réseautage afin de connecter les fournisseurs de solutions avec les organisations. Promotion de la sensibilisation : Mettre en valeur l'importance croissante de l'IA dans divers secteurs. Favorisation de la collaboration : Encourager l'échange d'expertise et d'expériences entre professionnels, institutions publiques, chercheurs et étudiants. La pertinence de l'IA pour cette initiative est soulignée par son accent sur les pratiques éthiques en IA et leur influence transformative sur divers secteurs.

Le nombre de participants à la foire ainsi qu'aux conférences est utilisé pour définir le succès du projet.

En savoir plus

Taille de l'organisme

Micro entreprise (moins de 10 employés)

Localisation

France

Nom du projet d'IA

Everdian

Portée et objectifs du projet

Dans la conception de notre initiative en matière d'IA chez Everdian, les objectifs sont clairement définis pour relever les défis multiples posés par la désinformation :

  • Détection automatisée des deepfakes : Notre objectif est de développer des capacités permettant d'identifier et de signaler les contenus médiatiques artificiels. En distinguant les médias authentiques des contenus manipulés, nous visons à limiter la prolifération des informations fausses avant qu'elles n'impactent la perception publique.
  • Détection précoce des campagnes de désinformation : Nous travaillons à la création d'un système capable de reconnaître automatiquement les signes des campagnes de désinformation émergentes. En détectant ces signaux précoces, notre objectif est de permettre des mesures proactives pour atténuer la propagation des fausses informations.
  • Qualification automatique des sources : L'objectif ici est d'affiner la capacité de notre IA à évaluer automatiquement la crédibilité des sources numériques. Cela implique de différencier les acteurs légitimes des acteurs malveillants tels que les bots ou les comptes compromis qui sont souvent utilisés pour propager des récits erronés.
  • Analyse des connexions cachées : Nous prévoyons d'améliorer l'utilisation de la théorie des graphes et de l'analyse de réseau pour cartographier et visualiser les réseaux complexes impliqués dans les campagnes de désinformation. Cela aidera à révéler non seulement les relations directes, mais aussi le réseau plus large de connexions qui pourrait faciliter la propagation de la désinformation.

Ces objectifs sont centrés sur l'exploitation des capacités de calcul avancées de l'IA pour traiter rapidement et avec une grande précision des ensembles de données vastes, ce qui est crucial pour lutter contre la désinformation à l'échelle mondiale. Cette approche est fondamentale alors que nous visons à maintenir l'intégrité et la précision de l'information sur diverses plateformes.

L'application de l'IA est essentielle dans ce contexte en raison de sa capacité inégalée à traiter automatiquement et précisément de grands volumes de données à travers différentes langues et formats médiatiques, répondant ainsi au défi mondial de la désinformation sophistiquée.

Nous utilisons une large gamme de sources de données, y compris l'Open Source Intelligence (OSINT), la Social Media Intelligence (SOCMINT), la presse en ligne, les blogs, les forums et les applications de messagerie. Ce mélange éclectique de données enrichit nos modèles analytiques, améliorant notre capacité à contextualiser et à combattre efficacement la désinformation.

Modèles d'IA employés

Le projet intègre une variété de techniques avancées de traitement du langage naturel (NLP) telles que la classification, la traduction, le clustering en ligne, l'entaillement textuel et la détection de discours de haine. Il exploite également des modèles de vision par ordinateur pour des tâches telles que la classification d'images ou la reconnaissance optique de caractères (OCR) pour l'analyse d'images, la conversion de la parole en texte pour les données audio, et des algorithmes de graphes pour la cartographie des relations de réseau.

Impact commercial et indicateurs

L'initiative a un impact significatif sur plusieurs fonctions commerciales, notamment les opérations de sécurité et les relations publiques. Nous mesurons le succès de ce projet à travers des indicateurs clés de performance, y compris la précision et le rappel de la détection de désinformation, le temps de réponse du système face aux menaces émergentes, et la précision de la qualification des sources.

Taille de l'organisme

PME (10-250 employés)

Localisation

France

Nom du projet d'IA

Jimini AI - Empowering Legal Professionals with Generative AI

Portée et objectifs du projet

Jimini AI représente une plateforme de développement collaboratif où chaque phase évolutive est guidée par des retours continus de professionnels du droit et d'experts juridiques internes. Cette méthodologie de co-construction garantit que les solutions répondent précisément aux besoins opérationnels des praticiens tout en respectant les exigences strictes de l'industrie. La trajectoire de développement de la plateforme est continuellement affinée grâce aux retours systématiques des avocats, notaires et conseillers juridiques d'entreprise, assurant une alignement optimal avec leurs besoins opérationnels quotidiens.

La plateforme offre une efficacité opérationnelle tangible en réduisant de manière significative le temps consacré aux tâches à faible valeur ajoutée tout en optimisant l'allocation des ressources humaines au sein des pratiques juridiques, y compris des activités telles que :

  • Pratique de fusion et acquisition : Capacités accrues de due diligence d'entreprise
  • Droit des contrats : Rédaction et révision assistées par l'IA
  • Services notariaux : Audits immobiliers complets
  • Contentieux : Analyse assistée par IA de documents volumineux avec vérification des sources
  • Droit du travail : Comparaison automatisée des conventions collectives
  • ... et bien d'autres !

D'un point de vue technologique, Jimini AI repose sur des modèles souverains spécifiquement optimisés pour la pratique juridique. Ces modèles sont formés de manière spécialisée sur des ensembles de données divers, comprenant des contrats, des décisions judiciaires, des réglementations nationales et européennes, ainsi que des documents propres aux cabinets. Des méthodologies avancées de fine-tuning garantissent une pertinence maximale et une précision dans la réponse aux exigences spécifiques des utilisateurs. L'infrastructure technologique respecte des protocoles de sécurité stricts, mettant en œuvre des mécanismes robustes d'anonymisation et de cryptage des données en totale conformité avec les exigences du RGPD.

Les outils de la plateforme sont conçus pour une adoption intuitive et une intégration fluide dans les flux de travail existants (par exemple, l'outil de rédaction est directement intégré dans Microsoft Word). La mesure de la performance est effectuée à travers des KPI précis :

  • Réduction du temps de traitement : Les utilisateurs réalisent régulièrement des économies de 7 à 11 heures par semaine sur les tâches administratives et répétitives. Cet indicateur permet de quantifier précisément les gains d'efficacité à travers une analyse comparative des flux de travail avant et après mise en œuvre.
  • Amélioration de la précision : Cet indicateur global évalue la qualité des résultats générés par l'IA sur plusieurs dimensions :
  • Performance des questions-réponses : Évaluation systématique des performances du LLM par rapport aux références internes
  • Génération de contenu : Taux de validation des utilisateurs et fréquence des modifications des contenus suggérés par l'IA
  • Recherche dans la base de connaissances interne : Indicateurs de précision et de rappel pour la récupération de documents dans les dépôts du cabinet
  • Adoption et satisfaction des utilisateurs : Ces indicateurs suivent les modèles d'utilisation de la plateforme, les trajectoires de croissance du nombre d'utilisateurs, les distributions de fréquence d'utilisation et les indices de satisfaction à travers différents segments d'utilisateurs.
  • Vélocité de mise en œuvre des retours : Cet indicateur, mis en œuvre à la demande des clients, évalue l'efficacité et l'efficience du transfert de connaissances entre les experts externes du domaine et les équipes techniques internes, garantissant des cycles d'itération rapides et une amélioration continue.

En savoir plus

Taille de l'organisme

PME (10-250 employés))

Localisation

France

Nom du projet d'IA

L’accélération de la démocratisation des données au sein du ministère français de l’Économie et des Finances grâce à l’utilisation de nouveaux modèles d’intelligence artificielle.

Portée et objectifs du projet

L'objectif d'Opendatasoft est de faciliter la recherche, l'exploration et la consommation des données pour les utilisateurs non experts. La capacité de rechercher ou d'explorer des données en utilisant le langage naturel s'aligne parfaitement avec la mission de notre entreprise. Ces fonctionnalités, déployées sur le portail public du Ministère de l'Économie et des Finances, contribuent à réduire le fossé entre l'administration et les citoyens. Interroger les données du ministère en langage naturel aide à améliorer la transparence des politiques publiques, à réduire la fracture numérique et à renforcer la confiance dans l'action publique.

Une préoccupation majeure pour notre entreprise était d'intégrer des fonctionnalités d'IA adaptées à la fois à nos clients privés et publics. D'autre part, nous devions nous assurer de la conception de systèmes permettant à l'utilisateur final de choisir son fournisseur d'IA préféré. C'était un élément crucial pour permettre aux entités souveraines de sélectionner des modèles d'IA nationaux, en accord avec les exigences de leur politique des systèmes d'information.

Nous avons sélectionné l'utilisation des modèles suivants :

  • Vector search :
    • OpenAI : text-embedding-ada-002
    • Mistral : mistral-embed
  • Explore data with AI :
    • OpenAI : gpt-4
    • Mistral : mistral-large-latest

Un autre choix important que nous avons fait a été de conserver notre technologie Elasticsearch en combinaison avec le modèle d'IA. Nos décisions technologiques s'alignent avec des études qui mettent en évidence l'efficacité des bases de données "traditionnelles" relationnelles et non relationnelles par rapport aux nouvelles bases de données vectorielles. Ce choix important permet un temps de développement plus court et, par conséquent, une mise sur le marché plus rapide pour notre organisation.

Nous avons choisi de déployer en test bêta la fonctionnalité de recherche vectorielle et de visualisation de données avec l'IA sur le portail de données du Ministère de l'Économie et des Finances. La décision a été prise, pour des raisons de souveraineté, d'utiliser le modèle d'intelligence artificielle de la société Mistral AI. L'objectif est d'offrir une fonctionnalité de recherche qui s'applique aux 512 jeux de données du ministère.

Voici les avantages attendus des nouvelles fonctionnalités en détail :

Fonction de recherche vectorielle : Permet d'interroger les données du Ministère en langage naturel. La question peut être posée dans différentes langues sans problème. Toute imprécision ou utilisation de termes non techniques dans la requête est compensée par le contexte et la signification de la question.

Amélioration de l'expérience utilisateur

  • Moins de frustration : Moins de requêtes nécessaires, avec un portail plus intuitif.
  • Temps de navigation réduit : Pas besoin de vérifier plusieurs paramètres (mots-clés, thèmes, etc.) pour effectuer une requête.
  • Abaissement de la barrière du jargon : La nouvelle recherche supprime cette barrière d'entrée - il n'est plus nécessaire de connaître le jargon spécifique à chaque portail, rendant les portails accessibles à davantage de personnes - favorisant une véritable démocratisation.

Avantages pour les consommateurs de données

  • Découverte de contenu simplifiée et démocratisée : Les utilisateurs peuvent plus facilement trouver des informations pertinentes, même lorsqu'elles sont enfouies dans des catalogues de grandes quantités de données. Réduire la fracture numérique et améliorer la compréhension des politiques publiques par les citoyens.

Avantages pour les administrateurs de données

  • Adoption accrue du portail
  • Utilisation des données : Une meilleure découvrabilité des données mène naturellement à une augmentation de leur utilisation.
  • ROI : Une meilleure découvrabilité = une consommation accrue des données du portail (sans coût supplémentaire).
  • Expérience utilisateur : Une expérience fluide et guidée encouragera les utilisateurs à revenir plus fréquemment sur le portail.
  • Contribution intelligente des métadonnées : Elle encourage les producteurs de données à décrire les ensembles de données comme ils le feraient pour un humain (contrairement à la pratique actuelle consistant à ajouter un maximum de mots-clés synonymes).
  • Fonction Explore Data with AI : Une fonctionnalité qui génère automatiquement des visualisations à partir de requêtes simples sur vos jeux de données, permettant ainsi d’offrir à vos utilisateurs finaux un moyen interactif et innovant de plonger dans les données.
  • Formats de visualisation variés : Cartes ; Graphiques ; Figures Facilité d'utilisation : Requêtes en langage naturel ; Requêtes multilingues ; Affichage du raisonnement de l'IA ; Partage simplifié des retours Formats d'exportation variés : PNG ; CSV ; Requête API Explore

Avantages pour les consommateurs de données

  • Bénéficier d'une meilleure expérience de consommation : Permettre aux utilisateurs finaux de réaliser des analyses exploratoires plus rapidement les aide à identifier des tendances ou des motifs qui pourraient ne pas être immédiatement évidents, menant ainsi à de nouvelles perspectives.
  • Gagner un temps précieux : S'appuyer sur la génération automatisée de visualisations à partir de données brutes permet aux utilisateurs de ne pas passer des heures à manipuler les données ou créer des graphiques manuellement.

Avantages pour les administrateurs du portail

  • Augmenter l'adoption du portail de données en fournissant aux utilisateurs un outil précieux et interactif pour encourager et faciliter leur consommation de données.
  • Exploiter des mécanismes de recherche de pointe en utilisant des fonctionnalités alimentées par l'IA, continuellement améliorées, avec un design de navigation optimisé.

Le premier testeur bêta de ces nouvelles fonctionnalités a été le Ministère de l'Économie et des Finances sur son portail de données.

En savoir plus

Taille de l'organisme

Grande entreprise (plus de 5 000 employés)

Localisation

France

Nom du projet d'IA

Khiops

Portée et objectifs du projet

Khiops est une bibliothèque AutoML qui peut être appliquée à une large gamme de cas d'usage complexes auxquels nous faisons face chez Orange. Pour cet appel, nous avons choisi de mettre en avant son application dans la détection de fraude, l'un des cas d'usage phares où Khiops est utilisé en production chez Orange. Le projet démontre comment Khiops automatise et optimise les processus de détection de fraude tout en maintenant l'interprétabilité et l'alignement avec les objectifs business (une approche tout aussi précieuse pour d'autres cas d'usage, comme la détection de défauts en fabrication).

Pertinence de l'IA

La détection de fraude repose traditionnellement sur des règles métier définies manuellement, ce qui est à la fois chronophage et difficile à adapter aux schémas de fraude en constante évolution. Les capacités uniques de Khiops nous permettent de remplacer ces règles statiques par des règles basées sur l'IA, apprises dynamiquement à partir des données, qui extraient et priorisent automatiquement les schémas les plus pertinents.

Données utilisées

Le projet utilise un jeu de données multi-tableau comprenant des profils clients, des journaux de transactions et des données historiques de fraude. Ces jeux de données sont relationnels et impliquent plusieurs relations un-à-plusieurs (par exemple, un client unique associé à plusieurs transactions).

Modèle appliqué

Khiops utilise un formalisme unique appliqué de bout en bout basé sur le principe de la Longueur Minimale de Description (MDL) et la théorie de l'information. Cette approche permet de garantir des modèles simples et hautement interprétables, robustes au bruit. De plus, la capacité de Khiops à traiter les données relationnelles de manière native (une ingénierie de fonctionnalités scalable et non sujette au sur-apprentissage) est unique et distingue Khiops de toute autre solution. Plus de détails dans la section 3.2 ci-dessous.

Fonctions impactées

Concernant les fonctions métier, l'expert en fraude reste au cœur du processus et joue un rôle critique dans plusieurs étapes clés :

Identifier les cas de fraude qui serviront d'exemples étiquetés pour Khiops ;

  • Analyser et interpréter les règles découvertes par Khiops afin de s'assurer qu'elles sont alignées non seulement avec les connaissances métier, mais aussi avec les normes éthiques — en évitant les règles pouvant être biaisées, injustes ou discriminatoires ;
  • Contrôler le déploiement en production et les actions, telles que la désactivation des cartes SIM ou autres mesures de lutte contre la fraude.
  • Enfin, Khiops permet aux experts en fraude de se concentrer sur les décisions stratégiques tout en améliorant leur efficacité opérationnelle.

Indicateurs de réussite

Augmentation des taux de détection de fraude et de la rapidité (arrêter les fraudeurs dès que possible) sans faux positifs (critère important satisfait en ajustant le seuil de décision).

En savoir plus

Taille de l'organisme

Grande entreprise (plus de 5 000 employés)

Localisation

France

Nom du projet d'IA

L’IA pour préserver la qualité du réseau et améliorer l’expérience utilisateur.

Portée et objectifs du projet

L'analyse d'images par IA a été développée pour garantir que les images prises par les techniciens soient de qualité suffisante et correspondent à l'élément réseau qu'elles sont censées représenter. La localisation de la photo est également vérifiée, ainsi que l'unicité des images afin d'éviter le téléchargement de la même image deux fois. L'analyse d'images par IA est également utilisée pour identifier les défauts dans le câblage des équipements.

Dans un premier temps, l'objectif est de renvoyer le technicien corriger son travail, et dans un second temps, de refaire tout le câblage de l'équipement si la dégradation est jugée trop importante. Ainsi, l'IA permet aux techniciens d'identifier les problèmes avant qu'ils ne surviennent et de programmer une maintenance préventive.

Dans un troisième temps, l'analyse d'images par IA permet de détecter la fraude si un technicien tente de facturer la création d'une nouvelle prise fibre optique alors qu'il n'a utilisé qu'une prise existante.

Enfin, l'analyse d'images par IA permet de détecter les dépôts de déchets autour des équipements techniques.

Objectifs : augmenter la détection des défauts par un facteur de 5 (35 000 détections manuelles par mois contre plus de 136 000 détections améliorées par IA par mois).

En savoir plus

Taille de l'organisme

Grande entreprise (plus de 5 000 employés)

Localisation

France

Nom du projet d'IA

Live Intelligence - Generative AI for Orange Employees

Portée et objectifs du projet

Afin d'anticiper tout risque de fuite de données d'Orange via les outils généraux disponibles sur le marché, nous avons rapidement identifié la nécessité d'offrir un accès sécurisé et contrôlé aux différents modèles de langage de grande taille (LLM).

Live Intelligence pour ses employés internes d'Orange est une instance privée qui garantit à la fois la sécurité contractuelle et technique de nos données.  

Nos principaux objectifs étaient de :

  • Offrir aux employés un accès entièrement sécurisé et contrôlé aux meilleurs et derniers modèles LLM, tout en permettant l'utilisation des données de l'entreprise.
  • Permettre l'utilisation de tous types de données, sauf celles classées comme "secrètes".
  • Garantir la sécurité des données personnelles des utilisateurs et d'Orange.
  • Obtenir un engagement contractuel que les fournisseurs de modèles (OpenAI, Google, Mistral, Anthropic, etc.) ne utilisent pas nos données pour entraîner leurs modèles. Nous recommandons également de minimiser l'utilisation des données personnelles. Les règles d'utilisation sont spécifiées conformément aux Directives du Groupe sur l'utilisation de l'IA générative.
  • Appliquer l'IA responsable en offrant la flexibilité d'une solution multi-LLM afin d'utiliser l'outil le plus pertinent pour un cas d'usage donné.
  • Permettre aux utilisateurs de calculer le coût et l'empreinte carbone de leur cas d'usage.
  • Faciliter le déploiement en créant des bibliothèques de cas d'usage prédéfinis.  

En savoir plus

Taille de l'organisme

PME (10-250 employés)

Localisation

Frabce

Nom du projet d'IA

SHIFT - Spatial Intelligence data for Smarter Infrastructures

Portée et objectifs du projet

Cette approche nous a permis de déployer avec succès notre solution pour des projets tels que le système de conduite automatisée en usine de BMW et la surveillance du flux de personnes dans un aéroport international majeur en Asie, où la prise de décision en temps réel est cruciale. Grâce à l'application de l'IA spatiale, Outsight propose des solutions qui aident les clients à atteindre l'Excellence Opérationnelle, créer des Expériences Utilisateurs Brillantes et garantir les plus hauts niveaux de sécurité, des éléments fondamentaux pour optimiser les opérations et élever les standards de service dans divers secteurs.

L'IA est essentielle pour traiter et interpréter les vastes quantités de données spatiales générées par les capteurs LiDAR 3D. Le logiciel Shift LiDAR d'Outsight utilise des algorithmes d'IA avancés pour la fusion, le suivi et la classification des données, permettant une détection précise des objets, la mesure des KPI et la génération d'insights actionnables​​​.

Le projet utilise des données spatiales générées par LiDAR 3D, comprenant :

  • Données en temps réel de nuages de points pour le suivi des individus, véhicules et objets​​.
  • Données historiques pour l'analyse des tendances et la génération de KPI​​.

Ces données sont anonymes par nature, garantissant la conformité avec les réglementations sur la vie privée telles que le RGPD​​.

Le logiciel intègre des algorithmes de perception avancés pour obtenir :

  • Fusion des données multi-capteurs pour générer des insights spatiaux complets​.
  • Classification des objets en catégories telles que piétons, véhicules ou objets statiques​​.
  • Suivi en temps réel des objets et véhicules avec des identifiants uniques​​.

Fonctions impactées

La solution IA d'Outsight a apporté une valeur commerciale significative à ses clients, tels que :

  • Augmentation de l'efficacité des opérations : Optimise l'allocation de l'espace, des ressources et du personnel, réduisant les goulets d'étranglement et améliorant l'efficacité. La surveillance en temps réel automatise le suivi des KPI comme les temps d'attente et l'occupation​.
  • Amélioration de l'expérience des visiteurs : Améliore le flux des passagers, réduit les temps d'attente et offre des services personnalisés, améliorant ainsi la satisfaction​​.
  • Renforcement de la sécurité : Fournit une détection des menaces en temps réel et une surveillance de la sécurité, alertant les équipes de sécurité sur les risques potentiels​​.

Le projet de système de conduite automatisée en usine a impliqué les départements de Contrôle de Production et de Logistique, qui ont dû réorganiser le processus et l'organisation de l’équipe en usine pour réaliser pleinement les bénéfices du système IA.

Le projet de surveillance du flux de passagers a impliqué le département des opérations terminales.

Indicateurs de réussite

  • Métriques de performance technique :
    • Précision : Obtenir plus de 99 % de précision sur les KPI tels que l'occupation, la densité et le suivi des files d'attente​​.
    • Efficacité : Réduction du nombre de capteurs nécessaires, réduisant les coûts matériels et d'installation jusqu'à 90%​.
    • Conformité : Respect des normes de confidentialité avec une collecte nulle d'informations personnellement identifiables​​.
    • Scalabilité : Déploiement réussi dans des environnements à grande échelle tels que les aéroports ou les sites industriels, intégrant jusqu'à 500 LiDARs par déploiement​, ce qui représente environ 60Gbps à traiter en temps réel à 20fps, un défi technique majeur.
  • Métriques de résultats commerciaux pour notre système de conduite automatisée en usine :
    • Réduction des coûts
    • Amélioration de l'efficacité
    • Flexibilité de la production

En savoir plus

Taille de l'organisme

Administration publique ou ONG

Localisation

France

Nom du projet d'IA

Tech Assistant

Portée et objectifs du projet

Paradigm : Un assistant technique basé sur l'IA générative pour améliorer le support IT

Développé en collaboration avec la startup LightOn, l'outil Paradigm vise à transformer la gestion des demandes de support IT au sein des 19 (nos prestataires de services gérés). Construit sur la base de l'IA générative française (Alfred LLM), cet assistant technique est conçu pour les agents des 19 et notre Unité de Transformation Numérique afin de répondre aux diverses demandes des employés et des lycéens.

Il a accès à toute la documentation technique de notre environnement IT, mise à jour en temps réel avec l'intégration à venir avec ServiceNow. En plus de ce cas d'usage, nous avons également affiné Alfred avec notre documentation afin qu'il puisse détecter les divergences entre l'ancienne et la nouvelle documentation et être capable de les compléter/modifier.

Les métriques sont mesurées à la fois en termes de temps gagné, de meilleure précision de la documentation et de réduction des coûts liés au nombre d'incidents traités par nos prestataires de services gérés. D'autres KPIs sont également définis en termes de précision des réponses, de latence pour les recevoir, etc.

Voici la liste des différentes métriques que nous avons mesurées pendant la phase POC

Réduction du temps moyen de résolution (MTTR)
  • Description : L'IA générative peut aider à résoudre les incidents plus rapidement en automatisant des tâches comme l'identification des causes profondes, la proposition de corrections et même l'exécution des étapes de remédiation.
  • Plage de valeur médiane :
  • Réduction du MTTR : 15 % - 50 % selon la complexité de l'incident.
  • Impact financier : Cela se traduit directement par une réduction du temps d'arrêt et de la perte de productivité. Lorsque la remédiation est automatique, cela diminue également les dépenses vis-à-vis de nos MSP.
Augmentation du rendement des incidents / Efficacité du personnel IT
  • Description : En automatisant des tâches et en fournissant des solutions plus rapides, l'IA générative libère du temps pour que le personnel IT puisse traiter davantage d'incidents et se concentrer sur des activités à plus forte valeur ajoutée comme la gestion proactive des problèmes.
  • Plage de valeur médiane :
  • Augmentation des incidents résolus par agent par jour/semaine : 10 % - 30 % selon le niveau des incidents.
  • Impact financier : Cela se traduit soit par une capacité accrue avec le même personnel, soit par la possibilité de réduire les besoins en personnel à long terme, notamment du côté de nos MSP.
Réduction du volume d'incidents (Shift-Left / Prévention proactive)
  • Description : L'IA générative peut analyser les données historiques des incidents pour identifier des schémas et prédire des problèmes potentiels avant qu'ils ne dégénèrent en incidents majeurs. Cela permet une résolution proactive et une réduction du nombre global d'incidents.
  • Plage de valeur médiane :
  • Réduction du volume d'incidents : 5 % - 20 %
  • Impact financier : Moins d'incidents signifie moins de temps et de ressources consacrés à la gestion réactive des urgences, ce qui se traduit par des économies.
Réduction des coûts des escalades
  • Description : En donnant au support de niveau 1 davantage d'informations et d'assistance automatisée, l'IA générative peut aider à résoudre davantage de problèmes dès le premier contact, réduisant ainsi la nécessité d'escalader les demandes vers des équipes de support de niveau supérieur.
  • Plage de valeur médiane :
  • Réduction des escalades : 10 % - 25 %
  • Impact financier : Les membres du personnel de support de niveau supérieur sont plus chers. Réduire les escalades permet de réaliser des économies significatives.
Amélioration de la satisfaction des employés et des clients
  • Description : Une résolution plus rapide des incidents et une réduction du temps d'arrêt entraînent une amélioration de la productivité et de la satisfaction des employés. De même, les clients rencontrent moins de perturbations, ce qui améliore leur satisfaction.
  • Plage de valeur médiane :
  • Augmentation de la satisfaction des employés (mesurée par des enquêtes ou le score net de promoteur) : 5 % - 15 %
  • Impact financier : Bien qu'il soit plus difficile à quantifier directement, une satisfaction améliorée peut conduire à une meilleure rétention des employés et à une fidélisation accrue des clients.
Réduction du risque de violations de sécurité
  • Description : L'IA générative peut également être utilisée pour identifier les vulnérabilités de sécurité et aider à les résoudre plus rapidement, réduisant ainsi le risque de violations et les coûts associés.
  • Plage de valeur médiane : Cela est très variable et difficile à quantifier.
  • Impact financier : Le coût d'une violation de données peut être énorme. Réduire le risque, même légèrement, peut avoir un impact financier significatif.
Amélioration de la conformité et de l'auditabilité
  • Description : L'IA générative peut aider à automatiser les tâches liées à la conformité et générer de la documentation pour faciliter et rendre les audits plus efficaces.
  • Plage de valeur médiane : Cela est également très variable et difficile à quantifier.

En savoir plus

Taille de l'organisme

Administration publique ou ONG

Localisation

France

Nom du projet d'IA

La Région Provence-Alpes-Côte d'Azur, Terre d'IA

Portée et objectifs du projet

Notre objectif général est d'utiliser l'IA pour atteindre des objectifs d'efficacité administrative et de qualité de service public. Afin de réaliser cet objectif, nous avons développé plusieurs cas d'usage opérationnels.

  • Contrôle automatisé des justificatifs : confier à l'IA le contrôle des documents transmis lors des procédures en ligne d'accès aux différents systèmes publics. Modèle GPT 4o. 16 000 documents vérifiés par an.
  • Analyse de la satisfaction des usagers ayant contacté Allo Région : confier à l'IA l'analyse des ressentis et des objectifs des appels des usagers ayant contacté le centre de relations usagers Allo Région. 40 000 conversations téléphoniques par an. Modèle GPT 4o. Données : fichiers vocaux.
  • Chatbot Allo Région : augmenter le nombre de conseillers téléphoniques au centre de relations usagers Allo Région pour faciliter la réponse à l'usager. Le chatbot pourra éventuellement être mis en ligne pour permettre un premier niveau de réponse 24/7. Modèle GPT 4o. Données : documents textuels.
  • Lutte contre le gaspillage alimentaire dans les lycées : confier à l'IA l'analyse des plateaux repas laissés par les élèves après le repas afin d'analyser les aliments, quantifier le poids et donner une estimation financière du gaspillage. Permet d’ajuster les menus et de réduire le gaspillage, qui représente plusieurs millions d'euros par an. Données : vidéos.
  • Analyse des compétences des candidats à la recrue : confier à l'IA la détection de profils de candidats pour des emplois en forte demande. Identifier des candidats qui ne seraient pas identifiés lors d'une recherche traditionnelle, notamment par le biais du transfert de compétences. Données : documents textuels. Modèle Mistral.

En savoir plus

Taille de l'organisme

Grande entreprise (plus de 5 000 employés)

Localisation

France

Nom du projet d'IA

AI-powered ADAS software strategy validation

Portée et objectifs du projet

Projet de Validation des Systèmes d'Assistance au Conducteur (ADAS)

Fonctionnalités principales :

  • Rejouer des scènes de conduite enregistrées sur routes ouvertes
  • Verdict automatique par IA du comportement du système ADAS
  • Validation des fonctionnalités :
    • Freinage d'urgence automatique (AEB)
    • Commutation automatique feux de route/croisement (AHL)
    • Assistance intelligente à la vitesse (ISA)

Objectifs principaux :

  • Renforcer la robustesse des systèmes ADAS
  • Réduire le temps de développement avant commercialisation
  • Diminuer l'empreinte carbone en réutilisant des données de conduite physiques

Avantages de l'IA :

  • Analyse automatique des systèmes
  • Élimination des faux positifs et négatifs
  • Fiabilité d'analyse à 80%
  • Facilitation du travail de validation
  • Détection rapide des bugs logiciels

Périmètre :

Équipes de développement et validation
Gains significatifs en temps et précision par rapport à la validation manuelle

En savoir plus

Taille de l'organisme

Grande entreprise (plus de 5 000 employés)

Localisation

France

Nom du projet d'IA

RENAULT - Self-service AI for industrial inspections : MP4AI Platform

Portée et objectifs du projet

MP4AI est une plateforme innovante de bout en bout conçue pour améliorer le contrôle qualité sur les lignes de production grâce à l'IA.

Lancée début 2024, MP4AI cible les parties prenantes de sites industriels qui supervisent les performances opérationnelles et la qualité. La plateforme vise à démocratiser l'adoption de l'IA, industrialiser les modèles prédictifs, construire la confiance dans les performances de l'IA et maintenir des processus décisionnels centrés sur l'humain. Elle offre des outils d'étiquetage de données, de suivi de modèles, de traçabilité et d'accès rapide aux données de production.

Les réalisations clés incluent le déploiement réussi de 50 contrôles IA sur 8 sites industriels.

La plateforme MP4AI (Manufacturing Platform for Artificial Intelligence) a été créée pour soutenir les processus de fabrication de Renault en permettant des perspectives basées sur l'IA, particulièrement par analyse d'images. Le système vise à améliorer l'efficacité de production, améliorer les contrôles qualité et réduire la charge cognitive des opérateurs. MP4AI est une plateforme IA en libre-service standardisée permettant aux utilisateurs d'exploiter et manipuler des images (25 millions d'images par mois) pour entraîner des modèles IA.

Cette innovation est destinée à révolutionner l'approche de résolution de problèmes et améliorer la qualité et les performances de production. La plateforme adopte un modèle IA en libre-service, permettant aux équipes d'usine d'utiliser des modèles préconçus, étiqueter des données et entraîner de nouveaux modèles pour des cas d'usage spécifiques. Cette approche "sans code" la rend accessible au personnel non technique et évolutive entre différents sites de production.

En tant qu'assistant d'inspection visuelle assisté par IA, il aide les opérateurs qui passaient auparavant 80% de leur temps à rechercher des défauts et 20% à les corriger sur la ligne de production. Grâce à l'IA, nous pouvons inverser ce ratio, permettant aux opérateurs de se recentrer sur leur valeur ajoutée.

Les objectifs de MP4AI incluent :

  • Amélioration du contrôle qualité : traitement temps réel et par lots pour détecter les défauts via des modèles IA basés sur l'image
  • Efficacité opérationnelle : automatisation des contrôles qualité chronophages
  • Autonomie pour les équipes d'usine : outils IA permettant de déployer des modèles sans expertise ML
  • Évolutivité et cohérence : assurer l'uniformité des contrôles qualité sur plusieurs sites
  • Réduction des coûts : minimiser les déchets en détectant les défauts tôt dans le processus

La stratégie globale de support au contrôle qualité basé sur la vision fait partie d'une approche cloud/edge. Nous avons travaillé avec une start-up française, Buawei, sur l'inférence edge des modèles de détection d'objets pour faciliter l'intégration des ressources de capture d'image. Cette collaboration a conduit au développement d'un outil de capture et d'exécution flexible : POKAIOK.

En savoir plus

Taille de l'organisme

Grande entreprise (plus de 5 000 employés)

Localisation

France

Nom du projet d'IA

Renault - Business continuity plan control tower: resilience of industrial ecosystem

Portée et objectifs du projet

La Chaîne d'Approvisionnement est au cœur des activités du Groupe Renault. Organisation transversale, elle définit la meilleure réponse industrielle à la demande commerciale, optimise les profits et stocks, et assure les meilleures performances logistiques.

Complexité opérationnelle : 8 000 transports quotidiens

Réseau global comprenant :

  • 5 000 fournisseurs
  • 26 usines
  • Plusieurs dizaines de centres intermédiaires
  • Plus de 20 000 points de distribution

Défis principaux :

  • Améliorer la satisfaction client
  • Contrôler les stocks et performances
  • Gérer les risques
  • Réduire les émissions carbone

Motivations :

  • Résilience de la chaîne d'approvisionnement
  • Réduction des risques fournisseurs
  • Prévention basée sur la détection de signaux faibles
  • Mesure des risques fournisseurs trop fragmentée
  • Manque de données sur les nouveaux enjeux (ESR, Cybersécurité)

Plan de Continuité avec Control Tower :
Outil numérique dynamique alimenté par l'IA avec deux fonctionnalités principales :

  • Cartographie des Fournisseurs
  • Mapping unique avec géolocalisation haute qualité
  • 5 000 fournisseurs de premier niveau
  • 50 000 fournisseurs de niveau N
  • Système d'alerte automatique basé sur des données externes
  • Utilisation de l'IA pour traiter les actualités et évaluer les risques


Résilience de la Chaîne d'Approvisionnement

  • Scoring holistique des risques fournisseurs
  • Référence unique pour l'entreprise
  • Visibilité exhaustive des impacts business
  • Outil d'aide à la décision avec :
    • Scoring automatique d'impact business
    • Scénarios prospectifs
    • Tests de résistance
    • Temps de survie et de récupération

Taille de l'organisme

Grande entreprise (plus de 5 000 employés)

Localisation

France

Nom du projet d'IA

Renault - Inbound logistics transport: truck loading optimization

Portée et objectifs du projet

La Chaîne d'Approvisionnement est au cœur des activités du Groupe Renault. Organisation transversale définissant la meilleure réponse industrielle à la demande commerciale, elle optimise les profits, les stocks et assure les meilleures performances logistiques.

À l'avant-garde des crises politiques, climatiques et économiques, elle doit être robuste et résiliente dans un environnement où la nouvelle normalité est l'absence de normalité.

Complexité quotidienne : 

  • 8 000 transports
  • 5 000 fournisseurs
  • 26 usines
  • Plusieurs dizaines de centres intermédiaires
  • Plus de 20 000 points de distribution

Défis :

  • Améliorer la satisfaction client
  • Contrôler les stocks et les performances
  • Gérer les risques
  • Réduire les émissions carbone

Gestion des Flux Entrants : Étapes clés de la gestion de production :

  • Approvisionnement en pièces
  • Planification des commandes selon les délais et stocks disponibles
  • Planification des transports

• Modèle économique : achat de l'allocation complète de camions

  • Objectif : optimisation du chargement (minimiser l'espace et le nombre de camions)
  • Défi : réaliser un "Tetris" optimal avec différents types d'emballages, dimensions et contraintes
  • Historique d'amélioration :
    • Algorithme des années 2000 : évaluation unidimensionnelle de l'occupation de l'espace
    • Identification d'un potentiel de 5% d'espace non utilisé
    • Impact significatif sur un budget de plusieurs centaines de millions d'euros

Projet digital lancé en 2019 avec composante IA forte pour améliorer les processus.

Taille de l'organisme

PME (10-250 employés))

Localisation

France

Nom du projet d'IA

Implementation of AI-based solutions in a private medical imaging practice

Portée et objectifs du projet

Au RISF, le projet IA vise à relever les défis posés par la pénurie de radiologues et de techniciens, l'augmentation du volume d'examens d'imagerie et le besoin de qualité diagnostique constante. L'objectif principal est d'améliorer l'efficacité, de maintenir des standards diagnostiques élevés et d'améliorer la satisfaction des patients et des médecins en intégrant l'IA dans le workflow.

Objectifs Principaux :

  • Améliorer la Qualité Diagnostique : Fournir aux radiologues des perspectives IA précises pour accélérer et améliorer les diagnostics.
  • Réduire les Tâches Répétitives : Alléger la charge de travail liée aux tâches d'imagerie volumineuses et répétitives.
  • Optimiser l'Efficacité d'Équipe : Rationaliser les workflows pour améliorer la productivité.
  • Améliorer les Résultats Patients : Minimiser les erreurs de diagnostic.
  • Augmenter la Satisfaction : Soutenir les médecins prescripteurs et améliorer l'expérience globale.

Données utilisées

Référentiel extensif d'images radiographiques du RISF, utilisé pour valider et calibrer les algorithmes IA.

Modèle appliqué

Modèles d'apprentissage profond de Gleamer, spécifiquement conçus pour l'analyse radiographique, validés pour la détection de fractures, mesures osseuses et évaluations de l'âge osseux.

Fonctions impactées

  • Radiologues et techniciens bénéficient du support IA
  • Patients obtiennent des diagnostics plus rapides et précis
  • La direction optimise l'allocation des ressources

Indicateurs de réussite

  • Précision Diagnostique : Réduction des erreurs de diagnostic
  • Délai de Traitement : Diminution du temps de génération des rapports
  • Efficacité du Workflow : Augmentation du nombre de cas traités
  • Satisfaction de l'Équipe : Retours des radiologues
  • Résultats Patients : Amélioration des scores de satisfaction

En savoir plus

Taille de l'organisme

Administration publique ou ONG

Localisation

France

Nom du projet d'IA

Delibia : Enhancing administrative efficiency with generative AI

Portée et objectifs du projet

Le projet Delibia vise à déployer une plateforme d'IA générative au sein de la Métropole Rouen Normandie pour :

  • Faciliter l'accès à l'information : Permettre aux agents de trouver rapidement des informations pertinentes parmi un grand volume de documents et délibérations, améliorant ainsi la prise de décision.
  • Soutenir la production documentaire : Automatiser les tâches chronophages comme la rédaction de notes, comptes-rendus, résumés, emails et spécifications, libérant du temps pour des missions à plus forte valeur ajoutée.
  • Analyser et comparer les politiques publiques : Comparer les actions mises en œuvre par d'autres collectivités locales, s'inspirer des meilleures pratiques et identifier des solutions innovantes.
  • Soutenir la transformation digitale : Familiariser les agents avec les outils IA, promouvoir l'adoption de ces technologies et favoriser une culture d'innovation au sein de la Métropole.

Le projet Delibia souligne l'importance critique de la souveraineté des données et de la durabilité pour favoriser une innovation numérique responsable. En garantissant que les données sont stockées, gérées et traitées dans des cadres éthiques et transparents, le projet préserve la confidentialité et la gouvernance locale. Simultanément, il intègre des principes de durabilité pour minimiser l'impact environnemental de l'infrastructure numérique, alignant les avancées technologiques avec une responsabilité écologique et une résilience à long terme.

En savoir plus

Taille de l'organisme

Administration publique ou ONG

Localisation

Arabie Saoudite

Nom du projet d'IA

The National Platform for Smart Cities "Smart C"

Portée et objectifs du projet

Smart C est un écosystème qui permet la transformation nationale de l'Arabie Saoudite en exploitant pleinement le potentiel des données et de l'IA.

La plateforme soutient les parties prenantes dans divers secteurs et domaines, incluant :

  • Éducation et développement humain
  • Marché du travail
  • Tourisme
  • Divertissement
  • Services municipaux
  • Santé
  • Développement industriel
  • Logistique
  • Habitat

La plateforme opère sur trois niveaux stratégiques alignés avec la portée de Vision 2030 :

  1. Niveau National : Donner aux dirigeants des perspectives basées sur l'IA pour la prise de décision stratégique
  2. Niveau Sectoriel : Soutenir les décideurs politiques sectoriels et les dirigeants stratégiques
  3. Niveau Service : Permettre des services aux citoyens via des solutions IA et des initiatives de gouvernement intelligent

La plateforme fait partie d'un mandat visant à renforcer la position de l'Arabie Saoudite comme leader mondial en IA.

Voici les objectifs spécifiques des 4 projets IA sélectionnés

Système de Détection de Pollution Visuelle

Objectif principal atteindre l'efficacité par l'automatisation de la gestion de la pollution visuelle dans les grandes villes d'Arabie Saoudite. Le projet comprend trois composantes principales

Infrastructure physique : installation de systèmes de caméras sur véhicules, réseau de transmission de données, systèmes de stockage

Cadre opérationnel : protocoles de collecte de données, routes systématiques de véhicules, pipelines de traitement des données

Développement technique : création de modèles IA par étiquetage et classification, entraînement et validation de modèles d'apprentissage profond, implémentation d'algorithmes de détection

Moteur de Simulation de Trafic

Objectif prédire les réponses de trafic à Riyad avec une précision suffisante pour tester et optimiser les solutions potentielles. L'IA offre des techniques robustes pour traiter de grandes quantités de données historiques et temps réel, détecter des modèles et générer des prévisions précises dans des scénarios changeants.

Plateforme Verte Saoudienne

Système de surveillance IA pour suivre et analyser les initiatives de verdissement (Green Saudi et Green Riyadh). Par analyse d'images satellites et algorithmes d'apprentissage automatique avancés, le système fournit :

  • Suivi en temps réel des plantations
  • Prise de décision basée sur les données
  • Optimisation des emplacements de plantation
  • Détection et classification automatisées de végétation
  • Analyse des taux de croissance
  • Cartographie précise des zones plantées
  • Analyse de données démographiques pour planification urbaine
Plateforme Immobilier et Habitat

Mise en œuvre pour permettre des interventions politiques basées sur les données dans le secteur immobilier. Grâce à des capacités avancées d'analyse de marché par IA, la plateforme fournit des perspectives basées sur des preuves concernant :

  • Dynamiques du marché immobilier et du logement
  • Identification et évaluation des niveaux d'offre
  • Analyses approfondies des prix du marché
  • Renforcement des mécanismes de surveillance réglementaire

Taille de l'organisme

Administration publique ou ONG

Localisation

Arabie Saoudite

Nom du projet d'IA

Saudi Sign Language Translation for Public Facilities 

Portée et objectifs du projet

Le projet vise à fournir une solution d'accessibilité économique et facile pour les utilisateurs de la langue des signes. En utilisant l'IA pour traduire les signes en texte, les utilisateurs de la langue des signes pourront exprimer leurs besoins en temps réel. Le projet implique la collecte de vidéos en langue des signes saoudienne, l'entraînement de modèles d'IA pour traduire les signes et la mise en œuvre des modèles dans des installations publiques, conformément aux principes et exigences des politiques de gouvernance des données nationales, de la loi sur la protection des données personnelles et des réglementations connexes. La précision du modèle est l'une des principales métriques définissant le succès.

Taille de l'organisme

Administration publique ou ONG

Localisation

Arabie Saoudite

Nom du projet d'IA

SauTech: Utilizing AI technologies to recognize spoken Arabic in its various dialects

Portée et objectifs du projet

Le projet vise à relever les défis posés par la diversité des dialectes arabes et leur impact sur la reconnaissance et la génération vocales précises.

Objectifs principaux :

  • Construire un système de reconnaissance vocale arabe de pointe avec un faible taux d'erreur de mots (WER) à travers plusieurs dialectes.
  • Traiter les défis linguistiques comme les variations phonétiques, l'alternance codique et les nuances contextuelles.
  • Développer des API pour l'intégration dans des applications éducatives, de santé et de service client.

Pertinence de l'IA

L'IA permet de traiter des données audio à grande échelle et d'extraire informations, modèles et statistiques.

Données exploitées

  • Données Audio : Collection diversifiée d'enregistrements vocaux dans différents dialectes arabes.
  • Données Textuelles : Transcriptions alignées avec l'audio pour un entraînement supervisé.
  • Métadonnées : Contexte, environnement et locuteurs pour améliorer la reconnaissance.

Modèles appliqués

  • Modèles Speech-to-Text : Entraînement de Wav2Vec, Conformer et Zipformer sur des jeux de données multi-dialectaux.
  • Modèles Text-to-Speech : Personnalisation de modèles pré-entraînés sur des jeux de données haute qualité.
  • Modèles NLP : Intégration de la rédaction automatique des informations personnellement identifiables et de la normalisation inverse du texte.

Fonctions impactées

  • Service Client : Automatisation des réponses et amélioration des opérations de centre d'appels.
  • Accessibilité : Amélioration de l'accessibilité pour les locuteurs arabes.
  • Éducation : Soutien à l'apprentissage linguistique et transcription de ressources académiques.
  • Création de contenu : Facilitation de la transcription et de la traduction pour la production média.

Indicateurs de réussite

  • Précision : Taux d'erreur de mots inférieur à 10% pour la plupart des dialectes.
  • Couverture Dialectale : Inclusion et reconnaissance d'au moins 10 dialectes arabes majeurs.
  • Vitesse de Traitement : Capacités de transcription en temps réel avec faible latence.
  • Satisfaction Utilisateur : Retours positifs sur la précision et l'utilisabilité.
  • Taux d'Adoption : Intégration du système dans les industries et applications cibles.

Taille de l'organisme

Administration publique ou ONG

Localisation

Arabie Saoudite

Nom du projet d'IA

EYENAI - AI-Based Diabetic Retinopathy Screening System

Portée et objectifs du projet

Objectif Principal : Automatiser le dépistage de la rétinopathie diabétique.

Pertinence de l'IA

L'expertise des spécialistes dans la détection de la maladie par vision peut être répliquée par un modèle d'IA lorsqu'il est formé efficacement et en toute sécurité.

Données exploitées

Ensembles de données publics, données privées et données en direct collectées auprès de patients avec leur consentement.

Modèle appliqué

Modèle de vision basé sur Transformer.

Impact

Des essais cliniques réussis ont conduit à l'approbation de la FDA saoudienne, avec plus de 900 détections précoces réalisées.

Indicateurs de réussite

Le modèle a atteint 95% de sensibilité (rappel).

Taille de l'organisme

Grande entreprise (plus de 5 000 employés)

Localisation

France

Nom du projet d'IA

AI-based optimization for Microgrid efficiency

Portée et objectifs du projet

Le système d'IA vise à remplacer les règles d'experts pour optimiser l'utilisation énergétique d'un bâtiment et prévoir la production et la consommation d'énergie afin de réduire les coûts, l'utilisation d'énergie et l'empreinte carbone. Compte tenu de l'expertise de Schneider Electric dans ce domaine, nous avons décidé de développer le système d'IA en interne.

Deux types d'actions sont attendus du système d'IA :

  • Actions en temps réel : par exemple, dès que le tarif énergétique est bas, le système charge la batterie et chauffe le bâtiment ; lorsque le tarif augmente, il décharge la batterie et réduit la puissance de chauffage.
  • Actions prévisionnelles : par exemple, anticiper la situation standard et prendre la décision de modifier à l'avance le programme de consommation énergétique en utilisant deux méthodes différentes : (1) des règles d'experts pour des cas simples spécifiques, et (2) l'apprentissage automatique, qui est plus flexible et peut être adapté à des cas d'usage plus complexes.

L'objectif de notre système d'IA est de prévoir la production et la consommation d'énergie du site en utilisant des données complémentaires telles que les prévisions météorologiques, l'occupation du bâtiment, l'irradiance, le plan de charge des véhicules électriques, etc. Il peut également contribuer à sélectionner les scénarios les plus pertinents en fonction des objectifs du client – de la réalisation d'économies maximales à la réduction de l'empreinte carbone.

Grâce à nos nouveaux algorithmes d'optimisation avec EcoStruxure Microgrid Advisor, nous ne proposons pas une solution unique standard, mais plusieurs cas d'utilisation pour répondre aux besoins spécifiques des organisations. Vous pouvez voir le système d'IA comme le cerveau de notre solution avancée de micro-réseau.

EcoStruxure Microgrid Advisor consiste en une plateforme basée sur le cloud exécutant des algorithmes de contrôle prédictif basé sur des modèles pour définir la stratégie d'optimisation du micro-réseau. Ces algorithmes combinent, par exemple, les signaux de prix, les données historiques, les prévisions météorologiques et le calendrier de fonctionnement pour mieux anticiper les variations d'approvisionnement et de demande d'énergie au sein des limites du micro-réseau. Un contrôleur local connecté aux équipements DER sur site permet de surveiller et de contrôler ces ressources, les faisant interagir de manière optimisée. Les micro-réseaux avancés d'aujourd'hui ont la capacité de réaliser des optimisations en temps réel, permettant des cas d'utilisation tels que la régulation de fréquence ou la réponse à la demande, qui nécessitent généralement une action d'optimisation en moins d'une seconde.

En résumé : l'IA permet de mieux anticiper et accélérer les variations d'approvisionnement et de demande d'énergie au sein d'un micro-réseau. Grâce à l'IA, un micro-réseau peut gérer avec succès une structure énergétique complexe, en incluant de nouvelles variables telles que la production d'énergie renouvelable ou les variations rapides des prix de l'énergie. Il est également capable de prendre en compte de nombreux cas d'optimisation différents et de sélectionner le plus avantageux

En savoir plus

Taille de l'organisme

Grande entreprise (plus de 5 000 employés)

Localisation

France

Nom du projet d'IA

Vision AI - Video analytics to ensure security during Paris Olympic Games

Portée et objectifs du projet

Les Jeux Olympiques de Paris 2024, avec 11 millions de visiteurs et une alerte Vigipirate renforcée, ont posé des défis significatifs. Le Groupe SNCF a lancé un programme axé sur la mobilisation des équipes, la communication et la gestion des risques. Pour la Direction de la Sécurité de la SNCF, les principaux axes incluent :

  • Gestion des flux et des foules : Planification stratégique des ressources humaines et techniques pour répondre aux besoins de transport et de sécurité à travers le réseau SNCF.
  • Gestion de crise : Renforcement du centre de commandement de la SNCF et collaboration avec les centres de commandement conjoints avec la police parisienne, la RATP et d'autres agences de sécurité, soutenus par le déploiement accru de caméras, l'allongement des durées de conservation et des exercices inter-agences.
  • Optimisation de la sécurité : Renforcement des partenariats et pilotage de technologies innovantes telles que les analyses vidéo et l'IA pour améliorer la sécurité durant les jeux.

Pour la première fois, une loi française a autorisé, à titre expérimental, l'utilisation de solutions d'analyses vidéo pendant les Jeux Olympiques. La Direction de la Sécurité du Groupe SNCF a saisi cette opportunité pour déployer et évaluer la valeur opérationnelle ajoutée de ces nouvelles solutions. Les quatre cas d’usage les plus pertinents pour l’environnement de transport ont été mis en œuvre au Centre National de Sécurité Ferroviaire : détection d’objets abandonnés, présence d’une personne dans une zone restreinte ou sensible, densité excessive de foules et mouvements de foule. La solution Cityvision, développée par le fournisseur WINTICS sélectionné par le Ministère de l’Intérieur, a été testée lors de quatre événements (match de football PSG - OL, tournoi de tennis Roland Garros 2024, festival Solidays 2024 et relais de la flamme olympique à Paris) en préparation des Jeux Olympiques et Paralympiques 2024. Ces événements ont offert une opportunité d'expérimentation significative à grande échelle. Dans le cadre des expérimentations menées par la SNCF, jusqu'à 8 serveurs ont été mis à disposition de WINTICS pour permettre l'analyse en temps réel d'un maximum de 300 caméras simultanément, sur lesquelles un total de 420 processus algorithmiques ont été appliqués. Ces serveurs, d'une valeur approximative de 15 000 € chacun, sont équipés des composants haute performance suivants : 6 cartes graphiques NVIDIA Tesla T4, 2 processeurs Intel Xeon Silver 4216, 128 Go de RAM et 4 To de stockage SSD.

Pour mettre en œuvre les systèmes d'analyses vidéo au Centre de Sécurité SNCF (PCNS) et garantir leur acceptation par les opérateurs, la SNCF les a intégrés aux postes de travail et logiciels existants (Genetec VMS). Cela a assuré un accès ergonomique à toutes les fonctions du VMS, y compris l'accès en temps réel ou différé à 11 000 caméras en Île-de-France et aux plans des gares. En outre, au-delà de l'intégration, il était crucial que le système technologique puisse s'insérer parfaitement dans le flux de traitement des incidents de sécurité existant au PCNS. Il est important de mentionner que l'humain reste au cœur du processus décisionnel. Lorsqu'une alerte est reçue, l'opérateur vidéo, avec son expertise, vérifie la situation et, en cas d'incident confirmé, consulte le responsable de salle de contrôle pour déployer des équipes opérationnelles sur le terrain.

Deux types d'évaluations ont été menées : une évaluation technique par l'équipe projet SNCF et une évaluation opérationnelle par les opérateurs vidéo de la SNCF. Pour l'évaluation technique, un indicateur appelé "Précision Algorithmique" a été utilisé :

  • P_tech / N (où P_tech représente le nombre d'alertes jugées positives, et N le nombre total d'alertes générées) Il est important de noter que l'indicateur "Recall", utilisé pour évaluer la capacité de l'algorithme à détecter les situations attendues, n'a pas pu être mesuré lors des différentes expérimentations en raison de délais serrés. Cela aurait nécessité soit des scénarios simulés, soit un croisement avec des incidents réels qui auraient dû déclencher des alertes. Pour l'évaluation opérationnelle, l'objectif était d'évaluer la pertinence opérationnelle des alertes générées pendant les périodes de service des opérateurs vidéo, c'est-à-dire si une vérification opérationnelle est nécessaire pour ces alertes, car elles pourraient potentiellement être liées à un incident de sécurité. En se basant sur les actions réalisées par les opérateurs vidéo via le Genetec VMS, deux indicateurs, "Taux de Traitement" et "Pertinence Opérationnelle", ont été calculés comme suit : Taux de traitement = N_t / N (où N_t représente le nombre d'alertes traitées par les opérateurs en temps réel, et N est le nombre total d'alertes générées)
  • Pertinence Opérationnelle = P_op / N_t (où P_op représente le nombre d'alertes jugées opérationnellement pertinentes, et N_t représente le nombre d'alertes traitées par les opérateurs en temps réel)

En plus des échanges réguliers entre l'équipe projet et les opérateurs vidéo impliqués dans les diverses expérimentations, la Direction de la Sécurité de la SNCF a cherché à évaluer objectivement le niveau d'acceptation de cette nouvelle technologie par ses agents à travers deux approches parallèles : une enquête centrée sur les bénéfices opérationnels de ces technologies, et des entretiens individuels menés par la Direction de l'Éthique du Groupe SNCF pour faciliter des discussions ouvertes et transparentes sur leur perception de l'interaction humain-IA.

En savoir plus

Taille de l'organisme

Grande entreprise (plus de 5 000 employés)

Localisation

France

Nom du projet d'IA

Data Clustering for Predictive Maintenance of Everyday Trains

Portée et objectifs du projet

Historiquement, la solution de maintenance prédictive développée par SNCF VOYAGEURS repose sur des algorithmes d’Expert System, ce qui signifie que des règles basées sur la connaissance sont définies et affinées au cours de la durée de vie du train. La principale limitation de ces algorithmes est qu'ils nécessitent beaucoup de retours d'expérience et de connaissances techniques des différents systèmes d'un train. Par conséquent, ils sont développés et consolidés sur plusieurs années pendant la durée de vie du train avant de devenir pleinement efficaces. Tant qu'une panne ne s'est pas produite un certain nombre de fois, elle ne peut être évitée : il faut d'abord en faire l'expérience pour pouvoir la prévenir. De plus, ils sont difficiles à transférer d'un type de matériel roulant à un autre.

Pour surmonter cette limitation, en particulier pour mettre en œuvre une stratégie de maintenance prédictive pour les nouveaux trains (TGV M, RER-NG) pendant leur période de garantie, une solution d'IA a été développée. L'objectif était de combiner des calculs statistiques sur l'ensemble d'une flotte de systèmes avec une méthode de machine learning declustering non supervisé pour identifier, classer, caractériser et anticiper les comportements anormaux pour la maintenance corrective et préventive.

En savoir plus

Taille de l'organisme

Grande entreprise (plus de 5 000 employés)

Localisation

France

Nom du projet d'IA

SOFIA (Surveillance des Ouvrages Fondée sur l'Intelligence Artificielle)

Portée et objectifs du projet

Le projet SOFIA (Surveillance des Ouvrages Fondée sur l'Intelligence Artificielle), dirigé par SOCOTEC en partenariat avec le CEA-LIST et SANEF, vise à révolutionner les méthodes d'inspection des infrastructures grâce à l'intelligence artificielle. Ce projet couvre le développement d'une application mobile assistée par IA pour aider les inspecteurs à évaluer l'état des structures de génie civil, en particulier les ponts.

Objectifs principaux :

  • Automatiser la détection et la caractérisation des défauts : L'objectif principal est de détecter et classer automatiquement les défauts photographiés par les inspecteurs sur le terrain, en les guidant dans la saisie des données et en proposant des évaluations de l'état des éléments inspectés.
  • Améliorer l'efficacité des inspections : SOFIA vise à rendre les contrôles et la maintenance des infrastructures plus efficaces en fournissant une assistance rapide et objective aux inspecteurs experts lors de leurs visites de site.
  • Digitaliser le processus d'inspection : Le projet cherche à numériser entièrement le flux de travail d'inspection, en alignement avec la feuille de route IA de SOCOTEC.
  • Améliorer la prise de décision : En exploitant les capacités de l'IA, SOFIA vise à identifier les risques et conditions environnementales les plus fréquents associés à l'apparition de défauts, menant potentiellement à une utilisation plus efficace des matières premières et à des plans de travail optimisés.
  • Augmenter la productivité : La solution vise une augmentation de 30 % de la productivité des inspections en réduisant le temps de saisie des données et en améliorant le contrôle de la qualité.

Pertinence de l'IA

L'IA est au cœur de l'approche de SOFIA, répondant à des défis clés de l'inspection des infrastructures :

  • Surmonter la subjectivité et la variabilité entre les inspecteurs humains
  • Accélérer le processus d'inspection tout en maintenant ou améliorant la précision
  • Permettre une prise de décision plus cohérente et basée sur les données pour la planification de la maintenance

Le projet utilise des algorithmes d'apprentissage profond de pointe, en particulier des Vision Transformers (ViTs), adaptés aux défis spécifiques de l'analyse des défauts structurels. Cette approche permet une classification plus nuancée et précise des défauts par rapport aux méthodes traditionnelles.

Données exploitées

Les modèles d'IA de SOFIA sont entraînés sur un ensemble de données étendu comprenant :

  • 140 000 photographies d'inspection issues de la banque d'images de l'entreprise
  • Données extraites de 2 500 rapports d'inspection datant de 1996 à 2021
  • Un nouveau jeu de données annotées de 5 792 images, étiquetées manuellement et assistées par des outils d'IA, fournissant une ressource unique pour l'analyse des défauts structurels dans le génie civil Cet ensemble de données riche permet à l'IA d'apprendre à partir d'une grande variété de scénarios réels et de types de défauts, améliorant ainsi son efficacité à assister les inspecteurs.

Modèles appliqués

Le projet utilise une combinaison de techniques d'apprentissage profond et d'apprentissage automatique :

  • Algorithmes d'apprentissage profond basés sur des Vision Transformers (ViTs) pour l'analyse d'images et la classification des défauts
  • Algorithmes de machine learning pour traiter les notations de gravité et attribuer des scores d'état final pour des structures entières Des architectures personnalisées sont adaptées pour tenir compte des contraintes spécifiques au domaine, telles que la présence ou l'absence de défauts sur certaines parties des structures.

Fonctions métier impactées

  • Inspection des infrastructures : Transformation des évaluations sur site des inspecteurs
  • Planification de la maintenance : Amélioration de la précision et de l'efficacité de la planification des maintenances
  • Gestion des risques : Renforcement de la capacité à identifier et prioriser les risques structurels
  • Allocation des ressources : Optimisation de l'utilisation des matériaux et des ressources humaines dans la maintenance des infrastructures
  • Contrôle qualité : Amélioration de la cohérence et de la fiabilité dans l'évaluation des défauts
  • Formation et développement : Assistance dans le perfectionnement des inspecteurs juniors

Indicateurs de réussite

  • Précision de l'algorithme : Atteindre une précision de 80 % dans les tâches de classification des défauts
  • Amélioration de la productivité : Augmentation de 30 % de la productivité globale des inspections
  • Adoption des utilisateurs : Retours positifs des inspecteurs sur l'utilisabilité et l'efficacité de l'outil
  • Qualité des données : Réduction des erreurs d'annotation et amélioration de la cohérence des données
  • Reconnaissance scientifique : Succès dans des défis comme CODEBRIM (1re et 2e place) et publications dans des conférences internationales
  • Impact opérationnel : Amélioration mesurable de l'efficacité de la planification de la maintenance et des économies de coûts
  • Évolutivité : Déploiement réussi à différents niveaux de l'écosystème de maintenance des infrastructures d'ici 2026

Le projet SOFIA représente une avancée technologique majeure dans les méthodes d'inspection, créant un « inspecteur augmenté » en assistant les experts humains grâce à l'IA lors de leurs visites obligatoires sur site. Son succès sera mesuré non seulement par ses réalisations techniques, mais aussi par son impact pratique sur la gestion et la sécurité des infrastructures en France et potentiellement au-delà.

En savoir plus

Taille de l'organisme

Grande entreprise (plus de 5 000 employés)

Localisation

France

Nom du projet d'IA

MyBuddy

Portée et objectifs du projet

Périmètre du projet d'IA : Transformation des opérations RH avec des solutions basées sur l'IA
Les objectifs principaux de ce projet sont :

  • Simplifier la navigation dans les documents RH complexes et fournir des réponses rapides et précises aux questions des employés.
  • Utiliser des techniques d'IA avancées pour garantir une expérience robuste, sécurisée et conviviale.
  • Améliorer l'efficacité opérationnelle en réduisant le volume de tickets et les interventions manuelles pour les équipes RH.

Pertinence de l'IA

L'IA joue un rôle central dans ce projet en permettant une compréhension intelligente et une contextualisation des informations spécifiques au domaine. Elle utilise une architecture de type génération augmentée par récupération (RAG) basée sur l'IA générative pour identifier les mots-clés pertinents et acheminer efficacement les requêtes, garantissant ainsi des réponses précises et personnalisées.

Données exploitées

La solution utilise les politiques et documents RH de Sopra Steria India comme principale source de données. L'intégration avec le lac de données Cygnus permet des réponses personnalisées adaptées aux localisations, niveaux et autres paramètres contextuels des utilisateurs.

Modèle appliqué

  • IA générative : L'architecture Agentic RAG constitue l'épine dorsale de la solution, améliorant la compréhension des documents et la résolution des requêtes.
  • Récupération contextuelle : Cette technique améliore la capacité du modèle à comprendre et à récupérer des informations hautement pertinentes à partir des documents RH.
  • Évaluation avec des LLMs : L'évaluation automatique par rapport à un autre LLM garantit la précision et la robustesse de la solution.

Fonctions impactées

  • Opérations RH : Réduction significative du volume de tickets et rationalisation de la résolution des requêtes.
  • Expérience employé : Amélioration de la satisfaction des employés grâce à un support personnalisé et instantané.
  • Sécurité informatique : Incorporation des principes OWASP, protection contre les injections, et tests de pénétration approfondis pour garantir la sécurité du système.
  • Mécanismes de feedback : Intégration de la traçabilité, de l'observabilité et de l'ingestion de feedback pour améliorer continuellement les performances du système.

Indicateurs de réussite

  • Réduction du volume de tickets : Diminution mesurable des tickets de support RH, reflétant l'efficacité de la solution automatisée.
  • Amélioration de la précision des réponses : Évaluée par les métriques de précision et de rappel des réponses du système d'IA.
  • Scores de satisfaction des utilisateurs : Satisfaction accrue des employés vis-à-vis des services RH, mesurée par les retours post-interaction.
  • Efficacité opérationnelle : Réduction des efforts manuels de l'équipe RH, quantifiable par le temps économisé et les données d'utilisation des ressources.

Conclusion

Cette solution industrialisée de bout en bout combine une technologie d'IA de pointe avec une sécurité robuste et des réponses personnalisées, offrant un impact transformateur sur les opérations RH. Elle garantit non seulement une expérience employé fluide, mais s'aligne également avec les objectifs organisationnels d'optimisation de l'efficacité et de l'innovation.

Taille de l'organisme

Grande entreprise (plus de 5 000 employés)

Localisation

France

Nom du projet d'IA

EdgeAI in industrial pumps - Using Embedded Machine Learning to Drive efficient and competitive Maintenance Strategies

Portée et objectifs du projet

Gestion stratégique des pompes : Réduction de l'inventaire des équipements de secours, tels que les pompes, grâce à la maintenance prédictive

Dans une initiative tournée vers l'avenir, notre usine de fabrication est sur le point de réduire la valeur de notre inventaire de pompes et d'améliorer l'efficacité opérationnelle en mettant en œuvre une maintenance prédictive et en optimisant les calendriers de remplacement des pompes. Cette stratégie repose sur la commande et le remplacement en temps opportun des pompes industrielles, garantissant des opérations fluides et des économies de coûts.

La maintenance prédictive utilise la surveillance en temps réel et une analyse avancée des données pour anticiper les pannes d'équipement avant qu'elles ne surviennent. En analysant en continu les données provenant de capteurs installés sur les pompes, les algorithmes d'IA peuvent détecter les premiers signes d'usure, permettant aux équipes de maintenance d'intervenir avant qu'une panne ne se produise.

Cette approche proactive garantit que les pompes sont entretenues et remplacées au moment optimal, évitant ainsi les temps d'arrêt imprévus et les réparations coûteuses. En traitant les problèmes dès leur apparition, l'usine peut éviter les coûts élevés associés aux réparations d'urgence et aux arrêts de production.

L'un des aspects cruciaux de la réduction de la valeur des stocks est la commande de nouvelles pompes au bon moment. La maintenance prédictive fournit des informations précieuses sur la durée de vie restante de chaque pompe, permettant à l'usine de commander des remplacements juste à temps. Cette stratégie minimise le besoin de maintenir un grand inventaire de pompes de rechange, réduisant ainsi la valeur des stocks et les coûts de portage associés.

En adoptant une approche de gestion des stocks juste à temps, l'usine peut réduire considérablement les stocks excédentaires. La maintenance prédictive garantit que les nouvelles pompes sont commandées et livrées précisément au moment où elles sont nécessaires, en alignement avec le calendrier de maintenance de l'usine. Cela réduit la charge financière liée à la détention d'un inventaire excédentaire et libère des capitaux pour d'autres investissements.

La mise en œuvre de la maintenance prédictive et l'optimisation des calendriers de remplacement des pompes conduisent à des économies de coûts substantielles. La réduction des réparations d'urgence, la minimisation des temps d'arrêt et la réduction des coûts d'inventaire contribuent à une opération plus efficace et plus lean. Ces économies peuvent être réinvesties dans l'innovation et le développement futurs, stimulant la croissance à long terme.

La fiabilité des opérations de l'usine est considérablement améliorée grâce à la maintenance prédictive. En garantissant que les pompes sont toujours en état optimal, l'usine peut maintenir des niveaux de production constants et répondre aux demandes du marché sans interruption.

La réduction de la valeur des stocks et l'optimisation de la gestion des inventaires améliorent le flux de trésorerie de l'usine. Les capitaux libérés peuvent être alloués à d'autres domaines critiques, tels que la recherche et le développement, la formation des employés et les mises à niveau technologiques, renforçant ainsi la position concurrentielle de l'usine.

Conclusion

L'initiative de notre usine de fabrication visant à réduire la valeur de l'inventaire des équipements de secours et à optimiser la durée de vie des pompes grâce à la maintenance prédictive et au remplacement stratégique des pompes témoigne de son engagement en faveur de l'efficacité et de l'innovation. En exploitant les données en temps réel et les insights basés sur l'IA, l'usine peut anticiper les besoins de maintenance, commander de nouvelles pompes juste à temps et minimiser les coûts d'inventaire. Cette approche non seulement améliore la fiabilité opérationnelle, mais délivre également des avantages financiers significatifs, positionnant l'usine pour un succès durable sur un marché concurrentiel.

En savoir plus

Taille de l'organisme

Grande entreprise (plus de 5 000 employés)

Localisation

France

Nom du projet d'IA

Autodiag

Portée et objectifs du projet

Autodiag est une solution conçue pour les installations de gestion des déchets responsables du tri des déchets recyclables. La solution permet de calculer en temps réel la qualité du flux de déchets de matériaux sortants dans l'usine de tri.

Les principaux objectifs de la solution sont :

  • Permettre la surveillance des flux de déchets en temps réel.
  • Réduire les coûts opérationnels grâce à une meilleure efficacité de tri et une allocation optimisée des ressources.

Pertinence de l'IA

L'IA joue un rôle crucial dans la résolution des défis du tri manuel des déchets, qui est chronophage, intensif en main-d'œuvre et sujet aux erreurs. En intégrant la vision par ordinateur et des modèles de deep learning, le système d'IA peut :

  • Identifier instantanément les types de déchets à partir de flux vidéo.
  • Fournir des données quantitatives sur la composition des déchets.
  • Améliorer les performances de l'usine de tri grâce à une prise de décision basée sur les données.
  • Apprendre et s'adapter en continu à de nouveaux types de déchets.

Données exploitées

Le système d'IA est formé à l'aide d'un vaste ensemble de données d'images et de vidéos historiques de déchets collectées dans les usines de tri. L'ensemble de données comprend :

  • Des milliers d'images étiquetées de différents types de déchets (bouteilles en plastique, papier, métaux, contaminants, etc.).
  • Des flux vidéo provenant de bandes transporteuses.
  • Des ensembles de données étiquetées par des experts pour affiner la précision du modèle.

Modèle appliqué

La solution d'IA utilise des modèles de deep learning pour la vision par ordinateur, notamment des réseaux de neurones convolutifs (CNN) pour la détection et la classification des objets déchets et des modèles pour la reconnaissance d'images en temps réel.

Fonctions impactées

Le système de caractérisation des déchets basé sur l'IA a été conçu par une équipe multifonctionnelle comprenant :

  • Opérations & Gestion de l'usine de tri : optimisation de l'efficacité de l'usine et catégorisation des déchets.
  • Responsable de la performance spécialisé dans l'usine de tri et le flux de déchets.
  • Équipes de Data Science & IA : développement et maintenance du modèle d'IA.
  • Équipes IT : développement d'une architecture sécurisée.

Indicateurs de réussite

Le succès du projet d'IA est mesuré à l'aide des indicateurs clés de performance (KPI) suivants :

  • Taux de précision de tri : pourcentage de matériaux de déchets correctement classifiés.
  • Réduction des déchets non triés : diminution de la proportion de matériaux recyclables dans le flux non recyclable.
  • Vitesse de traitement : nombre d'objets déchets analysés par minute.
  • Gains d'efficacité opérationnelle : réduction du temps de tri manuel et des coûts de main-d'œuvre.
  • Amélioration du taux de recyclage : augmentation du pourcentage de déchets correctement triés et recyclés.
  • Performance du modèle d'IA : scores de précision, de précision et de rappel du modèle de classification des déchets.

En savoir plus

Taille de l'organisme

Grande entreprise (plus de 5 000 employés)

Localisation

Inde

Nom du projet d'IA

AI-powered Dynamic Condition Monitoring Of Water Networks Undergoing Large-scale Replacement

Portée et objectifs du projet

Coimbatore, une ville du sud de l'Inde, compte plus de 1,5 million d'habitants desservis par un réseau de distribution d'eau de 1 800 km de long. Ce réseau est en cours de modernisation et exploité par SUEZ India dans le cadre d'un contrat de concession pour une alimentation en eau 24x7.

L'objectif principal est d'identifier précisément les segments de conduites nécessitant une maintenance et une réhabilitation immédiates en raison de leur mauvais état. L'IA est au cœur de ce projet pour intégrer divers ensembles de données contenant des informations sur les conduites, les fuites, les contraintes opérationnelles et les facteurs environnementaux dans un modèle prédictif unique capable d'identifier les conduites présentant une forte "Probabilité de Défaillance". Cela nécessite une surveillance continue, car le réseau, la ville et les schémas de fuites évoluent dans le temps, rendant ainsi la "Probabilité de Défaillance" dynamique.

Les outils utilisés sont la science des données géospatiales pour le traitement automatisé des données et un classifieur d'apprentissage automatique pour la prédiction. La sortie du modèle d'IA est une liste hiérarchisée et classée de segments de conduites. Ces résultats sont visualisés dans un outil hébergé dans le cloud, NetCity, accessible via un navigateur web. Les ingénieurs des services publics peuvent personnaliser leur visualisation pour comprendre les schémas spatiaux de risque ainsi que l'âge, le matériau et d'autres caractéristiques des conduites. Le personnel de terrain utilise une application mobile personnalisée pour suivre les conduites nécessitant une investigation pour réparation.

Les fonctions impliquées étaient :

  • Système d'Information Géographique (SIG) : responsable de la génération de données sur les conduites, les fuites et les contraintes opérationnelles.
  • Gestion des fuites : responsable de l'utilisation de l'outil basé sur l'IA pour décider quels segments de conduites prioriser.
  • Ingénieurs de terrain : ingénieurs zonaux qui enquêtent sur les problèmes signalés par l'IA.

Indicateurs de réussite

  • Pourcentage de fuites identifiées sur les conduites à score élevé : calcul du nombre de fuites identifiées dans les 10 % des conduites du réseau ayant le score le plus élevé en termes de "Probabilité de Défaillance". Cette évaluation a été réalisée sur des données de 2024 "mises de côté" (décrites dans la section 3.2). NetCity a capturé 43,85 % des fuites dans 10 % du réseau.
  • Pourcentage de conduites à score élevé identifiées comme défectueuses par les ingénieurs de terrain. Il s'agissait d'une évaluation sur le terrain par des ingénieurs experts. NetCity a identifié avec précision 73 % des conduites

Taille de l'organisme

Grande entreprise (plus de 5 000 employés)

Localisation

Suède

Nom du projet d'IA

Sweco's AI Ecosystem

Portée et objectifs du projet

Les AI Co-Workers de Sweco sont au cœur des activités de l'équipe AI & Automation. Ils sont intégrés de manière transparente dans nos opérations quotidiennes, utilisant des automatisations pour transformer des tâches fastidieuses et des processus complexes en flux de travail efficaces et rationalisés.

Un outil remarquable de notre suite est ContractIQ, qui utilise GenAI et l'automatisation des processus robotisés pour analyser les contrats clients et générer des évaluations juridiques. Notre engagement à rendre l'IA sophistiquée à la fois puissante et conviviale se reflète dans les résultats améliorés pour nos clients et les capacités accrues de notre équipe.

Au cœur de notre avancée technologique se trouve SwecoGPT, une version personnalisée de ChatGPT qui améliore notre productivité tout en garantissant la sécurité des données sensibles. Cet assistant numérique sur mesure permet à nos employés de gérer des documents, d'obtenir des insights et de créer du contenu en toute confiance et avec facilité. Les AI Co-Workers surveillent les opérations et les coûts.

Notre écosystème d'IA est conçu en pensant à nos employés, mais ses avantages s'étendent également à nos clients, qui bénéficient de notre efficacité et de notre innovation accrues.

Pour adopter le changement et intégrer l'automatisation, nous avons :

  • Développé un écosystème d'IA sécurisé qui respecte les directives de Sweco.
  • Mettons régulièrement à jour notre plateforme avec les dernières avancées.
  • Fournissons une formation et un partage des connaissances pour intégrer ces outils dans le travail de nos employés.

Grâce à ces efforts, nous avons créé un récit de progrès où la technologie et l'expertise humaine convergent pour créer un avenir rempli de possibilités infinies.

En savoir plus

Taille de l'organisme

PME (10-250 employés)

Localisation

France

Nom du projet d'IA

Implementation of a revolutionary AI-powered teleconsultation assistant for doctors

Portée et objectifs du projet

Notre projet, axé sur la révolution des pratiques de téléconsultation grâce à l'intelligence artificielle, vise à améliorer considérablement l'efficacité et la qualité des consultations médicales. En intégrant des technologies de prise de notes et de synthèse basées sur l'IA, nous permettons aux médecins de consacrer toute leur attention aux interactions avec les patients, optimisant ainsi la qualité des soins médicaux.

Objectifs :

  • Automatiser la prise de notes pendant les consultations : en utilisant l'IA, notre système capture et transcrit les discussions en temps réel entre les professionnels de santé et les patients. Cette automatisation permet de libérer du temps médical précieux, permettant aux médecins de se concentrer sur les soins aux patients plutôt que sur les tâches administratives.
  • Améliorer la précision des dossiers médicaux : après le consentement du patient, notre système d'IA transcrit précisément les interactions. Les données capturées incluent les dialogues, les examens cliniques et les informations diagnostiques, qui sont cruciales pour une tenue précise des dossiers médicaux mais ne sont pas stockées de manière permanente pour garantir la confidentialité.
  • Synthèse structurée pour validation médicale : après la consultation, le système d'IA génère un résumé structuré de la consultation. Cette synthèse, qui inclut toutes les informations médicales critiques, est présentée au professionnel de santé pour validation avant d'être intégrée dans le dossier médical du patient.
  • Intégration optimisée des données des patients : une fois validée par le professionnel de santé, les données synthétisées sont intégrées de manière transparente dans les dossiers médicaux existants du patient, améliorant ainsi la continuité et la qualité des soins.

La capacité de l'IA à traiter le langage naturel et à synthétiser les informations de manière efficace en fait un outil idéal pour le contexte de la téléconsultation. Le projet utilise des modèles avancés de traitement du langage naturel (NLP) qui ont été formés sur un ensemble diversifié de dialogues médicaux pour garantir la précision et la pertinence des transcriptions et des résumés. Les modèles d'IA sont conçus pour être adaptables à diverses spécialités médicales et démographies de patients.

La mise en œuvre de cette solution d'IA a un impact sur plusieurs domaines clés au sein des organisations de santé, notamment la gestion des dossiers médicaux, les flux de travail des médecins et les stratégies d'engagement des patients. En améliorant ces fonctions, le projet contribue directement à l'amélioration des efficacités opérationnelles et à la satisfaction des patients.

Indicateurs de réussite

  • Réduction du temps passé à la documentation : mesurer la diminution du temps administratif pour les professionnels de santé après la mise en œuvre.
  • Précision des dossiers médicaux : évaluer l'amélioration de la précision et de l'exhaustivité des dossiers médicaux.
  • Satisfaction des médecins : évaluer les retours des professionnels de santé concernant la facilité d'utilisation et l'impact sur la qualité des soins.
  • Qualité médicale : garantir que nous respectons les normes les plus élevées en matière de qualité médicale, en permettant plus de temps entre le patient et le médecin, et avec des rapports médicaux améliorés.

Taille de l'organisme

Grande entreprise (plus de 5 000 employés)

Localisation

France

Nom du projet d'IA

HOPE: Harmonizing Optimization and Precision in Emissions​

Portée et objectifs du projet

Le projet HOPE vise à exploiter l'intelligence artificielle pour améliorer la capacité de Talan à évaluer et réduire l'impact carbone des missions de ses clients. Le périmètre du projet inclut l'intégration de l'IA dans l'outil HOPE, déjà opérationnel dans sa première phase en tant qu'éco-calculateur, et l'extension de ses capacités pour automatiser les processus, faire des prédictions éclairées et fournir des recommandations exploitables. Cette intégration permet à Talan de renforcer ses efforts en matière de durabilité tout en répondant aux demandes des clients pour des évaluations transparentes et complètes des empreintes carbone.

Les principaux objectifs de l'intégration de l'IA dans le projet HOPE sont les suivants :

  • Automatiser l'extraction d'informations à partir des propositions commerciales et des offres d'appels d'offres, simplifiant ainsi le processus de saisie des données pertinentes dans l'éco-calculateur.
  • Utiliser l'IA pour générer des hypothèses éclairées pour les champs avec des données incomplètes ou manquantes, garantissant une évaluation complète de l'impact carbone même lorsque des informations précises ne sont pas disponibles.
  • Développer un système de recommandation qui propose des solutions alternatives, moins intensives en carbone, pour les scénarios de mission, permettant à Talan et à ses clients de prendre des décisions plus responsables sur le plan environnemental.

L'IA est essentielle pour atteindre ces objectifs, car elle réduit considérablement l'effort manuel et l'expertise nécessaires pour calculer les impacts carbone et explorer des alternatives. L'utilisation de l'IA améliore à la fois l'efficacité et la précision de l'outil, tout en révélant des opportunités de réduction du carbone qui pourraient autrement être négligées.

Les données utilisées pour ce projet incluent un ensemble de données d'offres d'appels d'offres et de propositions commerciales. De plus, des annotations manuelles sont disponibles pour ces documents, spécifiant toutes les informations qui peuvent être directement extraites et ce qui peut être inféré du texte. Cet ensemble de données annoté fournit une base critique pour la formation et l'évaluation des modèles d'IA utilisés dans le projet.

La mise en œuvre de l'IA se concentre sur deux approches principales. La première utilise des modèles de langage de grande taille (LLMs) pour des tâches traditionnelles d'extraction d'informations, tandis que la seconde implique une méthodologie mini-Retrieval-Augmented Generation (mini-RAG). L'approche mini-RAG combine un mécanisme de récupération léger avec des capacités de génération pour obtenir des résultats précis de manière efficace en termes de ressources. Ces modèles sont conçus pour compléter les capacités existantes de l'éco-calculateur en automatisant l'extraction de données et en fournissant des insights intelligents.

Le projet a principalement un impact sur les initiatives RSE de Talan et ses opérations avec les clients, en particulier ceux du secteur public qui exigent des évaluations détaillées des empreintes carbone. L'outil HOPE amélioré soutient également les fonctions de développement commercial en offrant un avantage concurrentiel dans la réponse aux appels d'offres avec des exigences de durabilité. De plus, le système de recommandation peut influencer la planification opérationnelle en suggérant une utilisation optimisée des ressources et des arrangements de voyage.

Pour mesurer le succès de l'intégration de l'IA, plusieurs métriques sont prises en compte. Celles-ci incluent les améliorations d'efficacité dans le pré-remplissage des champs et la réalisation des évaluations, mesurées par la réduction du temps requis par rapport à la saisie manuelle. La précision de l'extraction des informations et des prédictions est comparée aux données vérifiées par des experts. La qualité et la pertinence des recommandations sont évaluées par le biais de retours des clients et des utilisateurs internes. Le taux d'adoption de l'outil HOPE amélioré dans les projets clients démontre sa capacité à évoluer et sa pertinence. Enfin, l'impact environnemental est quantifié par la réduction des empreintes carbone estimées pour les missions.

Le projet HOPE est conçu pour s'aligner avec les objectifs de durabilité de Talan et les attentes de ses clients. En intégrant l'IA dans l'éco-calculateur, le projet vise non seulement à renforcer les engagements RSE de Talan, mais aussi à servir de modèle pour l'utilisation de l'IA afin de promouvoir la durabilité dans les secteurs du conseil et de la technologie

Taille de l'organisme

PME (10-250 employés)

Localisation

France

Nom du projet d'IA

IN-VEHICLE OCCUPANT-COUNTING ROAD SENSOR

Portée et objectifs du projet

PRYNTEC est activement engagé dans ces initiatives.

Depuis 2020, le gouvernement s'est associé à des autorités locales intéressées pour mettre en place des voies de covoiturage sur l'A48 à Grenoble (opérationnelles à partir de mi-2020, avec la participation de PRYNTEC). La métropole de Lyon a également testé une voie de covoiturage sur l'ancienne autoroute A6-A7 (dans les deux sens, voie de gauche) traversant la ville en 2020, avec la participation de PRYNTEC.

Dans ce contexte, et pour optimiser les flux de trafic autoroutier, PRYNTEC est bien positionné pour répondre à ces besoins par le biais d'expérimentations ciblées.

Les expériences menées jusqu'à présent sur le comptage des occupants dans les véhicules ont conduit à un Proof of Concept (POC) spécifique pour une société autoroutière au niveau des péages. Le déploiement de divers capteurs permettra de valider une solution simple et efficace de comptage des occupants, constituant la première étape vers une intégration plus poussée, telle que la tarification automatique des péages.

En savoir plus

Taille de l'organisme

PME (10-250 employés))

Localisation

France

Nom du projet d'IA

Reenchanting my job

Portée et objectifs du projet

Lorsque les LLMs et particulièrement ChatGPT ont émergé, nous avons commencé à observer une utilisation généralisée sans aucune directive. Après une discussion interne, nous avons demandé à nos utilisateurs d'établir une liste de souhaits concernant ce pour quoi ils aimeraient utiliser l'IA. Les réponses allaient de l'assistant personnel (répondre aux e-mails, récupérer des informations) à la vérification automatisée des formules.

Après avoir trouvé une entreprise compatible avec notre vision et nos valeurs, nous avons commencé à collaborer avec Oxab sur une installation LLama sur site. Avec des retours très positifs de la part de nos employés et de nombreux échanges, nous avons évolué vers un chatbot intégré, utilisant RAG pour répondre à des questions telles que "Qui est responsable du client N ?", "Quel est le statut de cette formule ?", "Quelle formule contient cet ingrédient ?". Cette solution simple, entièrement intégrée à la fois à notre grande base de données interne (c'est-à-dire le savoir-faire) et à l'ERP X3, nous a permis d'aller beaucoup plus vite, en dotant les employés de toute la connaissance de l'entreprise.

Nous testons actuellement un équivalent de Cortana (Microsoft), mais avec la confidentialité incluse. Nous analysons les interactions de nos utilisateurs avec le logiciel dans l'entreprise pour identifier où davantage d'IA pourrait être introduit pour faciliter les tâches, mais aussi où nous pourrions améliorer le logiciel lui-même pour être plus efficace.

Taille de l'organisme

Grande entreprise (plus de 5 000 employés)

Localisation

France

Nom du projet d'IA

DATX - AI-powered Data Quality Factory

Portée et objectifs du projet

DATX est une plateforme de gestion des données de composants, au cœur de la transformation numérique de l’ingénierie et de l’industrie de Thales. Avec une base de plus de 5 millions de composants référencés et des utilisateurs répartis dans tout le groupe, nous exploitons le cloud, l’IA et l’automatisation pour assurer l’évolutivité de nos services tout en garantissant la qualité et la mise à jour des données exploitées.

Positionnée sur l’ensemble de la chaîne de valeur industrielle – du design à la maintenance –, l’équipe DATX pilote le développement applicatif, la collecte et la production des données liées aux composants. L’utilisation de l’IA est essentielle pour répondre à la demande toujours croissante d’ajout de nouveaux composants dans le catalogue.

En tant que fournisseur de données, DATX relève le défi permanent de l’amélioration continue de ses services. Cela inclut l'optimisation de son efficacité interne, le contrôle rigoureux de la qualité des informations fournies, ainsi que la réalisation de mises à jour régulières. Ces efforts sont déployés pour garantir une amélioration de la productivité des équipes consommatrices de ces données.

Grâce à l’intelligence artificielle et à l’analyse des 5 millions d’articles référencés dans la base de données DATX, nous avons renforcé le contrôle qualité des informations de la base de composants en adressant le problème sous différents angles, qui sont autant d’enjeux opérationnels pour DATX :

  1. Crédibilité des données. Nous évaluons la crédibilité des valeurs des caractéristiques associées aux articles afin de détecter d’éventuelles anomalies. L’application de méthodes statistiques telles que l’algorithme IQR (Interquartile Range) ou de méthodes de clustering telles que DBSCAN nous ont permis d’identifier au plus tôt les valeurs aberrantes et de les valider avec des experts métiers en vue de les corriger ultérieurement.
  2. Complétude des informations. Nous identifions les valeurs manquantes selon la catégorie d’articles (ex. Transistor, Résistance) et la caractéristique analysée (ex. Tension). Nous pouvons ainsi mettre en évidence les zones nécessitant des corrections rapides et comprendre l’origine de ces absences, malgré la complexité du traitement de plusieurs millions d’articles comportant plusieurs dizaines de caractéristiques.
  3. Confidentialité des documents. Certaines fiches produits au format PDF contiennent des données sensibles, comme des e-mails non conformes au RGPD. Pour veiller au respect de ce règlement, nous avons mis en place une stratégie hybride couplant un système de règles de détections de présence de mail à un modèle de régression logistique capable de classer de façon binaire ces fiches techniques. Grâce à cette approche, sur une base d’environ deux millions de documents, nous avons pu détecter et exclure les fiches non conformes de l’environnement de production en moins de 3 jours.
  4. Cohérence des appariements. Chaque article du catalogue est identifié par un numéro de pièce (PN) et est rattaché à une fiche technique fournie par le fabricant. Garantir l’exactitude de la correspondance entre un PN et une fiche est un enjeu de taille pour tout utilisateur souhaitant consulter les caractéristiques techniques d’un composant (PN) dans sa fiche. Pour valider cette correspondance, nous avons entraîné un modèle de classification binaire, sur la base d’un jeu représentatif équilibré de 8500 appariements, ayant atteint une précision de plus de 77%.

Automatisation et assistance des contrôleurs DATX

Nous souhaitons par ailleurs intensifier l’usage de l’IA sur la plateforme notamment à travers une logique d’accompagnement des opérateurs de contrôle interne lors de la phase de validation manuelle des données et documents avant leur mise en production. Nous éprouvons expérimentalement un certain nombre d’approches en nous appuyant sur l’IA générative qui ont vocation à être industrialisées dans l’infrastructure Cloud sécurisée de DATX : 

  • Validation des valeurs associées aux caractéristiques des articles : un chatbot permet de vérifier rapidement une information en posant une question en langage naturel (Ex. Quelle est la capacité du composant dont le PN est … ?).
  • Automatisation de l’intégration des nouveaux articles : d’ici fin 2025, DATX prévoit d’exploiter l’IA générative pour extraire directement les caractéristiques des composants au sein des fiches techniques en vue de les intégrer dans la base de données, améliorant ainsi l’efficacité du processus d’ajout de nouveaux composants.
  • Vérification de la conformité des documents environnementaux (REACH, RoHS) : des algorithmes s’appuyant sur de grands modèles de langage analysent la conformité des documents réglementaires mis à jour périodiquement par les fabricants et leur donnent un score de criticité, soulageant ainsi les opérateurs de contrôle interne, en les orientant directement vers les documents les plus critiques.

Résultats et bénéfices

L’application de ces algorithmes offre l’opportunité de

  • Fournir des KPI sur la qualité des données (nombre de documents respectant le RGPD, nombre de mauvais appariements PN – fiche technique, taux de complétude, taux de valeurs aberrantes…).
  • Détecter rapidement en interne les incohérences et améliorer la fiabilité des données pour les clients de DATX
  • Optimiser le travail des contrôleurs, en priorisant les documents critiques et en réduisant la charge de validation manuelle.

L’IA joue ainsi un rôle clé dans la transformation de la gestion des données au sein de DATX, renforçant le contrôle de la qualité et de la conformité des informations renseignées en base et améliorant l’efficacité opérationnelle des équipes.

Taille de l'organisme

PME (10-250 employés)

Localisation

France

Nom du projet d'IA

Logistics Droids: AI on Wheels Reinventing Transport and Delivery for Businesses

Portée et objectifs du projet

Notre projet d'IA se concentre sur le développement de droïdes logistiques entièrement autonomes pour les usines, les entrepôts et les environnements urbains. Ces droïdes, alimentés par une IA intégrée, automatisent des tâches telles que le transport de marchandises, l'optimisation des chaînes d'approvisionnement et la réalisation de la livraison du dernier kilomètre. Le projet démontre comment la technologie d'IA avancée peut conduire à des solutions robotiques sûres, économes en énergie et durables, adaptées aux défis logistiques modernes.

Le projet vise à :

  • Permettre la navigation autonome : garantir que les droïdes naviguent en toute sécurité dans des environnements complexes tels que les usines, les entrepôts et les rues urbaines.
  • Améliorer l'efficacité opérationnelle : automatiser la logistique pour réduire la charge de travail humaine et améliorer les performances de la chaîne d'approvisionnement.
  • Assurer la sécurité : atteindre des normes de sécurité élevées pour un fonctionnement autonome.
  • Promouvoir la durabilité : développer des systèmes d'IA économes en énergie consommant moins de 15W pour s'aligner sur les objectifs environnementaux.
  • Soutenir l'évolutivité : créer des solutions d'IA adaptables, déployables dans divers secteurs et régions.

Pertinence de l'IA

L'IA est le principal moteur de l'autonomie de ces droïdes. Elle alimente :

  • La perception : l'IA traite les données des capteurs (LiDAR, caméras, IMU, etc.) pour détecter les obstacles et cartographier les environnements.
  • La prise de décision : les algorithmes planifient les itinéraires, s'adaptent aux changements et évitent les dangers.
  • L'optimisation : l'IA garantit une navigation économe en énergie et une utilisation efficace des ressources, essentielles pour une autonomie à long terme.

Sources de données

Les droïdes utilisent des données de capteurs en temps réel :

  • Nuages de points LiDAR pour la cartographie et la détection d'obstacles.
  • Caméras 3D et RGB pour la perception de la profondeur et la reconnaissance d'objets.
  • Capteurs ultrasonores et IMU pour la navigation à courte portée et la stabilisation.
  • Données GNSS pour le positionnement, combinées avec la cartographie locale.

Modèles d'IA

Le projet intègre :

  • Modèles de perception : réseaux de neurones légers pour le traitement en temps réel des images et des nuages de points.
  • Algorithmes SLAM : techniques améliorées par l'IA pour la localisation et la cartographie dans des environnements dynamiques.
  • Systèmes de prise de décision : modèles d'apprentissage par renforcement et basés sur des règles pour la navigation et l'optimisation des tâches.

Fonctions impactées

Les droïdes impactent :

  • La chaîne d'approvisionnement et la fabrication : automatisation de la manutention des matériaux et réduction des coûts opérationnels.
  • La livraison du dernier kilomètre : logistique urbaine efficace pour les colis et les marchandises.
  • Le soutien à la mobilité urbaine : assistance aux équipes de maintenance et aux personnes à mobilité réduite. Ces solutions d'IA sont déployées dans des environnements industriels et urbains avec des partenaires tels que Renault, La Poste, Ikea et DB Schenker, démontrant leur polyvalence et leur valeur à travers l'Europe.

Indicateurs de réussite

Les principales métriques incluent :

  • Sécurité : taux d'incidents et évitement des collisions.
  • Efficacité : réduction de la charge de travail humaine et amélioration des temps d'exécution des tâches.
  • Consommation d'énergie : maintien de la consommation d'énergie de l'IA en dessous de 15W.
  • Fiabilité : temps de disponibilité et tolérance aux pannes pendant le fonctionnement.
  • Adoption par les utilisateurs : satisfaction et intégration réussie par les clients.
  • Impact environnemental : réduction de l'empreinte carbone et utilisation de matériaux durables.

Conclusion

Ce projet d'IA redéfinit la logistique avec des solutions autonomes qui sont sûres, durables et efficaces. En intégrant l'IA directement dans les droïdes, TwinswHeel garantit des performances fiables tout en répondant aux défis environnementaux et opérationnels. Nos solutions démontrent comment l'IA peut transformer la logistique, la rendant plus intelligente et plus verte pour les industries et les villes.

En savoir plus

Taille de l'organisme

Administration publique ou ONG

Localisation

Paris

Nom du projet d'IA

DJtal

Portée et objectifs du projet

L'objectif principal de ce projet est d'améliorer l'efficacité et la productivité du Département Juridique de l'UGAP en intégrant des solutions d'IA dans ses opérations. Cette initiative s'appuie sur la transformation numérique lancée en 2019 avec la mise en œuvre de l'outil GINO LegalTech. En exploitant l'IA, le projet vise à automatiser davantage les tâches juridiques et à optimiser les flux de travail.

Objectifs spécifiques :

  • Accélérer la création de documents contractuels : l'IA générative rationalise la rédaction de textes spécialisés, permettant une production plus rapide de contrats, mémos et e-mails, réduisant ainsi considérablement les délais de traitement.
  • Libérer du temps pour des tâches stratégiques à forte valeur ajoutée : l'IA simplifie la recherche juridique en améliorant l'accès aux bases de données, en fournissant des résumés clairs, en mettant en évidence la jurisprudence clé et en réduisant le temps passé à la recherche d'informations.
  • Améliorer la qualité et la pertinence des décisions : l'IA traite rapidement de grandes quantités de données juridiques, fournissant des analyses détaillées des informations pertinentes. Cela garantit que les décisions sont basées sur des insights précis et exploitables.
  • Minimiser les erreurs humaines : l'IA vérifie la conformité des documents et identifie les éventuelles erreurs, améliorant à la fois la qualité et la sécurité juridique des résultats.

Rôle de l'IA :

L'IA générative est capable de lire, d'analyser et de rédiger du contenu jusqu'à 10 000 fois plus vite que le cerveau humain. Sa capacité à gérer de grands volumes d'informations juridiques complexes en fait un outil particulièrement précieux. Les solutions d'IA peuvent analyser des données juridiques complexes, identifier les risques et les opportunités, et fournir des recommandations personnalisées pour répondre efficacement aux besoins de l'UGAP.

Données exploitées

Le projet exploite diverses sources de données, notamment :

  • La législation et la jurisprudence françaises et européennes.
  • Les commentaires, notes et articles externes.
  • Les données internes de l'UGAP, telles que les contrats et autres documents internes.

Modèle appliqué

Le projet utilise plusieurs technologies d'IA avancées, notamment :

  • GPT 4o et 4o mini : pour le traitement du langage naturel et la génération de contenu.
  • Reconnaissance Optique de Caractères (OCR) : pour numériser et traiter les documents physiques.
  • Retrieval-Augmented Generation (RAG) : pour combiner des données externes et internes pour des réponses contextuelles.
  • Machine learning basé sur le Big Data : pour consolider les données de diverses administrations publiques afin de soutenir les capacités analytiques et prédictives.

Fonctions impliquées

Ce projet, dirigé par le Département Juridique, représente une avancée majeure pour l'UGAP dans son ensemble. En rationalisant les processus juridiques et en accélérant certaines tâches, le Département Juridique joue un rôle pivot dans l'amélioration des performances des autres divisions. Par exemple, le Département des Achats bénéficie directement de conseils juridiques et de clauses plus rapides et plus précis, lui permettant de mieux répondre aux besoins des clients internes. Ces avancées contribuent à une plus grande efficacité organisationnelle globale.

Indicateurs de réussite

Le succès du projet est évalué sur la base des critères suivants :

  • Réduction des délais de production des contrats.
  • Diminution des erreurs dans les documents juridiques.
  • Amélioration de la satisfaction des clients internes.
  • Renforcement de la conformité avec les exigences légales.
  • Gains de productivité parmi les employés.

Taille de l'organisme

Administration publique ou ONG

Localisation

Italie

Nom du projet d'IA

DEEP - Digital Engine For Emergency Photo-analysis

Portée et objectifs du projet

Initialement :

  • Modèle de segmentation —> UNET formé avec les données de drones des cyclones Idai et Kenneth au Mozambique
  • Modèle de classification —> VGG16 formé avec les données de drones des cyclones Idai et Kenneth au Mozambique

Mis à jour avec :

En savoir plus
 

Taille de l'organisme

Administration publique ou ONG

Localisation

Italie

Nom du projet d'IA

SKAI

Portée et objectifs du projet

Grâce à l'Accélérateur d'innovation du PAM, nous avons collaboré avec Google Research en 2018 pour développer SKAI, un outil conçu pour transformer la gestion des risques de catastrophe en utilisant la télédétection et l'IA. Cet outil est spécifiquement destiné à améliorer les systèmes de réponse précoce dans les régions vulnérables au changement climatique et aux conflits.

Les catastrophes comme les tremblements de terre, les ouragans et les incendies de forêt perturbent les communautés de manière complexe, rendant l'évaluation des dommages essentielle pour une réponse efficace. En évaluant l'étendue des dommages, les intervenants peuvent mieux planifier les efforts de secours et l'allocation des ressources. SKAI améliore ce processus en automatisant l'identification des bâtiments endommagés grâce au machine learning et à l'imagerie aérienne, accélérant ainsi considérablement les évaluations des dommages et réduisant les coûts de main-d'œuvre.

Les principaux objectifs de SKAI sont de fournir des informations en quasi temps réel pour la prise de décision lors de la réponse aux catastrophes, allant de l'évaluation rapide des dommages aux bâtiments à la sensibilisation situationnelle et à l'allocation des ressources. L'outil aide à améliorer l'efficacité de la réponse aux catastrophes en automatisant le processus d'évaluation des dommages, réduisant à la fois le temps et les coûts.

En faisant correspondre les évaluations d'experts avec les insights générés par l'IA sur les dommages aux bâtiments, SKAI a démontré une précision de performance comprise entre 85 % et 98 % lors de catastrophes antérieures, y compris les ouragans et les incendies de forêt.

En savoir plus

Taille de l'organisme

Grande entreprise (plus de 5 000 employés)

Localisation

France

Nom du projet d'IA

valeotolabel: AI for automatic labeling of driving data

Portée et objectifs du projet

Les solutions d'IA modernes reposent sur des algorithmes puissants de machine learning et de deep learning qui nécessitent l'acquisition et l'étiquetage de grands ensembles de données. Dans notre contexte automobile, cela est d'autant plus crucial que nous devons répondre aux attentes de nos clients sur de grandes flottes de véhicules produits en masse :

  • validation des performances sur de grandes quantités de données précisément annotées (des milliers à des dizaines de milliers de kilomètres de conduite)
  • liste de plus en plus longue de scénarios et de cas particuliers à couvrir

Le coût des annotations humaines est extrêmement élevé. Nos chercheurs explorent des alternatives à l'apprentissage entièrement supervisé traditionnel pour annoter automatiquement les données (entièrement ou partiellement), réduisant ainsi les coûts d'annotation.
C'est la principale motivation de ce projet.

En savoir plus

Taille de l'organisme

Grande entreprise (plus de 5 000 employés)

Localisation

France

Nom du projet d'IA

Modelization of vegetation and soil through AI 

Portée et objectifs du projet

Le projet visait à surveiller et mesurer l'état de la végétation et des sols sur un échantillon de 73 aéroports. Nous avons donc sélectionné 50 aéroports, représentant les deux tiers de notre empreinte terrestre. Nous avons également sélectionné un échantillon de 5 infrastructures autoroutières, représentant la diversité de nos sites autoroutiers. Il est à noter que le suivi des infrastructures linéaires à l'aide de données satellitaires était l'un des défis que nous relevons actuellement.

En termes de portée, nous avons également choisi une approche à long terme. Nous sommes remontés jusqu'en 2020, date de lancement de notre ambition environnementale, pour surveiller les différentes années et saisons, afin de suivre et analyser précisément les changements dans la santé de la végétation.

Principaux objectifs :

  • Obtenir une visualisation détaillée des conditions des sols : en termes d'évolution de l'artificialisation et de l'évolution de la végétation au fil du temps.
  • Avoir une classification et une caractérisation qui dépendent de la localisation géographique. Ainsi, pour un site basé au Brésil, la végétation sera différente de celle en France. Nous avons classé la végétation selon la taxonomie européenne.
  • Identifier le pourcentage de désartificialisation et être en mesure de l'enregistrer pour tous nos actifs et de le surveiller dans le temps.

Pertinence de l'IA

L'IA permet désormais de classer certaines catégories avec précision, ce qui dépend de nous pour déterminer. De plus, l'IA nous permet d'analyser une très grande quantité de données, sur plusieurs pays (14), et d'obtenir rapidement une vue d'ensemble. L'IA permet de croiser plusieurs types de données : données sur la végétation, données météorologiques, etc. Le début de cette collaboration avec Murmuration n'est que le commencement de ce que nous pourrons tester. Enfin, l'IA prédictive nous permet de modéliser les tendances et d'identifier les zones où nous devons être plus vigilants.

Données exploitées

Plusieurs ensembles de données sont utilisés pour produire les cartes d'occupation des sols et de végétation :

  • Données satellitaires haute résolution (<50cm)
  • Données satellitaires moyenne résolution (3,5-10m)
  • Données radar satellitaires basse résolution (30m-60m)
  • Cartes globales de référence d'occupation des sols et de couverture terrestre (Corine Land Cover+)
  • Bases de données ouvertes, notamment OpenStreetMap
  • Données de modèle numérique d'élévation (30m)

Modèle appliqué

Le projet utilise l'IA à plusieurs niveaux :

  • Extraction de caractéristiques pour décrire les géométries et les signatures spectrales de la scène à l'aide de techniques avancées de machine learning.
  • Modèle de deep learning avancé basé sur l'architecture U-Net pour classer l'occupation des sols.
  • Boucle de rétroaction positive continue, basée sur l'apprentissage par transfert, pour améliorer continuellement le modèle de classification à mesure que des cartes d'occupation des sols supplémentaires précises sont disponibles après le contrôle qualité des sorties.

Fonctions impactées

Les fonctions commerciales impliquées dans ce projet incluent les départements environnementaux, et plus largement, le département RSE avec la réalisation d'objectifs environnementaux, ainsi que le département innovation qui a sourcé la solution et aide les équipes à itérer et à trouver les meilleures applications.

Indicateurs de réussite

Les métriques utilisées pour définir le succès du projet incluent :

  • Économies en termes de temps et de ressources humaines pour fournir des indicateurs.
  • Réduction de l'empreinte environnementale (émissions de CO2).
     

En savoir plus

Taille de l'organisme

Entreprise de taille intermédiaire (250-5 000 employés)

Localisation

France

Nom du projet d'IA

GéoVoie 2.0

Portée et objectifs du projet

Le projet GéoVoie vise à optimiser les opérations de maintenance des voies ferrées en utilisant l'intelligence artificielle pour la maintenance prédictive. Ce projet est développé par les filiales de VINCI Railways, LISEA et MESEA, pour la ligne ferroviaire à grande vitesse LGV SEA en France.

Principaux objectifs :

  • Augmenter la fiabilité des services ferroviaires en anticipant et en résolvant les pannes potentielles avant qu'elles ne causent des perturbations.
  • Optimiser les coûts en réduisant le besoin de maintenance réactive et les coûteux temps d'arrêt.
  • Prolonger la durée de vie des infrastructures grâce à une maintenance opportune basée sur les insights de l'IA.
  • Réduire l'empreinte environnementale en diminuant les émissions de CO2 et l'extraction/utilisation de matières premières.
  • Améliorer la sécurité en identifiant les problèmes potentiels d'infrastructure avant qu'ils ne deviennent des risques pour la sécurité.

Pertinence de l'IA

L'IA est cruciale pour ce projet car elle permet de modéliser les variations de la géométrie des voies et de prédire les pannes potentielles. Cela permet de planifier les opérations de maintenance nécessaires au bon endroit et au bon moment, améliorant ainsi la sécurité, la fiabilité et l'efficacité des opérations.

La maintenance de la LGV Sud Europe Atlantique Tours-Bordeaux est une partie intégrante de son fonctionnement. Le bourrage du ballast est l'une des opérations de maintenance essentielles pour garantir la sécurité et le confort des passagers sur la ligne. Il permet de maintenir la géométrie de la voie conforme aux valeurs de référence. Sur la base des valeurs de référence historiques, le renouvellement du ballast est déclenché lorsqu'un certain seuil de tonnage est atteint.

Cependant, la fréquence de ces opérations de bourrage a un impact sur :

La réduction de la durée de vie de l'infrastructure (due notamment aux contraintes dynamiques et à la répétition des opérations de maintenance), accélérant ainsi le besoin de renouvellement de l'infrastructure.

Le remplacement du ballast, avec un impact sur la consommation de ce matériau (extraction de "nouveau" ballast dans les carrières, et déchets produits par le ballast usagé) et sur les émissions de carbone (extraction, concassage, transport du ballast vers les bases de maintenance, installation sur la voie).

Le défi 1 est donc d'optimiser les opérations de maintenance. Une connaissance détaillée des schémas de dégradation des voies permettra éventuellement de remplacer un benchmark empirique pour déclencher la régénération des voies (tonnage) par une programmation des opérations de maintenance basée sur la connaissance de l'état des voies et de la vitesse de dégradation.

Le défi 2 consiste à fournir un outil pour optimiser la planification des renouvellements de voies. Nous avons donc cherché à prolonger la durée de vie de l'infrastructure et à étaler les opérations de renouvellement des composants de la voie.

Données exploitées

Les données utilisées dans ce projet comprennent les mesures de la géométrie des voies prises tous les 25 cm par le wagon de mesure, ainsi que d'autres données pertinentes sur l'état de l'infrastructure, telles que l'emplacement et le type des opérations de maintenance.

Modèle appliqué

Le projet utilise un modèle prédictif du nivellement longitudinal des voies et des défauts de géométrie, fonctionnant en symbiose avec un modèle de l'impact des opérations de bourrage. Ce modèle est intégré dans SEACloud, la plateforme commune Data/AI Cloud pour LISEA et MESEA.

Fonctions impactées

Les fonctions commerciales impliquées dans ce projet incluent la gestion des opérations par l'optimisation de la maintenance des infrastructures et la gestion des actifs, le département environnemental, et plus largement, le département RSE avec la réalisation d'objectifs environnementaux et sociétaux. Le projet a également un impact financier sur les entreprises en améliorant la sécurité et la fiabilité des services grâce à l'amélioration des indicateurs de performance ferroviaire (réduction des taux d'indisponibilité).

Données exploitées

  • Réduction des coûts de maintenance et de renouvellement des voies.
  • Augmentation de la durée de vie des infrastructures : +10 à 20 ans entre chaque opération de renouvellement.
  • Réduction du nombre d'incidents et amélioration des indicateurs de performance contractuels.
  • Économies en termes de temps et de ressources humaines.
  • Diminution de l'empreinte environnementale (émissions de CO2, extraction/utilisation de matières premières).

Taille de l'organisme

Entreprise de taille intermédiaire (250-5 000 employés)

Localisation

France

Nom du projet d'IA

KamAI - Enterprise AI Assistants Platform

Portée et objectifs du projet

Le projet KamAI représente la mise en œuvre stratégique par Wakam de la technologie d'IA générative via la plateforme française SaaS Dust. Le périmètre englobe la gestion des connaissances internes et l'automatisation et l'optimisation des processus internes, tout en excluant strictement tout traitement des données des assurés. Le projet est conçu pour améliorer l'efficacité opérationnelle à travers diverses fonctions commerciales grâce à des assistants alimentés par l'IA.

Principaux objectifs :

  • Excellence opérationnelle
  • Optimiser les processus internes grâce à l'automatisation par l'IA
  • Améliorer l'accessibilité et le partage des connaissances
  • Améliorer la prise de décision grâce à des insights basés sur les données
  • Réduire le temps passé sur les tâches répétitives

Intégration technique :

  • Intégration transparente avec les systèmes existants (Microsoft Entra ID, Notion, Slack, SharePoint, Snowflake)
  • Développement d'assistants IA spécialisés pour des fonctions commerciales spécifiques
  • Mise en œuvre d'une infrastructure IA sécurisée et conforme

Pertinence de l'IA

Le projet exploite des capacités avancées d'IA à travers :

  • Les Large Language Models (LLMs) pour le traitement du langage naturel
  • Les assistants IA personnalisés pour des tâches spécialisées
  • Le machine learning pour la reconnaissance et l'analyse des motifs
  • Le traitement et l'analyse automatisés des documents

Données exploitées

Le projet utilise diverses sources de données internes tout en maintenant une protection stricte des données :

  • Documentation opérationnelle
  • Bases de connaissances internes
  • Documentation technique
  • Canaux de communication publics
  • Données de marché et de l'industrie

Modèle appliqué

  • Claude 3.5 Sonnet pour le codage, l'analyse complexe et les tâches complexes
  • GPT-4o pour les tâches générales

Fonctions impactées

  • Juridique et conformité
  • Analyse et génération de contrats
  • Vérification de la conformité réglementaire
  • Traitement des documents juridiques
  • Développement produit
  • Création des termes et conditions
  • Documentation produit
  • Analyse de marché
  • Opérations techniques
  • Assistance, génération et révision de code
  • Documentation technique
  • Support d'intégration système
  • Ressources humaines
  • Accès aux informations sur les politiques
  • Gestion des requêtes des employés
  • Gestion de la documentation
  • Souscription
  • Récupération et résumé d'informations
  • Analyse de marché
  • Analyse de données
  • Marketing & Ventes
  • Récupération et résumé d'informations
  • Analyse concurrentielle et de marché
  • Assistance et révision de la génération de contenu

Indicateurs de réussite

Métriques quantitatives
  • Taux d'adoption des utilisateurs : 72 % d'utilisateurs actifs mensuels (employés)
  • Réduction du temps de traitement (de 10 % à 90 % selon les tâches/processus)
  • Efficacité d'achèvement des tâches
  • Réduction du taux d'erreur
Métriques qualitatives
  • Scores de satisfaction des utilisateurs
  • Qualité des sorties générées par l'IA (via évaluation des utilisateurs et tests automatisés)
  • Précision des réponses (via évaluation des utilisateurs et tests automatisés)
  • Respect de la conformité (via évaluation des utilisateurs et tests automatisés)

Impact commercial

  • Optimisation des ressources
  • Amélioration de l'accessibilité aux connaissances
  • Rationalisation des processus
  • Activation de l'innovation

Le projet a déjà démontré son succès à travers :

  • Réussite de la phase pilote d'un mois
  • Lancement et déploiement réussis dans toute l'entreprise (taux d'utilisation de 72 %)
  • Développement de 40 assistants IA spécialisés par l'entreprise
  • Création de 90 assistants personnels par les employés
  • Haute satisfaction des utilisateurs (note de 4,8/5)
  • Améliorations significatives de l'efficacité dans le traitement des documents

Cette approche complète garantit que la mise en œuvre de l'IA apporte une valeur mesurable tout en maintenant des normes élevées en matière de sécurité, de conformité et de considérations éthiques.

En savoir plus

Taille de l'organisme

PME (10-250 employés)

Localisation

France

Nom du projet d'IA

AI Solutions for Accelerated Genomic Medicine

Portée et objectifs du projet

Le consortium WIDGeT (Viral Vector Intelligent Design for Gene Therapy), composé de Sanofi, WhiteLab Genomics, le laboratoire TaRGeT de l'Université de Nantes (INSERM) et l'Institut Imagine, vise à développer et utiliser des technologies d'IA pour accélérer le développement de thérapies géniques utilisant des vecteurs viraux dérivés de virus adéno-associés (AAV) pour le traitement de la dégénérescence maculaire liée à l'âge et des podocytopathies héréditaires (maladies rénales). Ce consortium est financièrement soutenu par le plan France 2030 opéré par Bpifrance.

Malgré l'approbation de plusieurs produits de thérapie génique pour traiter des maladies rares et courantes, ces thérapies rencontrent encore des défis scientifiques et techniques significatifs. Ces traitements reposent sur des vecteurs utilisés pour délivrer des gènes thérapeutiques dans les cellules, compensant les mutations responsables des maladies ciblées. Parmi les vecteurs actuellement évalués, les AAV apparaissent exceptionnellement prometteurs pour la thérapie génique et le transfert de gènes in vivo. La mission du consortium WIDGeT est d'optimiser ces vecteurs AAV à l'aide de l'IA pour améliorer l'efficacité et la spécificité des thérapies géniques, réduire les doses injectées, minimiser les effets secondaires et réduire les coûts de production.

WIDGeT vise à créer un écosystème innovant avec des experts dans leurs domaines pour accélérer le développement de nouvelles thérapies géniques avec l'aide de l'IA. WIDGeT est un lauréat de l'appel à projets Innovations en biothérapies et bioproduction dans le cadre de la stratégie d'accélération des biothérapies et de la bioproduction, dont l'un des objectifs est de faciliter le développement d'innovations de santé jugées stratégiques. Le consortium bénéficiera d'un budget de 17,95 millions d'euros soutenu par le plan France 2030 opéré par Bpifrance. Cette initiative répond aux défis du plan France 2030 visant à unir et mobiliser tous les acteurs des technologies du futur, en ligne avec les objectifs de France BioLead et celui du gouvernement français d'établir la France comme leader européen de la production biopharmaceutique d'ici 2030.

Les partenaires du consortium sont pleinement engagés dans l'avancement des thérapies géniques avec les contributions de l'IA. Les algorithmes avancés de machine learning développés par WhiteLab Genomics se combinent avec les capacités robustes de bioproduction de TaRGeT, et TaRGeT et l'Institut Imagine fourniront des qualifications cellulaires et physiologiques expérimentales améliorées. Sanofi, de son côté, apportera son expertise analytique et son engagement ferme pour le développement de la prochaine génération de vecteurs de thérapie génique. L'utilisation de l'IA améliorera la spécificité tissulaire et cellulaire des variants AAV développés pour deux cibles, les podocytes et les cellules microgliales, impliqués dans les maladies rénales rares et les maladies neuro-ophtalmiques. Sur cinq ans, WIDGeT vise à établir des innovations pour l'ingénierie vectorielle et à améliorer les outils de transfert de gènes pour sélectionner des solutions adaptées aux maladies rares et courantes traitables par thérapie génique.

Dans le projet WIDGeT, l'IA est un outil fondamental fournissant les capacités de calcul et de prédiction nécessaires pour surmonter les limitations traditionnelles en thérapie génique. La plateforme d'IA de WhiteLab Genomics exploite des modèles de machine learning et de deep learning pour analyser des ensembles de données biologiques complexes, prendre des décisions basées sur les données pour l'ingénierie des capsides, ainsi que des mécanismes d'apprentissage itératif pour affiner la conception des vecteurs basée sur des retours computationnels et expérimentaux. Les ensembles de données utilisés pour former et valider les modèles ML/DL incluent des données génomiques—séquences de variants de capsides AAV et profils génomiques de patients, des données protéomiques—aperçus des dynamiques et interactions protéiques à la surface des cellules, et des données précliniques—résultats d'études in vitro et in vivo.

Les fonctions commerciales impliquées ou impactées sont principalement centrées sur la R&D, avec un accent marqué sur la recherche, les tests et la validation. Cela inclut le développement et l'intégration de nouveaux processus et technologies et l'amélioration des pipelines existants. Diverses métriques sont employées pour définir le succès du projet :

  • Métriques techniques, incluant l'efficacité vectorielle—améliorations de l'efficacité du transfert de gènes mesurée par les taux de transduction dans les cellules ciblées, la spécificité—ciblage tissulaire et cellulaire amélioré, les profils de sécurité—réduction de l'immunogénicité et des effets secondaires, la réduction des doses, la performance des modèles d'IA par rapport aux données expérimentales.
  • Métriques opérationnelles, incluant le temps de développement, la réduction des coûts et le débit d'innovation—nombre de nouvelles capsides dans le cadre du projet.
  • Métriques stratégiques, incluant les résultats des partenariats—collaboration entre les membres du consortium mesurée par les jalons atteints et le développement partagé de propriété intellectuelle, le leadership mondial—positionnement de la France comme leader en thérapie génique mesuré par les brevets, les publications et l'adoption des solutions développées.
  • Métriques centrées sur le patient, incluant l'amélioration des résultats cliniques pour les patients et l'accessibilité pour une base de patients plus large, stimulée par la réduction des coûts des thérapies.

En savoir plus

Taille de l'organisme

PME (10-250 employés)

Localisation

France

Nom du projet d'IA

Monaco Train Station : AI for efficiency on rail mobility

Portée et objectifs du projet

Le projet d'IA mis en œuvre à la gare de Monaco Monte-Carlo se concentre sur la résolution des défis opérationnels critiques grâce à l'analyse vidéo alimentée par la plateforme XXII CORE. Cette initiative, dirigée par SNCF Hubs&Connexions, vise à optimiser la gestion des flux de passagers, à améliorer la sécurité et à intégrer des fonctionnalités personnalisées adaptées aux besoins spécifiques de la gare.

Portée du projet

  • Comptage des flux de passagers : l'objectif principal est de compter le nombre de passagers entrant et sortant de la gare par cinq points d'accès clés. Ces données fournissent des informations précieuses sur les comportements des passagers, permettant une allocation efficace des ressources, telles que les guichets et le personnel de sécurité, et l'optimisation des espaces commerciaux.
  • Surveillance de la densité : le projet comprend une analyse en temps réel de la densité des passagers sur les quais et dans les zones commerciales. En détectant les formations de foule, la solution aide à prévenir les incidents tels que la surpopulation et les chutes, garantissant la sécurité et le confort des voyageurs.
  • Classe de détection personnalisée – "Train à quai" : un ajout clé au projet a été le développement et le déploiement rapides d'une classe de détection "Train à quai" au sein de la plateforme XXII CORE. Cette fonctionnalité a été spécialement conçue pour la gare de Monaco Monte-Carlo afin de surveiller la présence des trains en temps réel. En synchronisant les données de flux de passagers avec les horaires des trains et l'occupation des quais, cette innovation assure des transitions plus fluides entre les arrivées et les départs des trains, réduisant la congestion et améliorant l'efficacité globale.
  • Optimisation des infrastructures : une partie essentielle du projet consiste à évaluer l'évolutivité de l'infrastructure vidéo existante et à garantir la conformité avec les réglementations GDPR. Cela implique l'utilisation des caméras actuelles de la gare sans mises à niveau matérielles significatives.

Objectifs

  • Efficacité opérationnelle : fournir des données en temps réel pour adapter dynamiquement les opérations de la gare pendant les périodes de trafic intense ou les grands événements.
  • Gestion proactive de la sécurité : déployer l'IA pour identifier les risques potentiels, permettant des interventions rapides pour éviter les incidents.
  • Prise de décision améliorée : offrir des analyses fiables pour guider les décisions stratégiques, telles que l'amélioration de l'orientation des passagers ou la gestion des espaces commerciaux.
  • Solutions personnalisées : répondre à des défis spécifiques grâce à l'intégration de la classe de détection "Train à quai", permettant une gestion synchronisée des opérations ferroviaires et des flux de passagers.

Pertinence de l'IA

L'intégration de l'IA garantit des analyses précises et évolutives que les méthodes manuelles traditionnelles ne pourraient pas réaliser. En automatisant des tâches telles que le comptage des passagers, la surveillance des densités et la détection de la présence des trains, la plateforme permet aux gestionnaires de la gare de prendre des décisions basées sur les données avec une agilité et une précision inégalées.

Données exploitées

  • Traitement des données : XXII CORE traite les flux vidéo en temps réel, extrayant des informations anonymisées conformément au GDPR.
  • Détection personnalisée : la fonctionnalité "Train à quai" utilise des données spécifiques aux horaires d'arrivée et de départ des trains, fournissant des informations exploitables pour la synchronisation opérationnelle.

Modèle appliqué

La plateforme XXII CORE utilise des modèles avancés de vision par ordinateur adaptés pour gérer les environnements à haute densité. Ces modèles :

  • Analysent les schémas de mouvement et identifient les densités de foule.
  • Fournissent des données anonymisées et non biométriques pour garantir la conformité à la vie privée.
  • S'intègrent de manière transparente dans l'infrastructure existante, nécessitant des modifications matérielles minimales.
  • Soutiennent la classe de détection "Train à quai", développée en collaboration avec SNCF Hubs&Connexions, pour répondre aux exigences opérationnelles uniques de Monaco.

Fonctions impliquées

  • Opérations de la gare : surveillance en temps réel des flux de passagers, synchronisée avec la présence des trains pour une gestion optimale.
  • Sécurité et sûreté : amélioration de la détection des incidents et des mesures préventives.
  • Gestion commerciale : meilleure utilisation et segmentation des espaces commerciaux basés sur les données de densité des passagers.
  • Coordination des opérations ferroviaires : synchronisation des données d'occupation des quais avec les horaires des trains pour des transitions plus fluides et une réduction des goulots d'étranglement.

Données exploitées

  • Précision du comptage des passagers : un écart cible inférieur à 10 % par rapport aux méthodes manuelles.
  • Réduction des incidents : diminution de la surpopulation et des incidents de sécurité connexes pendant les périodes de pointe.
  • Efficacité opérationnelle : temps de réponse plus rapides lors des événements et meilleure allocation des ressources.
  • Évolutivité : validation de la préparation de l'infrastructure pour un déploiement plus large dans d'autres gares.
  • Impact de la classe "Train à quai" : meilleure utilisation des quais et transitions plus fluides des passagers lors des arrivées et des départs des trains.

Ce projet met en lumière l'impact transformatif de l'IA dans la résolution des défis uniques de la gare de Monaco Monte-Carlo. En exploitant XXII CORE et la classe de détection "Train à quai" développée sur mesure, la gare non seulement améliore ses opérations actuelles mais établit également une référence pour les futures innovations en matière de gestion des passagers et de sécurité à travers le réseau SNCF.

En savoir plus

Taille de l'organisme

Micro entreprise (moins de 10 employés)

Localisation

France

Nom du projet d'IA

NEURO ID : AI + Cyber

Portée et objectifs du projet

Notre projet d'IA se concentre sur la transformation de la manière dont la vérification de l'identité et la sécurité sont abordées à l'ère numérique. Au cœur de ce projet se trouve Neuro ID®, la première solution neuronale biométrique utilisant une signature neurale unique. Cette technologie révolutionnaire vise à éliminer les méthodes d'authentification traditionnelles telles que les mots de passe et les PIN, les remplaçant par une approche transparente et basée sur l'IA qui garantit à la fois sécurité et facilité d'utilisation.

  • Révolutionner l'authentification : le projet vise à remplacer les méthodes d'authentification traditionnelles en introduisant une norme neuronale biométrique qui exploite les signaux neuronaux uniques à chaque individu.
  • Améliorer la vérification de l'identité : en intégrant l'analyse des signaux neuronaux basée sur l'IA, le système non seulement authentifie mais vérifie également que l'individu est réellement l'utilisateur autorisé. Cela ajoute une couche inégalée de détection des fraudes, garantissant que les acteurs malveillants sont détectés et empêchés en temps réel.
  • Intégration transparente : la solution est conçue pour s'intégrer à plusieurs appareils connectés, y compris les casques de réalité augmentée, les écouteurs et autres technologies portables, garantissant une expérience unifiée et conviviale.
  • Éliminer les vulnérabilités traditionnelles : supprimer la dépendance aux méthodes obsolètes et vulnérables comme les mots de passe et les jetons.
  • Renforcer la cybersécurité : protéger les utilisateurs contre le vol d'identité, l'hameçonnage et l'accès non autorisé en utilisant une vérification basée sur la signature neurale.
  • Améliorer l'expérience utilisateur : garantir que l'authentification est fluide, intuitive et entièrement invisible pour l'utilisateur, offrant une interaction véritablement magique.
  • Permettre l'évolutivité : développer une solution qui peut s'adapter à divers secteurs, y compris la finance, la santé et l'électronique grand public.
  • Pertinence de l'IA : l'IA est au cœur de Neuro ID®, permettant le traitement et la reconnaissance des motifs des signaux neuronaux en temps réel.

Son rôle comprend :

  • Entraînement des modèles : les modèles d'IA sont formés pour distinguer les utilisateurs authentiques des imposteurs avec une grande précision.
  • Analyse comportementale : des algorithmes d'IA avancés mesurent les variations subtiles des motifs neuronaux, garantissant que la personne authentifiée est bien l'utilisateur autorisé.
  • Amélioration continue : l'apprentissage automatique permet au système d'évoluer et de s'adapter à mesure que de nouveaux défis et cas d'utilisation émergent.

Le système repose sur des données de signaux neuronaux haute-fidélité capturées par des appareils équipés de neurotechnologie.

Les principaux types de données comprennent :

  • Les motifs d'activité neuronale spécifiques aux utilisateurs individuels.
  • Les données environnementales et contextuelles pour garantir une prise de décision robuste dans des conditions variables.
  • Les ensembles de données anonymisés pour l'entraînement et la validation des modèles, garantissant le respect de la vie privée.

Fonctions commerciales impliquées :

  • Cybersécurité : renforcer la protection des données des entreprises et des consommateurs.
  • Authentification des utilisateurs : révolutionner le contrôle d'accès sur les plateformes.
  • Innovation produit : favoriser l'adoption de la neurotechnologie de pointe dans les appareils connectés.
  • Conformité et confidentialité : garantir le respect des normes strictes de protection des données comme le RGPD.

Indicateurs de réussite

  • Taux d'adoption : acceptation et intégration généralisées de Neuro ID® comme nouvelle norme dans l'industrie.
  • Satisfaction des utilisateurs : notes élevées des utilisateurs pour la fluidité et la facilité d'utilisation.
  • Prévention de la fraude : réduction des cas de vol d'identité et d'accès non autorisé.
  • Conformité réglementaire : respect ou dépassement des normes mondiales en matière de sécurité et de confidentialité des données.

Grâce à ce projet, nous visons à établir une nouvelle référence en matière de sécurité, d'utilisabilité et de confiance dans les interactions numériques, redéfinissant la manière dont le monde aborde la vérification de l'identité et le contrôle d'accès.

En savoir plus

Taille de l'organisme

Micro entreprise (moins de 10 employés)

Localisation

France

Nom du projet d'IA

Ma Facture Elec - My Electricity Bill

Portée et objectifs du projet

Ce projet se concentre sur l'optimisation de la gestion de l'énergie pour les organisations disposant de plusieurs sites. En analysant les factures d'électricité, les données de consommation et les schémas opérationnels, il simplifie les données complexes, identifie les opportunités d'économies de coûts et améliore l'efficacité énergétique tout en soutenant les objectifs de durabilité.

Objectifs

  • Simplifier l'analyse des données : automatiser l'interprétation des données énergétiques, réduisant ainsi la dépendance à l'expertise interne.
  • Optimiser les coûts et la consommation : identifier les inefficacités et les stratégies d'économies réalisables.
  • Soutenir les objectifs climatiques : aligner les mesures d'économie d'énergie avec les cibles de durabilité.

Pertinence de l'IA

L'IA est cruciale pour traiter les ensembles de données complexes provenant des compteurs intelligents, des dispositifs IoT et des BAS (Building Automation Systems). Elle découvre des schémas, prévoit des tendances et génère des recommandations exploitables, permettant des insights et des efficacités inaccessibles par des processus manuels.

Données exploitées

  • Factures d'électricité : informations détaillées de facturation des fournisseurs.
  • Données des compteurs intelligents : métriques de consommation horodatées.
  • Données IoT et BAS : schémas d'utilisation du CVC, de l'éclairage et des équipements.
  • Sources externes : données météorologiques, structures tarifaires.

Modèle appliqué

  • Prévision de séries temporelles : prédire les tendances et les pics de consommation d'énergie.
  • Détection d'anomalies : identifier les inefficacités et les irrégularités.

Fonctions impliquées

  • Gestion des installations : amélioration de l'efficacité et de la maintenance.
  • Finance : gestion et prévision des coûts énergétiques optimisées.
  • Équipes de durabilité : soutien à la réalisation des objectifs environnementaux.
  • Équipes IT/Données : optimisation de l'intégration des IoT et des BAS.

Indicateurs de réussite

  • Réduction des coûts : diminution des dépenses d'électricité.
  • Gains d'efficacité : consommation de kWh plus faible par unité de production ou par mètre carré.
  • Précision de la détection d'anomalies : exactitude de l'identification des inefficacités.
  • Taux d'adoption des actions : mise en œuvre des stratégies recommandées.
  • Impact sur la durabilité : réduction des émissions de CO₂.

En savoir plus

→ Contenu partiellement traduit par une IA et vérifié par un agent. En raison du sujet, il peut demeurer des anglicismes dans les textes de présentation fournis par les entreprises.

Ceci pourrait vous intéresser

Suivez-nous sur les réseaux sociaux et Abonnez-vous à notre lettre d’information