
Afin de répondre aux besoins de confiance, de conformité et de fiabilité des solutions d’intelligence artificielle, le LNE propose des systèmes d’évaluation des algorithmes et systèmes embarquant de l’IA. Son laboratoire d’évaluation de l’IA (LE.IA) est constitué de plusieurs plateformes d’essais qui permettent de valider le fonctionnement d’un système d’IA, de sécuriser son usage, d’améliorer ses performances, et de s’assurer de son caractère éthique.
Un système d'IA est un matériel ou un programme informatique capable de prendre des décisions, de faire des recommandations, de s’adapter à de nouvelles situations et d’apprendre à partir de données afin d’exécuter des tâches spécifiques de manière autonome ou assistée.
Afin d’optimiser son fonctionnement et sa consommation énergétique (frugalité), de sécuriser son usage et permettre d’expliquer son processus de prise de décision (explicabilité en vue d’une acceptabilité), il est indispensable de qualifier les différentes fonctionnalités d’IA du système intelligent, tout comme les méthodes d’évaluation employées, avant sa mise en opération.
L’analyse de la performance et de la robustesse des fonctionnalités d’IA permet d’évaluer sa fiabilité à exécuter la tâche demandée et à répondre aux exigences réglementaires liées à la mise sur le marché de votre produit.
Procéder à une validation d’un système d’IA donnera l’occasion de s’assurer que le modèle et les données employées sont fiables et interprétables pour obtenir une analyse de qualité et robuste.
Grâce aux méthodes d’analyse structurées développées par nos experts techniques et adaptées à votre produit, qui mettent à l’épreuve le fonctionnement technique de l’IA, il devient alors possible de défier le processus de prise de décision de l’IA et d’identifier l’ensemble des améliorations possibles.
Intégrer cette démarche au plus tôt dans la phase d’intégration ou de développement de votre produit pour identifier les améliorations à apporter permettra de limiter les coûts de développement mais aussi de pouvoir rassurer sur la performance du modèle d’IA employé dans votre système, pour prendre la bonne décision.
L’analyse de cette performance est primordiale dans les domaines d’activités les plus critiques, comme les systèmes à haut risque définis dans l’AI Act, tels que la santé, la surveillance ou la défense.
Grâce aux rapports d’essais transmis par le LNE, vous pourrez documenter par exemple la robustesse ainsi que l’explicabilité des algorithmes développés ou utilisés.
Une qualification d’un système d’IA s’inscrit dans l’analyse de gestion des risques de votre produit afin de :
Valider le fonctionnement d’un système d’IA à travers une qualification méthodique permet ainsi de fournir un ensemble de preuves (documentation) et de vous mettre en conformité avec les normes comme cela pourrait être demandé dans le RDM, la directive machine ou l’AI Act.
Le passage par un organisme tiers permet de renforcer la confiance des utilisateurs finaux et des régulateurs dans le système d’IA développé, et de faciliter son déploiement de mise sur le marché.
Une proposition complète :
Pour contrer les cyberattaques, le LNE propose également de procéder à un audit de sécurité de votre système d’IA afin d’identifier ses différentes vulnérabilités et renforcer sa sécurité.
Mettre en place une certification de processus de votre IA et/ou ISO 42001 est également un moyen de répondre aux exigences réglementaires, attestant ainsi de la mise en place d’un processus qualité et d’une gestion organisationnelle maîtrisée.
Le règlement sur l’IA vise à garantir que les systèmes d'IA utilisés en Europe respectent des normes en matière de sécurité, de transparence, de protection des droits fondamentaux et de fiabilité en fonction du niveau de risque qu’ils présentent. La normalisation vise à atténuer les risques inhérents à l’IA et à rendre l’IA digne de confiance.
La démarche proposée par le LNE vise à couvrir les différentes exigences de l’AI Act afin de documenter et expliquer le fonctionnement du système d’IA et faciliter sa validation auprès d’un organisme notifié.
Afin de réduire l’impact énergétique du développement des systèmes d’IA, il est nécessaire d’utiliser la juste quantité de données d’évaluation ou d’apprentissage et d’optimiser la taille des modèles utilisée. Cependant, la réduction du nombre de données ne doit pas impacter la qualité du résultat.
La qualité et la représentativité des données utilisées lors de la validation de l’IA sont ainsi essentielles, et doivent être contrôlées.
Grâce à leur expertise dans le domaine, nos experts techniques sauront vous assister pour vous aiguiller sur l’emploi, au juste niveau, de données maitrisées et pertinentes qui vous permettront d’obtenir une analyse de qualité, fiable et robuste.
Ce faisant, vous contribuerez aussi à la réduction de votre consommation énergétique dans ce domaine.
Votre algorithme ou système d’IA peut être autonome (logiciel, application, etc.) ou être intégré dans un matériel ou un dispositif (dispositif médical, robot d’aide à la personne, caméra intelligente, etc.).
En tant qu’organisme tiers, le LNE travaille depuis 2008 à travers son laboratoire d’évaluation de l’IA (LE.IA) au déploiement de solutions techniques et au développement de méthodes de qualification des systèmes d’IA afin de sécuriser leur usage et de donner confiance.
Au sein du LE.IA, vous avez accès à un ensemble de prestations permettant de réaliser des simulations ou de plonger votre système dans une réalité dynamique simulée, avec différents niveaux de réalisme. En fonction de votre besoin de validation ou d’accompagnement, nos experts vous orienteront sur la solution la plus adéquate.
Le LNE accompagne les utilisateurs finaux, intégrateurs et développeurs de systèmes d’IA lors des différentes phases de développement d’un produit.
Grâce à l’expertise en complétude et représentativité des données de nos experts, nous pouvons vous accompagner dans le développement, ou l’ajustement, de vos méthodes d’analyse et du plan d’évaluation de votre système d’IA.
Cette analyse peut être complétée en réalisant :
Attentifs aux évolutions réglementaires et en capacité d’apporter une réponse à vos interrogations sur les différentes réglementations qui s’appliquent à votre système d’IA, nous proposons :
Une formation sur catalogue ou sur mesure peut vous être proposée en fonction des interrogations pratiques auxquelles vous auriez besoin de répondre.
Exemples de produits qualifiés par le LNE : systèmes de vidéoprotection, gestion du trafic aérien, assistants vocaux, dispositif médical intégrant de l’IA, etc.
A savoir :
Dotée d’expertises pointues en audio, texte, images et vidéos, notre équipe technique peut répondre à vos différents besoins de qualification et de validation de votre système d’IA :
Le LNE dispose d’outils* permettant d’évaluer les systèmes de transcription automatique de la parole, et peut vous accompagner dans le développement et l’intégration d’IA générative à usage général.
Nos compétences sont élargies sur l’ensemble des secteurs d’activités nécessitant de sécuriser l’utilisation de l’IA, tels que la santé, l’énergie, la défense, la surveillance, entre autres.
* outils :
Le LNE dispose d’infrastructures uniques vous permettant de valider vos scénarios de modèles d’IA intégrés dans un dispositif matériel.
A travers une simulation ou une immersion dans un environnement virtuel, vous collectez des données qui pourront être utilisées pour identifier les faiblesses éventuelles et explorer les limites fonctionnelles de votre solution.
La simulation vous permettra de gagner du temps sur la collecte de données et d’optimiser vos coûts de développement.
Produits types évalués : capteurs et caméras de surveillance intelligents, drones, robots avec caméras 2D ou 3D, Lidar, Sonar, dispositifs mobiles (véhicules autonomes, aide à la personne, ...), etc.
La plateforme « LE.IA Simulation » permet de tester le dispositif en simulation, selon plusieurs scénarios, afin d’évaluer sa performance.
Dans le cas d’un robot modélisé, pour simuler ses déplacements, seul l’algorithme est évalué, sans accès à une boucle de commande, ni au temps de traitement des données du robot par exemple.
Avantages :
La plateforme « LE.IA Immersion » permet de mettre en situation le dispositif réel au sein d’un environnement virtuel afin de tester ses caractéristiques d’asservissement et de prise de décision dans un environnement donné (plateforme HiL -hardware in the loop-). Le robot est placé au cœur d’une simulation projetée sur écran à 300° disposant d’un système de motion capture. Ces données sont intégrées dans le simulateur en temps réel, pour que le jumeau numérique du robot suive les mêmes déplacements.
Avantages :
Exemples de performances testées
La plateforme « LE.IA Action » permet de mettre le dispositif en situation d’exécution réelle.
Modulaire, cette plateforme couvre plusieurs domaines de la robotique. Elle dispose notamment d’une chambre climatique permettant de valider le fonctionnement du robot à différentes températures, et de caméras de tracking pour mesurer ses mouvements.
Les modules conçus pour les tests de déplacement (terrains rugueux, labyrinthes…) et de manipulation (poignées, valves, positionnement 6D) sont construits à partir de standards du NIST (National Institute of Standards and Technology).
Avantages :Test dans un environnement de référence contrôlé pour tester les capacités physiques du robot, reproductibilité, répétabilité
Exemples de performances testées
Toute PME, TPE et start-up implantée en Europe développant des solutions innovantes et ayant besoin de concevoir, qualifier ou certifier un système utilisant de l’IA est potentiellement éligible aux subventions dans le cadre du programme européen TEF : Testing and Experimentation Facilities.
Cette subvention se matérialise par une remise attractive directement appliquée sur le tarif des prestations proposées par le LNE.
>> Ecoutez notre webinar pour en savoir plus sur les aides possibles
Avec la création de l’INESIA, la France rejoint le réseau des 10 AI Safety Institute dans le monde et, grâce à ses compétences reconnues dans le domaine, le LNE fait partie des quatre acteurs nationaux de l’évaluation et de la sécurité de l’IA. Cet institut est piloté par la SGDSN[1] et la DGE[2], et sera techniquement coordonné par le LNE, l’ANSSI[3], l’Inria[4] et PEReN[5].
Ses missions principales reposeront sur l’évaluation de la sécurité des modèles et systèmes d’IA qui recouvre plusieurs dimensions, allant de l’enjeu de la performance et de la fiabilité du modèle d’IA jusqu’aux questions de sécurité nationale, en ayant un regard appuyé sur la sécurité des modèles et les risques qualifiés de « systémiques » par le règlement européen de l’IA (AI Act). Cet institut soutiendra également la mise en œuvre de la régulation de l’IA.
[1] Secrétariat général de la défense et de la sécurité nationale - [2] Direction générale des Entreprises - [3] Agence nationale de la sécurité des systèmes d'information - [4] Institut national de recherche en sciences et technologies du numérique - [5] Pôle d’expertise de la régulation numérique
Principaux points abordés dans ce webinar :