Démontrer la fiabilité de vos systèmes d’intelligence artificielle

Afin de répondre aux besoins de confiance, de conformité et de fiabilité des solutions d’intelligence artificielle, le LNE propose des systèmes d’évaluation des algorithmes et systèmes embarquant de l’IA. Son laboratoire d’évaluation de l’IA (LE.IA) est constitué de plusieurs plateformes d’essais qui permettent de valider le fonctionnement d’un système d’IA, de sécuriser son usage, d’améliorer ses performances, et de s’assurer de son caractère éthique.

Un système d'IA est un matériel ou un programme informatique capable de prendre des décisions, de faire des recommandations, de s’adapter à de nouvelles situations et d’apprendre à partir de données afin d’exécuter des tâches spécifiques de manière autonome ou assistée.

Image
Schéma évaluation IA

Pourquoi et quand qualifier les fonctionnalités d’IA d’un système intelligent ?

Afin d’optimiser son fonctionnement et sa consommation énergétique (frugalité), de sécuriser son usage et permettre d’expliquer son processus de prise de décision (explicabilité en vue d’une acceptabilité), il est indispensable de qualifier les différentes fonctionnalités d’IA du système intelligent, tout comme les méthodes d’évaluation employées, avant sa mise en opération.

L’analyse de la performance et de la robustesse des fonctionnalités d’IA permet d’évaluer sa fiabilité à exécuter la tâche demandée et à répondre aux exigences réglementaires liées à la mise sur le marché de votre produit.

Procéder à une validation d’un système d’IA donnera l’occasion de s’assurer que le modèle et les données employées sont fiables et interprétables pour obtenir une analyse de qualité et robuste.

#Grâce aux méthodes d’analyse structurées développées par nos experts techniques et adaptées à votre produit, qui mettent à l’épreuve le fonctionnement technique de l’IA, il devient alors possible de défier le processus de prise de décision de l’IA et d’identifier l’ensemble des améliorations possibles.

Intégrer cette démarche au plus tôt dans la phase d’intégration ou de développement de votre produit pour identifier les améliorations à apporter permettra de limiter les coûts de développement mais aussi de pouvoir rassurer sur la performance du modèle d’IA employé dans votre système, pour prendre la bonne décision.

L’analyse de cette performance est primordiale dans les domaines d’activités les plus critiques, comme les systèmes à haut risque définis dans l’AI Act, tels que la santé, la surveillance ou la défense.

#Grâce aux rapports d’essais transmis par le LNE, vous pourrez documenter par exemple la robustesse ainsi que l’explicabilité des algorithmes développés ou utilisés.

Une qualification d’un système d’IA s’inscrit dans l’analyse de gestion des risques de votre produit afin de :

  • Attester de sa fiabilité
  • Identifier pour atténuer les biais en déterminant leur cause
  • Définir la sécurité de l’algorithme pour qu’il puisse être utilisé dans des secteurs critiques
  • Répondre au besoin de confiance des intégrateurs et utilisateurs, et ainsi réduire les réclamations pour réponse inappropriée

Valider le fonctionnement d’un système d’IA à travers une qualification méthodique permet ainsi de fournir un ensemble de preuves (documentation) et de vous mettre en conformité avec les normes comme cela pourrait être demandé dans le RDM, la directive machine ou l’AI Act.

Le passage par un organisme tiers permet de renforcer la confiance des utilisateurs finaux et des régulateurs dans le système d’IA développé, et de faciliter son déploiement de mise sur le marché.

Une proposition complète :

Pour contrer les cyberattaques, le LNE propose également de procéder à un audit de sécurité de votre système d’IA afin d’identifier ses différentes vulnérabilités et renforcer sa sécurité.

Mettre en place une certification de processus de votre IA  et/ou ISO 42001 est également un moyen de répondre aux exigences réglementaires, attestant ainsi de la mise en place d’un processus qualité et d’une gestion organisationnelle maîtrisée.

Evaluation de l’IA et AI Act (Règlement européen sur l’IA)

Le règlement sur l’IA vise à garantir que les systèmes d'IA utilisés en Europe respectent des normes en matière de sécurité, de transparence, de protection des droits fondamentaux et de fiabilité en fonction du niveau de risque qu’ils présentent. La normalisation vise à atténuer les risques inhérents à l’IA et à rendre l’IA digne de confiance.

#La démarche proposée par le LNE vise à couvrir les différentes exigences de l’AI Act afin de documenter et expliquer le fonctionnement du système d’IA et faciliter sa validation auprès d’un organisme notifié.

Les données : un impact qualitatif et environnemental

Afin de réduire l’impact énergétique du développement des systèmes d’IA, il est nécessaire d’utiliser la juste quantité de données d’évaluation ou d’apprentissage et d’optimiser la taille des modèles utilisée. Cependant, la réduction du nombre de données ne doit pas impacter la qualité du résultat.

La qualité et la représentativité des données utilisées lors de la validation de l’IA sont ainsi essentielles, et doivent être contrôlées.

#Grâce à leur expertise dans le domaine, nos experts techniques sauront vous assister pour vous aiguiller sur l’emploi, au juste niveau, de données maitrisées et pertinentes qui vous permettront d’obtenir une analyse de qualité, fiable et robuste.

Ce faisant, vous contribuerez aussi à la réduction de votre consommation énergétique dans ce domaine.

Quelles solutions pour qualifier un système d'IA ? 

Votre algorithme ou système d’IA peut être autonome (logiciel, application, etc.) ou être intégré dans un matériel ou un dispositif (dispositif médical, robot d’aide à la personne, caméra intelligente, etc.).

En tant qu’organisme tiers, le LNE travaille depuis 2008 à travers son laboratoire d’évaluation de l’IA (LE.IA) au déploiement de solutions techniques et au développement de méthodes de qualification des systèmes d’IA afin de sécuriser leur usage et de donner confiance.

Image
Plateformation laboratoires LEIA - évaluation intelligence articielle

Au sein du LE.IA, vous avez accès à un ensemble de prestations permettant de réaliser des simulations ou de plonger votre système dans une réalité dynamique simulée, avec différents niveaux de réalisme. En fonction de votre besoin de validation ou d’accompagnement, nos experts vous orienteront sur la solution la plus adéquate.

Comment s'assurer de la fiabilité d'une évaluation d'un système IA ?

Le LNE accompagne les utilisateurs finaux, intégrateurs et développeurs de systèmes d’IA lors des différentes phases de développement d’un produit.  

#Grâce à l’expertise en complétude et représentativité des données de nos experts, nous pouvons vous accompagner dans le développement, ou l’ajustement, de vos méthodes d’analyse et du plan d’évaluation de votre système d’IA.

Cette analyse peut être complétée en réalisant :  

  • Une évaluation de la performance et de la robustesse des fonctionnalités d’IA de votre système afin de le valider
  • Une analyse de la qualification de la base de données (réelles ou synthétiques) d’apprentissage ou d’évaluation
  • Une assistance technique sur la définition des métriques à employer  

#Attentifs aux évolutions réglementaires et en capacité d’apporter une réponse à vos interrogations sur les différentes réglementations qui s’appliquent à votre système d’IA, nous proposons :

  • Un appui à l'interprétation des exigences règlementaires et normatives via une évaluation de conformité (ex. analyse documentaire selon les exigences de l’AI Act) et en répondant à vos interrogations spécifiques
  • Une évaluation du processus d’apprentissage ou d’évaluation de la fonctionnalité d’IA en lien avec les besoins de certification en IA
  • Une analyse documentaire et méthodologique d’une fonctionnalité d’IA selon son domaine applicatif (facteurs d’influence, protocole d’apprentissage et limites, protocole d’évaluation et métriques définies, etc.)
  • Une analyse de la cybersécurité de votre système d’IA

# Une formation sur catalogue ou sur mesure peut vous être proposée en fonction des interrogations pratiques auxquelles vous auriez besoin de répondre.

Exemples de produits qualifiés par le LNE : systèmes de vidéoprotection, gestion du trafic aérien, assistants vocaux, dispositif médical intégrant de l’IA, etc.

A savoir :

  1. Les métriques servent de mesures de base et permettent de tracer l’origine des sous-performances identifiées, il est donc essentiel qu’elles soient bien définies en fonction du système d’IA et de son usage.
  2. Les données issues du produit devront aussi être qualifiées et annotées pour évaluer le produit de la manière la plus précise possible.

Expertise technique en IA générative d'usage général

Dotée d’expertises pointues en audio, texte, images et vidéos, notre équipe technique peut répondre à vos différents besoins de qualification et de validation de votre système d’IA :

  • Applications civiles en compréhension ou transcription automatique de la parole, traduction automatique, diarisation et détection d’entités nommées,
  • Applications duales en comparaison de voix pour la criminalistique, traduction,
  • Reconnaissance vocale, reconnaissance de caractères (OCR, analyse de contenu texte)
  • Reconnaissance d’images, de personnes ou d’objets, de formes dans des documents télévisuels/vidéos,
  • Recherche d’anomalies.

Le LNE dispose d’outils* permettant d’évaluer les systèmes de transcription automatique de la parole, et peut vous accompagner dans le développement et l’intégration d’IA générative à usage général.

Nos compétences sont élargies sur l’ensemble des secteurs d’activités nécessitant de sécuriser l’utilisation de l’IA, tels que la santé, l’énergie, la défense, la surveillance, entre autres.

* outils :

  • Datomatic pour l’organisation des données et constituer une base de références
  • Evalomatic pour tester la pertinence des logiciels en comparant leurs résultats aux références fournies

Comment qualifier un robot embarquant de l’IA ?

Le LNE dispose d’infrastructures uniques vous permettant de valider vos scénarios de modèles d’IA intégrés dans un dispositif matériel.

A travers une simulation ou une immersion dans un environnement virtuel, vous collectez des données qui pourront être utilisées pour identifier les faiblesses éventuelles et explorer les limites fonctionnelles de votre solution.

 #La simulation vous permettra de gagner du temps sur la collecte de données et d’optimiser vos coûts de développement.

Produits types évalués : capteurs et caméras de surveillance intelligents, drones, robots avec caméras 2D ou 3D, Lidar, Sonar, dispositifs mobiles (véhicules autonomes, aide à la personne, ...), etc.

 

Subventions possibles

Le saviez-vous ? Des subventions sont possibles

Toute  PME, TPE et start-up implantée en Europe développant des solutions innovantes et ayant besoin de concevoir, qualifier ou certifier un système utilisant de l’IA est potentiellement éligible aux subventions dans le cadre du programme européen TEF : Testing and Experimentation Facilities.

Cette subvention se matérialise par une remise attractive directement appliquée sur le tarif des prestations proposées par le LNE.

>> Ecoutez notre webinar pour en savoir plus sur les aides possibles

Le LNE, expert engagé dans la mise en place d’une IA de confiance

  • + de 15 ans d’expérience et + de 1500 évaluations de systèmes d’IA dans des domaines aussi sensibles que la médecine, la défense ou le véhicule autonome
  • Organisme tiers indépendant pleinement engagé dans la mise en place d’un cadre de confiance pour les systèmes d’IA,
  • Une offre étendue de prestations pour valider les systèmes d’IA
  • Elaboration du premier référentiel pour la certification des processus d’IA visant à garantir que les solutions sont développées et mises sur le marché en respectant un ensemble de bonnes pratiques
  • Coordinateur des partenaires français de trois projets européens TEF (Testing and Experimentation Facilities)

INESIA : Institut National pour l’Evaluation et la Sécurité de l’Intelligence Artificielle

Avec la création de l’INESIA, la France rejoint le réseau des 10 AI Safety Institute dans le monde et, grâce à ses compétences reconnues dans le domaine, le LNE fait partie des quatre acteurs nationaux de l’évaluation et de la sécurité de l’IA. Cet institut est piloté par la SGDSN[1] et la DGE[2], et sera techniquement coordonné par le LNE, l’ANSSI[3], l’Inria[4] et PEReN[5].

Ses missions principales reposeront sur l’évaluation de la sécurité des modèles et systèmes d’IA qui recouvre plusieurs dimensions, allant de l’enjeu de la performance et de la fiabilité du modèle d’IA jusqu’aux questions de sécurité nationale, en ayant un regard appuyé sur la sécurité des modèles et les risques qualifiés de « systémiques » par le règlement européen de l’IA (AI Act). Cet institut soutiendra également la mise en œuvre de la régulation de l’IA.


[1] Secrétariat général de la défense et de la sécurité nationale - [2] Direction générale des Entreprises - [3] Agence nationale de la sécurité des systèmes d'information - [4] Institut national de recherche en sciences et technologies du numérique - [5] Pôle d’expertise de la régulation numérique

Pour en savoir plus

L'évaluation de l'IA au bénéfice des acteurs économiques

Image
Illustration-Webinar-evaluation-IA-2020
Webinar du 30 juin 2020

Principaux points abordés dans ce webinar :

  • Quelles sont les spécificités de l’évaluation de l’IA ?
  • Qu’est-ce qu’une évaluation (méthode, tâche, protocole, métrique et corpus) ?
  • Pourquoi et comment caractériser les environnements de fonctionnement ?
  • Quels sont les points durs (représentativité des environnements de test, reproductibilité de l’évaluation, conformité des systèmes d’IA aux exigences légales émergentes, etc.) ?

Voir le webinar

Avis d’experts

 

 

A consulter aussi...

OSZAR »