La ZHAW développe un schéma de certification pour les systèmes d'IA

Une équipe de recherche de la ZHAW School of Engineering a développé, en collaboration avec CertX AG, un schéma de certification pour l'intelligence artificielle qui vérifie la fiabilité des technologies d'intelligence artificielle. Le projet "CertAInty", soutenu par Innosuisse, s'adresse ainsi aux risques sociaux et aux exigences de l'EU AI Act, qui sera également pertinent pour les entreprises suisses dans un avenir proche.

Direction du projet "CertAInty" : Dr Ricardo Chavarriaga et Dr Joanna Weng. (Image : ZHAW School of Engineering)

L'intelligence artificielle (IA) est de plus en plus utilisée dans des domaines critiques pour la sécurité, ce qui rend la fiabilité de ces systèmes de plus en plus importante. Des systèmes d'IA mal évalués peuvent entraîner de graves risques pour la société - des algorithmes discriminatoires aux risques de sécurité physique en passant par les erreurs de diagnostic dans le contexte médical.

Schéma de certification comme pont entre technologie et réglementation

Le Centre for Artificial Intelligence (CAI) et l'Institut de mathématiques et de physique appliquées (IAMP) de la ZHAW School of Engineering mènent ensemble des recherches sur ce thème d'actualité. Il en est résulté le schéma de certification "CertAInty", qui offre un cadre structuré pour l'expertise des technologies d'IA. "La certification des systèmes d'IA par un organisme accrédité augmente la confiance, accélère leur acceptation et permet leur utilisation dans des applications critiques en termes de sécurité", explique Ricardo Chavarriaga de la ZHAW School of Engineering. Joanna Weng, qui codirige le projet avec lui, explique : "Le schéma CertAInty comble le fossé entre les exigences réglementaires abstraites de l'EU AI Act et les méthodes techniques concrètes d'évaluation des systèmes d'IA".

Quatre aspects clés de la fiabilité

Le schéma de certification comprend quatre dimensions centrales :

  • La fiabilité : Performance fiable du système dans différentes conditions
  • Transparence : Traçabilité des processus décisionnels de l'IA
  • Autonomie et contrôle : Définition du degré de supervision humaine
  • la sécurité : Prévention des effets indésirables dans les domaines d'application critiques, tels que les soins de santé ou les systèmes de transport autonomes

Pour la dimension de fiabilité, par exemple, une sélection optimisée a été identifiée et validée parmi plus de 55 métriques et 95 méthodes. "Notre schéma de certification offre désormais une méthodologie pratique et une base pragmatique pour les développeurs, les entreprises et les autorités de régulation ainsi que pour l'utilisation responsable des technologies d'IA", explique Joanna Weng.

Validation pratique

L'applicabilité du schéma a été démontrée à l'aide de plusieurs exemples réels, comme par exemple la reconnaissance assistée par IA de véhicules de chantier au moyen de la vision par ordinateur. La fiabilité de la reconnaissance assistée par l'IA contre les facteurs perturbateurs tels que les influences météorologiques et les distorsions d'image a été systématiquement évaluée.

Le projet prend une importance particulière avec l'EU AI Act, qui est entré en vigueur le 1er août 2024 et sera pleinement applicable à partir du 2 août 2026. Cette réglementation introduira une certification obligatoire pour les systèmes d'IA à haut risque, qui englobe précisément les dimensions auxquelles CertAInty s'adresse. Les systèmes d'IA à haut risque intégrés dans des produits réglementés bénéficieront d'une période de transition prolongée jusqu'au 2 août 2027. Une réglementation est également attendue en Suisse dans un avenir proche. En outre, les entreprises suisses qui commercialisent leurs produits dans l'UE doivent se conformer aux prescriptions de l'EU AI Act. "Le projet anticipe le cadre réglementaire qui se met en place et offre un pont méthodologique entre les exigences et la mise en œuvre pratique", souligne Chavarriaga.

La société CertX utilise désormais le schéma de certification comme base pour ses services et propose une évaluation systématique et indépendante des solutions d'IA en Suisse. Les résultats du projet ont également été présentés lors de différentes conférences, notamment la Swiss Conference on Data Science 2024, où l'équipe de la ZHAW School of Engineering a remporté le prix de l'innovation. Prix du meilleur papier a gagné.

L'équipe de recherche a remporté le Best Paper Award lors de la Swiss Conference on Data Science 2024. (Image : ZHAW School of Engineering)

Être à la pointe de l'évaluation éthique de l'IA

Pour les spécialistes intéressés de l'industrie et de la science, la ZHAW propose pour la première fois en mai, en collaboration avec l'IEEE Standards Association, un cours de plusieurs jours sur le thème de l'évaluation de l'IA ".Formation d'évaluateur IEEE CertifAIEd™" à.

Source et informations complémentaires : www.zhaw.ch

(Visité 34 fois, 4 visites aujourd'hui)

Plus d'articles sur le sujet