Certification et assurance IA du point de vue des entreprises

L'utilisation de l'intelligence artificielle (IA) dans l'environnement privé et professionnel ne cesse de croître. Parallèlement, des discussions sont en cours au niveau européen sur les réglementations relatives à la certification et à la protection de l'IA. Les instituts Fraunhofer IAO et IPA ont donc analysé les mesures de régulation actuelles et résumé les exigences et les besoins des entreprises dans un nouveau livre blanc.

"Le livre blanc "Certification et sécurisation de l'IA dans le secteur de la santé" est disponible en ligne.
Contexte de l'"EU AI ACT" (image : www.ipa.fraunhofer.de)

Ces dernières années, l'importance de l'intelligence artificielle (IA) s'est considérablement accrue, tant dans la vie privée que dans la vie professionnelle. L'IA a le potentiel de transformer de nombreuses industries et domaines de notre société en améliorant l'efficacité et la qualité dans différents cas d'application. Toutefois, l'utilisation de l'IA s'accompagne également de risques et d'incertitudes considérables, tels que les erreurs algorithmiques, les risques de responsabilité, la discrimination et les atteintes à la vie privée. Si les systèmes basés sur l'IA ne sont pas développés, exploités et testés selon des normes de sécurité uniformes, ils peuvent affecter la sécurité des produits et des services.

Pour répondre à ces défis, l'Union européenne (UE) a présenté en 2021 un projet de loi, le EU AI Act, visant à réglementer l'IA. En juin 2023, la Commission européenne et le Parlement européen ont pu se mettre d'accord sur une proposition et négocient actuellement sa mise en œuvre avec les États membres de l'UE. L'AI Act, en tant que facteur important pour la certification et l'assurance de l'IA, est également d'une importance capitale pour l'Innovation Park Artificial Intelligence, qui met en place le plus grand écosystème de développement de l'IA à l'échelle européenne. "Dans notre écosystème Ipai, nous souhaitons promouvoir des applications d'IA qui ne sont pas seulement innovantes et efficaces, mais aussi sûres et éthiquement responsables. Une compréhension pratique des normes européennes issues de l'AI Act sur la sécurisation de l'IA nous aide, ainsi que nos entreprises membres, à prendre toutes les dispositions nécessaires à cet effet", souligne Moritz Gräter, le CEO de l'Ipai.

En préparation du prochain EU AI Act, le Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO et le Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA ont donc étudié le point de vue des entreprises. L'équipe de recherche a ainsi enregistré l'état actuel des réglementations légales relatives à la protection de l'IA. En se basant sur les résultats d'entretiens avec des spécialistes, l'équipe a en outre formulé des exigences de la part des entreprises, des instituts de recherche et de formation pour la mise en œuvre de processus de sécurisation et de certification de systèmes d'IA.

L'absence de directives sur la couverture de l'IA comme facteur d'incertitude pour Société

Selon l'actuel projet de loi sur l'IA de l'UE, il est prévu de classer les applications d'IA en différents niveaux de risque et de les soumettre à différentes obligations en fonction de ces niveaux. Les exploitants d'applications IA à haut risque seront tenus de vérifier leur conformité à ces exigences dans le cadre d'une auto-évaluation et pourront ensuite utiliser le sceau CE comme certificat.

Bien que ces exigences indiquent très clairement à quoi doit ressembler une utilisation de l'IA conforme à l'EU AI Act, la manière d'y parvenir n'est pas encore claire. Il manque actuellement des mesures concrètes pour vérifier les exigences. "Les entreprises ont par exemple du mal à évaluer dans quelles circonstances leur application d'IA est suffisamment transparente ou quel taux d'erreur est tolérable", explique Janika Kutz, chef d'équipe au centre de recherche et d'innovation sur les systèmes de services cognitifs KODIS du Fraunhofer IAO. On craint également que les dépenses liées à la certification dépassent les ressources des startups et des petites et moyennes entreprises. On craint que des connaissances juridiques soient nécessaires pour appliquer correctement les exigences et que la conformité augmente les temps et les coûts de développement, empêchant ainsi les entreprises européennes de rivaliser avec la concurrence internationale.

Les entreprises formulent des exigences claires pour la certification IA

Un résultat important des entretiens est que la certification doit être réalisable pour les entreprises de toutes tailles. Assurer et faire certifier chaque cas d'application est coûteux et nécessite beaucoup de ressources, c'est pourquoi les entreprises posent des exigences claires en matière de réglementations pour assurer l'IA. Des facteurs tels que la transparence et la faisabilité des processus de certification, les rôles clairs des autorités et des institutions ainsi que la préservation de la capacité d'innovation sont soulignés comme particulièrement importants. "Les entreprises interrogées s'accordent à dire que la valeur ajoutée pour les utilisateurs finaux devrait toujours être au premier plan lors de la certification de l'IA", résume le professeur Marco Huber, directeur du département Cyber Cognitive Intelligence au Fraunhofer IPA, en présentant les résultats des interviews.

Les entreprises ont besoin d'un soutien externe

D'après les déclarations des personnes interrogées, la plupart des entreprises ne semblent pas être suffisamment préparées aux réglementations à venir de l'EU AI Act. Les entreprises peuvent donc profiter de la diffusion d'informations, du transfert de connaissances et de la création de réseaux, et sont également intéressées par des offres de conseil individuel ainsi que par des méthodes et des outils pratiques pour les aider à sécuriser et à certifier les systèmes basés sur l'IA. L'échange continu entre les autorités de régulation, l'industrie, les instituts de recherche et le grand public permet de développer une compréhension globale des opportunités et des défis liés à l'utilisation de l'IA. Cela conduira au développement de systèmes d'IA plus efficaces, plus sûrs et plus pratiques.

Source : www.ipa.fraunhofer.de 

(79 visites, 1 visite aujourd'hui)

Plus d'articles sur le sujet