Le potentiel de l'IA dans la gestion des risques
Le développement de l'intelligence artificielle (IA) progresse à grande vitesse. De nombreuses percées ont été réalisées ces dernières années, notamment dans les domaines de la vision artificielle, du traitement des données linguistiques et des jeux de stratégie. En fin de compte, l'IA est une technologie omnifonctionnelle qui a le potentiel de changer pratiquement tous les domaines de la vie. L'utilisation de l'IA offre également un large éventail de possibilités en matière de gestion des risques.
Le boom actuel de l'IA, qui a commencé il y a cinq ans, est principalement dû à trois évolutions : premièrement, une puissance de calcul moins coûteuse ; deuxièmement, des ensembles de données plus importants ; et troisièmement, des algorithmes d'apprentissage profond qui utilisent un nombre énorme de couches intermédiaires entre les données d'entrée et les résultats. Cela a conduit à des percées importantes dans la vision artificielle (par exemple, une performance surhumaine dans la reconnaissance d'objets et la classification du cancer de la peau), l'informatique linguistique (par exemple, la parité humaine dans la reconnaissance de la parole, la traduction anglais-chinois et le test de compréhension de texte GLUE) et les jeux de stratégie (par exemple, une performance surhumaine au Go, au poker et à la Dota 2), entre autres.
Il faut s'attendre à ce que l'IA, en tant que technologie omnifonctionnelle, modifie considérablement, voire révolutionne, de nombreux secteurs économiques et domaines politiques dans les années à venir. En effet, l'IA présente un large éventail de complémentarités innovantes, telles que les véhicules autonomes, les véhicules aériens sans pilote ou les robots industriels, et donc un potentiel d'application considérable dans toutes les grandes industries. La section suivante décrit certaines des principales opportunités et certains des principaux défis qui se présentent pour la gestion des risques à mesure que les applications de l'IA deviennent plus répandues.
Quelles sont les possibilités en matière de gestion des risques ?
Dans les années à venir, nous pouvons nous attendre à voir l'utilisation des applications d'IA dans toutes les phases de la gestion des risques, de la prévention des risques à la gestion des crises. Ainsi, l'IA peut déjà apporter une contribution importante à la prévention et à l'évitement des dangers. Entre autres, l'apprentissage machine peut être utilisé dans la protection des infrastructures critiques pour la maintenance prédictive, l'inspection et la détection visuelle des dommages aux infrastructures.
Par exemple, l'apprentissage machine a été utilisé pour prévoir quelles conduites d'eau à Sydney sont à haut risque de défaillance, ou à quel endroit dans les villes américaines les inspections de bâtiments sont les plus susceptibles de valoir la peine. De même, l'apprentissage machine a été utilisé dans diverses études pour détecter et quantifier la corrosion ou les petites fissures dans les structures en béton ou en acier. Ce processus pourrait bientôt être utilisé pour l'inspection des centrales nucléaires, des routes, des ponts ou des bâtiments.
L'IA promet également des processus plus précis et, surtout, plus rapides dans les domaines de l'analyse des risques et de la détection précoce. Étant donné que l'analyse des risques menée par des experts, telle qu'elle prévaut aujourd'hui, est très gourmande en ressources, elle ne peut généralement être effectuée qu'à des intervalles plus longs. Ici, l'IA soutient le passage d'une analyse de risque subjective, pilotée par des experts, à un processus basé sur des machines. D'une part, ces approches sont utilisées dans la modélisation de défis complexes et à long terme tels que le changement climatique. D'autre part, l'apprentissage machine et les données météorologiques peuvent être utilisés, par exemple, pour mettre à jour les modèles de prévision des inondations ou des glissements de terrain sur une base quotidienne, horaire ou même en temps réel afin d'optimiser les systèmes d'alerte précoce. "Les systèmes d'IA sont fortement dépendants de la qualité et de la quantité des données".
Utilisation également pour la cybersécurité
Les progrès réalisés dans le domaine de la vision artificielle favorisent la connaissance de la situation et la surveillance des infrastructures critiques en particulier. Les systèmes de sécurité intelligents permettent, entre autres, de reconnaître des caractéristiques biométriques, des émotions, des actions humaines et des comportements atypiques dans une zone de surveillance. Ils permettent également de rechercher automatiquement des objets ou des personnes dans une période donnée sur la base de caractéristiques spécifiques telles que la taille, le sexe ou la couleur des vêtements. De même, l'apprentissage machine peut également être utilisé pour détecter les anomalies et les intrusions en matière de cybersécurité. Enfin, l'IA peut également soutenir la gestion des crises. Par exemple, en utilisant l'apprentissage machine pour extraire automatiquement l'étendue des dégâts locaux ainsi que les besoins de soutien à partir des messages sur les médias sociaux. Le succès de l'IA dans les jeux de stratégie indique qu'elle pourrait bien être utilisée à l'avenir pour soutenir la prise de décision dans la gestion des crises. À plus long terme, il existe également un potentiel futur dans le domaine de l'ingénierie de la résilience. En conséquence, l'IA pourrait être utilisée, par exemple, dans des systèmes d'infrastructure importants pour développer une adaptabilité générique et ainsi les aider à s'adapter aux conditions environnementales changeantes.
Risques et défis
Même si l'IA est un domaine extrêmement dynamique et que les attentes à l'égard de cette technologie sont souvent très élevées, certaines limites resteront dans son application dans un avenir prévisible. Les systèmes d'IA sont fortement dépendants de la qualité et de la quantité des données. Les biais présents dans les données de formation sont ensuite reflétés dans l'inférence. De même, bien que les systèmes d'IA saisissent des corrélations statistiques à partir d'énormes quantités de données, ils n'ont pas encore compris les relations de cause à effet. Lorsqu'il n'y a pas ou très peu de données, comme dans le cas des risques technologiques émergents et futurs, l'IA actuelle ne peut pas rivaliser avec l'expertise humaine.
En outre, l'utilisation généralisée des systèmes d'IA comporte également de nouveaux risques, notamment lorsque les algorithmes soutiennent ou prennent des décisions importantes, comme en médecine, dans les transports, sur les marchés financiers ou dans les infrastructures critiques. Dans ce cas, il faut notamment veiller au respect des critères d'équité, d'exactitude et de robustesse. Par exemple, en contrôlant la mesure dans laquelle le réseau pondère les différents intrants lors de la prise de décisions, afin qu'ils répondent aux normes éthiques et ne fassent pas de discrimination sur la base de l'origine ou du sexe, par exemple. Un autre danger qu'il faut prévenir, surtout sur les marchés, est la cascade d'interactions entre les algorithmes, comme lors du "flash crash" (plusieurs chutes de prix brutales) à Wall Street en 2010. En outre, les systèmes d'IA sont vulnérables aux "exemples contradictoires", des interventions manipulatrices utilisant des images ou des objets physiques qui confondent délibérément l'IA. Par exemple, des chercheurs du Massachusetts Institute of Technology ont imprimé en 3D une tortue en plastique que l'IA de reconnaissance d'objets de Google a systématiquement classée comme une arme à feu. Une autre équipe de recherche américaine a utilisé des véhicules (semi-)autonomes avec des autocollants discrets pour classer un panneau d'arrêt comme panneau de limitation de vitesse.
Conclusion
L'IA est une technologie d'usage général et fait également de plus en plus d'incursions dans le domaine de la gestion des risques. Par exemple, la pratique de l'analyse et de la surveillance des risques continue d'évoluer avec les progrès de la vision artificielle et de l'informatique linguistique. Cependant, il ne faut pas surestimer les systèmes d'IA actuels. Par exemple, il est souvent difficile de prévoir les événements extrêmes à l'aide de l'IA en raison d'un manque de données sur la formation. Le développement rapide et pas toujours linéaire de l'IA rend difficile l'estimation réaliste des capacités futures de l'IA, et il n'y a pas de consensus entre les experts sur le délai dans lequel une "IA forte" pourrait devenir une réalité. L'IA est une statistique avancée, elle n'est pas intrinsèquement neutre et ne possède pas actuellement une compréhension des concepts semblable à celle de l'homme. Les acteurs publics et privés doivent investir en priorité dans la formation et les compétences de leurs employés afin qu'ils puissent former, utiliser et évaluer correctement les outils d'IA. Enfin, le potentiel de transformation des systèmes d'IA dans de nombreux domaines signifie également que les décideurs politiques doivent leur accorder une plus grande attention. Par exemple, en février, la nouvelle Commission européenne a présenté son livre blanc sur l'IA, qui envisage l'élaboration d'exigences juridiquement contraignantes pour les applications à haut risque telles que les décisions médicales ou l'identification biométrique. En Suisse, le groupe de travail interdépartemental sur l'IA a présenté son rapport en décembre. Ce rapport considère que la législation actuelle est suffisante, mais souligne la nécessité d'une clarification dans les domaines du droit international, de la formation de l'opinion publique et de l'administration.