Une approche ouverte de la GenAI entraîne une diminution de l'IA fantôme
Les entreprises voient dans l'intelligence artificielle une grande opportunité d'augmenter leur performance économique et de révolutionner le travail de leurs collaborateurs, par exemple en les rendant plus productifs ou en leur faisant gagner du temps en leur permettant de trouver des informations plus rapidement. Ces avantages ne peuvent toutefois se concrétiser qu'à travers une stratégie d'IA coordonnée dans toute l'entreprise.
71 % des travailleurs utilisent déjà des outils d'IA avant que leurs supérieurs ne le sachent. Cette utilisation non autorisée d'une technologie d'IA qui peut accéder à des données d'entreprise potentiellement sensibles est appelée "Shadow IA". L'IA fantôme décrit l'utilisation de produits d'IA générative sans la supervision du service informatique, en utilisant des comptes personnels non protégés qui ne présentent pas les contrôles de sécurité ou les accords de données qui s'appliqueraient à un compte d'entreprise. En l'absence d'une stratégie globale et d'une formation des employés, une telle situation peut exposer l'entreprise à des risques considérables.
Ne laisser personne de côté lors de l'introduction de l'IA
L'un des principaux problèmes de l'IA fantôme par des utilisateurs isolés est son utilisation inappropriée et non conforme en raison de l'absence de politiques d'entreprise uniformes. Cette approche fragmentée et individualisée de l'introduction de l'IA générative (GenAI) contribue à diviser l'entreprise : D'un côté, il y a les collaborateurs qui utilisent la technologie la plus récente sans en parler avec leurs collègues, et de l'autre, les non-utilisateurs hésitants qui restent à la traîne derrière leurs collègues supposés plus avancés. En l'absence d'une stratégie globale et d'une formation des collaborateurs à l'utilisation de ces nouveaux outils, ceux qui expérimentent sur une base individuelle peuvent se sentir frustrés de ne pas être en mesure d'obtenir des connaissances utiles ou des résultats précis. En outre, ces premières expériences négatives comportent le risque que les collaborateurs abandonnent complètement les outils d'IA.
L'utilisation non autorisée met en danger les données sensibles
Une récente Étude de Veritas a révélé que 31 % des personnes interrogées ont admis partager des informations potentiellement sensibles avec des outils d'IA générative. Les comptes professionnels pour les produits d'IA contiennent généralement des accords garantissant que les données de l'entreprise ne sont pas utilisées pour entraîner des modèles d'IA. Cependant, les comptes personnels, qui sont souvent utilisés dans l'IA fantôme, ne disposent généralement pas de ces accords. Cela signifie que toutes les données d'entreprise partagées via un compte personnel pourraient être utilisées par inadvertance pour entraîner le modèle d'IA.
La sécurisation des données de l'entreprise devrait donc toujours être une préoccupation majeure. En outre, de graves conséquences peuvent survenir si les collaborateurs utilisent ces puissants outils sans être guidés ou sans faire preuve de leur propre jugement. Les outils d'IA sont toujours susceptibles de produire des résultats erronés ou imprécis, voire de provoquer des "hallucinations". En effet, se fier à des résultats erronés sans les remettre en question peut conduire à des décisions erronées et à des conséquences juridiques ou financières potentielles pour l'entreprise.
Une stratégie d'IA qui fixe des règles, mais qui invite aussi à l'expérimentation
Pour relever ces défis, les entreprises devraient adopter une stratégie d'IA coordonnée. Il est important que les équipes informatiques identifient des fournisseurs de confiance et conviennent de conditions claires pour le traitement des données sensibles. Travailler avec des fournisseurs qui ont des principes d'IA solides, y compris des règles pour la sécurité des données et la prévention des violations de données, minimisera les cyber-risques et les obligations légales. Pour les entreprises qui disposent de ressources suffisantes, le développement d'une solution d'IA sur mesure en utilisant les grands modèles linguistiques existants est également une option viable. Il en résulte une IA puissante qui s'intègre parfaitement dans l'écosystème de données et les processus de l'entreprise, augmente la productivité et libère du temps pour les tâches stratégiques.
Pour tirer le meilleur parti de leurs investissements dans l'IA, les entreprises devraient également élaborer un programme complet pour informer en permanence leurs collaborateurs des meilleures pratiques en matière d'intégration de l'IA dans leur travail quotidien. Cela permet de s'assurer que tous les collaborateurs peuvent profiter des avantages de la technologie de l'IA. Dans chaque équipe, il y a un "early tech adopter" qui, par sa curiosité et sa passion, devance les autres qui sont plus hésitants à expérimenter. En collaboration avec leurs équipes informatiques, ces collaborateurs peuvent devenir des champions de l'IA au sein de l'entreprise, partager des connaissances, des bonnes pratiques et des idées avec leurs collègues et promouvoir un environnement d'apprentissage collaboratif.
Combiner éthique et innovation
Dans les limites de la stratégie d'IA de l'entreprise, l'automatisation des tâches de routine permet aux collaborateurs d'améliorer leurs performances et de gagner du temps afin de se concentrer sur le travail qui apporte le plus de valeur à l'entreprise. Il est toutefois important de se rappeler que l'IA ne doit pas être utilisée pour remplacer l'intelligence et la vérification humaines. L'IA est aujourd'hui en mesure d'automatiser de nombreuses tâches et de générer de grandes quantités de contenu en quelques secondes. Mais les collaborateurs doivent toujours faire preuve de leur propre esprit critique. En effet, s'ils n'ont pas vraiment lu le texte généré par l'IA ou s'ils n'ont pas vraiment réfléchi au problème qu'ils tentent de résoudre, ils ne feront que créer de plus gros problèmes à l'avenir. C'est pourquoi, malgré l'euphorie de l'IA, les entreprises doivent toujours réfléchir à l'impact éthique et social à long terme de l'IA sur leur personnel, tout en veillant à ce que l'IA complète les compétences humaines de manière équilibrée.
Auteur :
Christopher (Chris) Noon est directeur et responsable mondial de la division Commercial Intelligence & Analytics (CIA) chez Dropbox. En tant que tel, il dirige les initiatives de science des données de l'entreprise. Son équipe développe des outils permettant de visualiser l'engagement des clients et d'identifier les tendances. Avant sa carrière chez Dropbox, Chris Noon enseignait l'histoire ancienne et l'archéologie à l'université d'Oxford. Il est passé du monde académique au secteur technologique dans le but d'utiliser son expertise pour combler le fossé entre la technologie et l'éducation. Ces efforts lui ont valu une bourse de la Royal Society of Art.