La gestione aperta della GenAI porta a un'IA meno "ombra".
Le aziende vedono nell'intelligenza artificiale una grande opportunità per aumentare le loro prestazioni economiche e rivoluzionare il lavoro dei loro dipendenti, ad esempio rendendoli più produttivi o risparmiando tempo perché possono trovare le informazioni più rapidamente. Tuttavia, questi vantaggi possono essere realizzati solo attraverso una strategia di intelligenza artificiale coordinata in tutta l'azienda.
71 % di dipendenti stavano già utilizzando strumenti di IA prima che i loro superiori ne venissero a conoscenza. L'uso non autorizzato di tecnologie di IA che possono accedere a dati aziendali potenzialmente sensibili è chiamato "IA ombra". L'IA ombra descrive l'uso di prodotti di IA generativa senza la supervisione dell'IT, utilizzando account personali non protetti che non prevedono i controlli di sicurezza o gli accordi sui dati che si applicherebbero a un account aziendale. Senza una strategia completa e la formazione dei dipendenti, una situazione del genere può esporre l'organizzazione a rischi significativi.
Non lasciare nessuno indietro con l'introduzione dell'IA
Uno dei problemi principali dell'IA ombra da parte dei singoli utenti è l'uso inappropriato e non conforme a causa della mancanza di linee guida aziendali standardizzate. Questo approccio frammentato e individualizzato all'introduzione dell'IA generativa (Genai) contribuisce a dividere l'azienda: Da un lato ci sono i dipendenti che utilizzano le ultime tecnologie senza condividerle con i colleghi, dall'altro i non utilizzatori riluttanti che rimangono indietro rispetto ai colleghi presumibilmente più avanzati. In assenza di una strategia olistica e di una formazione per i dipendenti su come utilizzare questi nuovi strumenti, coloro che sperimentano individualmente possono essere frustrati perché non riescono a ottenere intuizioni utili o risultati accurati. Inoltre, queste prime esperienze negative comportano il rischio che i dipendenti abbandonino del tutto gli strumenti di IA.
L'uso non autorizzato mette a rischio i dati sensibili
Una corrente Studio di Veritas ha rilevato che il 31 % degli intervistati ha ammesso di aver condiviso informazioni potenzialmente sensibili con strumenti di IA generativa. Gli account aziendali per i prodotti di IA hanno in genere accordi per garantire che i dati aziendali non vengano utilizzati per addestrare i modelli di IA. Tuttavia, gli account personali, spesso utilizzati per l'IA ombra, di solito non hanno questi accordi. Ciò significa che qualsiasi dato aziendale condiviso tramite un account personale potrebbe essere inavvertitamente utilizzato per addestrare il modello di IA.
La sicurezza dei dati aziendali deve quindi essere sempre una preoccupazione primaria. Inoltre, possono verificarsi gravi conseguenze se i dipendenti utilizzano questi potenti strumenti senza una guida o un proprio giudizio. Gli strumenti di intelligenza artificiale sono ancora soggetti a risultati errati o imprecisi e persino ad "allucinazioni". Affidarsi a risultati errati senza metterli in discussione può portare a decisioni sbagliate e a potenziali ripercussioni legali o finanziarie per l'organizzazione.
Strategia di intelligenza artificiale che stabilisce regole ma invita anche alla sperimentazione
Per affrontare queste sfide, le aziende devono perseguire una strategia di IA coordinata. È importante che i team IT identifichino fornitori affidabili e concordino condizioni chiare per la gestione dei dati sensibili. Lavorare con fornitori che abbiano principi di IA solidi, comprese le regole per la sicurezza dei dati e la prevenzione delle violazioni dei dati, ridurrà al minimo i rischi informatici e le responsabilità legali. Per le aziende con risorse sufficienti, anche lo sviluppo di una soluzione di IA personalizzata sfruttando modelli linguistici esistenti su larga scala è un'opzione valida. Il risultato è un'IA potente che si integra perfettamente nell'ecosistema di dati e nei processi dell'organizzazione, aumentando la produttività e liberando tempo per le attività strategiche.
Per ottenere il massimo dai loro investimenti nell'IA, le aziende dovrebbero anche sviluppare un programma completo che istruisca costantemente i loro dipendenti sulle migliori pratiche per integrare l'IA nel loro lavoro quotidiano. In questo modo, tutti i dipendenti potranno sfruttare i vantaggi della tecnologia AI. In ogni team c'è un "early tech adopter" che, grazie alla sua curiosità e alla sua passione, è più avanti di altri che esitano a sperimentare. Questi dipendenti possono collaborare con i loro team IT per diventare campioni dell'IA all'interno dell'organizzazione, condividendo le conoscenze, le best practice e le intuizioni con i colleghi e promuovendo un ambiente di apprendimento collaborativo.
Combinare etica e innovazione
Nei limiti della strategia di IA dell'organizzazione, l'automazione delle attività di routine può aiutare i dipendenti ad aumentare le loro prestazioni e a risparmiare tempo per concentrarsi sul lavoro che porta il maggior valore all'azienda. Tuttavia, è importante ricordare che l'IA non deve essere utilizzata come sostituto dell'intelligenza e della verifica umana. L'IA è oggi in grado di automatizzare numerose attività e di generare grandi quantità di contenuti in pochi secondi. Ma i dipendenti devono comunque usare il proprio pensiero critico. Se non hanno letto il testo generato dall'IA o non hanno considerato il problema che stanno cercando di risolvere, creeranno solo problemi maggiori in futuro. Pertanto, nonostante l'euforia per l'IA, le aziende devono continuare a pensare all'impatto etico e sociale a lungo termine dell'IA sulla forza lavoro, assicurandosi che l'IA integri le capacità umane in modo equilibrato.
Autore:
Christopher (Chris) Noon è direttore e responsabile globale della divisione Commercial Intelligence & Analytics (CIA) di Dropbox. In quanto tale, guida le iniziative di data science dell'azienda. Il suo team sviluppa strumenti per visualizzare il coinvolgimento dei clienti e identificare le tendenze. Prima della sua carriera in Dropbox, Chris Noon è stato docente di storia antica e archeologia all'Università di Oxford. È passato dal mondo accademico all'industria tecnologica con l'obiettivo di utilizzare la sua esperienza per colmare il divario tra tecnologia e istruzione. Per questi sforzi è stato insignito della Fellowship della Royal Society of Art.