Commento: Perché gli ingegneri hanno bisogno di un'intelligenza artificiale spiegabile

Johanna Pingel, Product Marketing Manager di MathWorks, azienda che sviluppa software per i calcoli matematici, spiega quali sono i metodi che rendono l'IA spiegabile e cosa serve per far crescere la fiducia nei modelli di IA.

Per molti l'IA è ancora una "scatola nera". Pertanto, sono necessari metodi per un'IA spiegabile. (Immagine: Pixabay.com)

I responsabili delle decisioni nelle aziende di tutti i settori si affidano sempre più all'IA per rimanere competitivi oggi e in futuro. Ma c'è ancora diffidenza nei confronti di un'IA "scatola nera" i cui modelli e percorsi di soluzione spesso non sono più comprensibili per noi umani. Questo diventa una sfida quando gli ingegneri devono spiegare il funzionamento dei loro modelli, ad esempio quando il modello è soggetto a determinate normative o quando si devono convincere i potenziali acquirenti. 

Che cos'è la spiegabilità dell'IA? 

È qui che entra in gioco l'IA spiegabile. Si tratta di un insieme di strumenti e metodi che possono aiutare a comprendere le decisioni dei modelli di IA e a individuare e risolvere eventuali problemi con i modelli black-box, come la distorsione o la suscettibilità alla manipolazione. La spiegabilità è essenziale quando gli ingegneri devono dimostrare che un modello soddisfa determinati standard o norme ISO. Ma si tratta anche di aumentare la fiducia nei modelli di IA in generale.  

La spiegabilità può aiutare gli utenti dell'IA a capire come i modelli di apprendimento automatico arrivano alle previsioni. Ad esempio, possono tracciare quali parametri influenzano le decisioni di un modello di intelligenza artificiale e come si presenta l'influenza. Ma non è facile, soprattutto con modelli complessi. 

Complessità vs. spiegabilità 

Quindi la domanda è: perché non usiamo modelli di IA più semplici? I modelli non sono sempre stati complessi. Un esempio semplice è quello di un termostato che controlla la temperatura di una stanza. Se la temperatura dell'ambiente scende al di sotto di un certo valore predefinito, il riscaldamento si accende; se sale al di sopra di questo valore, il riscaldamento si spegne di nuovo. Ma che dire di parametri come l'ora del giorno, l'uso dell'ufficio, i prezzi dell'elettricità o le previsioni del tempo? Quanto deve essere impostato il riscaldamento per essere davvero efficiente e sostenibile? Così come il moderno controllo della temperatura negli edifici tiene conto di molti più parametri, in molti settori si sono affermati modelli molto più dettagliati e quindi più complessi.  

Questi modelli complessi hanno il vantaggio di fare previsioni più accurate. Ciò significa che è possibile effettuare analisi più accurate, che in alcuni casi forniscono anche una risposta più rapida alle domande poste. Inoltre, gli ingegneri lavorano con dati sempre più complessi, come segnali e immagini in streaming, che possono essere elaborati direttamente dai modelli di intelligenza artificiale. In questo modo si può risparmiare tempo prezioso nella creazione dei modelli.  

Anche se la complessità porta tutti questi cambiamenti positivi, sta diventando sempre più una sfida il fatto che i modelli non sono più compresi. Gli ingegneri devono quindi sviluppare nuovi approcci per comprendere meglio anche i modelli complessi ed essere in grado di comprendere i calcoli.  

Metodi per un'IA spiegabile 

L'utilizzo di modelli spiegabili può fornire preziose informazioni senza aggiungere ulteriori fasi al flusso di lavoro. Ad esempio, nel caso degli alberi decisionali o dei modelli lineari, il processo decisionale può comprendere immediatamente quali proprietà influenzano un modello e come. 

Per poter comprendere l'influenza di determinate caratteristiche sulla decisione, esistono alcuni metodi. Attraverso il sito "Classifica delle caratteristiche"Nella prima fase, si acquisisce chiarezza su quali caratteristiche hanno la maggiore influenza su una decisione. Successivamente, si deve verificare se l'influenza di una caratteristica cambia quando assume valori diversi. 

Un altro metodo è il LIME (Local Interpretable Model-Agnostic Explanations). In questo caso, si cerca di approssimare un sistema complesso e inspiegabile in prossimità di un particolare punto di dati creando un modello fratello meno complesso e spiegabile che ottenga risultati simili. In questo modo, è possibile scoprire quali predittori influenzano maggiormente la decisione. 

Ma come si fa a scoprire le dipendenze non lineari tra i dati di input? A questo scopo gli ingegneri possono utilizzare i "valori di Shapley". Possono essere utilizzati per stimare come i dati di ingresso di un modello di apprendimento automatico influenzino i risultati. 

Quando si creano modelli per applicazioni di elaborazione delle immagini o di visione artificiale, le visualizzazioni sono tra i modi migliori per valutare la spiegabilità dei modelli. Ad esempio, metodi come il CAM e la "sensibilità all'occlusione" possono identificare i punti delle immagini e del testo che influenzano maggiormente la decisione del modello. 

L'intelligenza artificiale oltre la spiegabilità 

Per utilizzare con successo l'IA spiegabile, ingegneri e scienziati devono essere consapevoli delle sfide che essa comporta. Trovare un equilibrio tra spiegabilità, complessità, influenza dei dati di input e fiducia nei modelli non è facile. Inoltre, deve essere chiaro che spiegare una scatola nera e quindi ottenere la fiducia dei decisori o degli organi di controllo è solo una tappa del percorso verso l'uso sicuro dell'IA.  

L'uso dell'IA nella pratica richiede modelli che possano essere compresi. Devono essere stati creati secondo una procedura comprensibile e devono essere in grado di lavorare a un livello necessario per applicazioni sensibili e critiche per la sicurezza. È qui che gli esperti si affidano alla verifica e alla convalida. In questo modo, possono garantire che un modello utilizzato in applicazioni critiche per la sicurezza soddisfi gli standard minimi. Oppure definiscono certificazioni di sicurezza per settori come quello automobilistico o aerospaziale. Gli ingegneri hanno a disposizione molti strumenti e opzioni per aumentare la fiducia nell'IA. Non dovrebbero fermarsi alla spiegabilità. 

Conclusione: l'IA spiegabile come ingranaggio di un sistema complessivo 

Senza dubbio, in futuro l'IA sarà fortemente incentrata sulla spiegabilità. Più l'IA viene integrata in applicazioni quotidiane e critiche per la sicurezza, più la spiegabilità sarà considerata un attributo indispensabile dei modelli di IA. E tutti ne traggono vantaggio: gli ingegneri hanno informazioni migliori sui loro modelli e possono trovare e correggere gli errori più rapidamente. Possono spiegare in modo comprensibile come i modelli soddisfano determinati standard, e questa maggiore trasparenza dà fiducia sia ai decisori che ai potenziali clienti.  

Tuttavia, gli ingegneri, gli esperti di materia e i decisori aziendali non devono dimenticare che la spiegabilità è solo un ingranaggio di un grande orologio e deve essere utilizzata mano nella mano - dente per dente - con altri importanti metodi, strumenti e regolamenti. 

Fonte e ulteriori informazioni: https://ch.mathworks.com/de/

(Visitato 377 volte, 1 visita oggi)

Altri articoli sull'argomento