Il potenziale dell'IA nella gestione del rischio

Lo sviluppo dell'intelligenza artificiale (AI) procede a grande velocità. Negli ultimi anni sono state raggiunte numerose scoperte, in particolare nelle aree della visione artificiale, dell'elaborazione dei dati linguistici e dei giochi di strategia. In definitiva, l'IA è una tecnologia onnifunzionale che ha il potenziale di cambiare praticamente tutti i settori della vita. L'uso dell'IA offre anche una vasta gamma di opportunità nella gestione del rischio.

 

L'attuale boom dell'IA, iniziato ben cinque anni fa, è dovuto principalmente a tre sviluppi: primo, potenza di calcolo più economica; secondo, set di dati più grandi; e terzo, algoritmi di apprendimento profondo che utilizzano un numero enorme di strati intermedi tra i dati di input e i risultati. Questo ha portato a significativi progressi nella visione artificiale (ad esempio, prestazioni sovrumane nel riconoscimento degli oggetti e nella classificazione dei tumori della pelle), nell'informatica linguistica (ad esempio, parità umana nel riconoscimento vocale, nella traduzione inglese-cinese e nel test di comprensione del testo GLUE) e nei giochi di strategia (ad esempio, prestazioni sovrumane in Go, poker e Dota 2), tra gli altri.

C'è da aspettarsi che l'IA come tecnologia omnifunzionale cambierà notevolmente, se non rivoluzionerà, numerosi settori economici e aree politiche nei prossimi anni. Questo perché l'IA ha una vasta gamma di complementarità innovative, come i veicoli autonomi, i veicoli aerei senza equipaggio o i robot industriali, e quindi un notevole potenziale di applicazione in tutte le principali industrie. La seguente sezione delinea alcune delle principali opportunità e sfide che sorgono per la gestione del rischio man mano che le applicazioni AI diventano più pervasive.

Quali opportunità nella gestione del rischio?

Nei prossimi anni, possiamo aspettarci di vedere l'uso di applicazioni AI in tutte le fasi della gestione del rischio, dalla prevenzione del rischio alla gestione delle crisi. Così, l'IA può già dare un contributo importante nella prevenzione e nell'evitamento dei pericoli. Tra le altre cose, il machine learning può essere utilizzato nella protezione delle infrastrutture critiche per la manutenzione predittiva, l'ispezione e il rilevamento visivo dei danni alle infrastrutture.

Per esempio, l'apprendimento automatico è stato utilizzato per prevedere quali tubi dell'acqua a Sydney sono ad alto rischio di guasto, o dove nelle città degli Stati Uniti le ispezioni edilizie hanno più probabilità di essere utili. Allo stesso modo, l'apprendimento automatico è stato utilizzato in vari studi per rilevare e quantificare la corrosione o le piccole crepe nelle strutture in calcestruzzo o in acciaio. Questo processo potrebbe presto essere utilizzato nell'ispezione di centrali nucleari, strade, ponti o edifici.

L'AI promette anche processi più precisi e, soprattutto, più veloci nelle aree dell'analisi dei rischi e del rilevamento precoce. Poiché l'analisi dei rischi guidata da esperti, come prevale oggi, è molto dispendiosa in termini di risorse, di solito può essere effettuata solo a intervalli più lunghi. Qui, l'IA supporta uno spostamento dall'analisi del rischio soggettiva e guidata da esperti verso un processo basato sulle macchine. Da un lato, tali approcci sono utilizzati nella modellazione di sfide complesse e a lungo termine come il cambiamento climatico. D'altra parte, l'apprendimento automatico e i dati meteorologici possono essere utilizzati, per esempio, per aggiornare i modelli di previsione delle inondazioni o delle frane su base giornaliera, oraria o anche in tempo reale per ottimizzare i sistemi di allarme rapido. "I sistemi di AI dipendono fortemente dalla qualità e dalla quantità dei dati".

Da usare anche per la sicurezza informatica

I progressi nella visione artificiale supportano la consapevolezza situazionale e la sorveglianza delle infrastrutture critiche in particolare. Tra le altre cose, i sistemi di sicurezza intelligenti permettono il riconoscimento di caratteristiche biometriche, emozioni, azioni umane e comportamenti atipici in una zona di sorveglianza. Permettono anche di cercare automaticamente oggetti o persone in un dato periodo di tempo in base a caratteristiche specifiche come la dimensione, il sesso o il colore dei vestiti. Allo stesso modo, il machine learning può anche essere utilizzato per rilevare anomalie e intrusioni nella cybersecurity. Ultimo ma non meno importante, l'AI può anche supportare la gestione delle crisi. Per esempio, utilizzando l'apprendimento automatico per estrarre automaticamente l'estensione dei danni locali e le esigenze di supporto dai post sui social media. Il successo dell'IA nei giochi di strategia è un'indicazione che potrebbe essere utilizzata in futuro per sostenere il processo decisionale nella gestione delle crisi. A lungo termine, c'è anche un potenziale futuro nel campo dell'ingegneria della resilienza. Di conseguenza, l'IA potrebbe essere usata, per esempio, in importanti sistemi infrastrutturali per costruire un'adattabilità generica e quindi aiutarli ad adattarsi alle mutevoli condizioni ambientali.

Rischi e sfide

Anche se l'IA è un campo estremamente dinamico e si ripongono spesso aspettative molto alte in questa tecnologia, certi limiti rimarranno nella sua applicazione per il prossimo futuro. I sistemi di IA sono fortemente dipendenti dalla qualità e dalla quantità dei dati. Le distorsioni presenti nei dati di allenamento si riflettono successivamente nell'inferenza. Allo stesso modo, anche se i sistemi AI catturano correlazioni statistiche da enormi quantità di dati, non hanno ancora una comprensione delle relazioni causali. Dove non ci sono dati o sono molto scarsi, come nei rischi tecnologici emergenti e futuri, l'AI attuale non può eguagliare la competenza umana.

Inoltre, l'uso diffuso dei sistemi AI comporta anche nuovi rischi, soprattutto quando gli algoritmi supportano o prendono decisioni epocali, come nella medicina, nei trasporti, nei mercati finanziari o nelle infrastrutture critiche. In questi casi, si deve garantire, tra l'altro, il rispetto dei criteri di equità, accuratezza e robustezza. Per esempio, controllando la misura in cui la rete pondera i diversi input quando prende le decisioni in modo che rispettino gli standard etici e non discriminino sulla base dell'origine o del sesso, per esempio. Un altro pericolo da prevenire, soprattutto nei mercati, sono le interazioni a cascata tra algoritmi, come nel "flash crash" (diversi bruschi cali di prezzo) a Wall Street nel 2010. Inoltre, i sistemi AI sono vulnerabili ai cosiddetti "esempi avversari", interventi manipolativi che utilizzano immagini o oggetti fisici che confondono deliberatamente l'AI. Per esempio, i ricercatori del Massachusetts Institute of Technology hanno stampato in 3D una tartaruga di plastica che l'IA di riconoscimento degli oggetti di Google ha costantemente classificato come un'arma da fuoco. Un altro team di ricerca americano ha utilizzato veicoli (semi)autonomi con adesivi poco appariscenti per classificare un segnale di stop come un segnale di limite di velocità.

Conclusione

L'IA è una tecnologia di uso generale e sta facendo sempre più breccia anche nel campo della gestione del rischio. Per esempio, la pratica dell'analisi e del monitoraggio dei rischi continua a cambiare con i progressi della visione artificiale e del calcolo linguistico. Allo stesso tempo, però, i sistemi AI di oggi non dovrebbero essere sopravvalutati. Per esempio, la previsione di eventi estremi usando l'IA è spesso difficile a causa della mancanza di dati di allenamento. Lo sviluppo rapido e non sempre lineare dell'IA rende difficile stimare realisticamente le capacità future dell'IA, e non c'è consenso tra gli esperti sul periodo di tempo in cui la "IA forte" potrebbe diventare una realtà. L'IA è una statistica avanzata, non è intrinsecamente neutra, né possiede attualmente una comprensione dei concetti simile a quella umana. Gli attori pubblici e privati dovrebbero investire prima di tutto nella formazione e nelle competenze dei loro dipendenti in modo che possano formare, usare e valutare correttamente gli strumenti di IA. Infine, il potenziale trasformativo dei sistemi di IA in molti settori significa anche che i politici devono prestare maggiore attenzione a loro. Per esempio, a febbraio la nuova Commissione UE ha presentato il suo libro bianco sull'IA, che prevede lo sviluppo di requisiti giuridicamente vincolanti per applicazioni ad alto rischio come le decisioni mediche o l'identificazione biometrica. In Svizzera, il gruppo di lavoro interdipartimentale AI ha presentato il suo rapporto a dicembre. Questo rapporto considera l'attuale legislazione sufficiente, ma sottolinea la necessità di un chiarimento nelle aree del diritto internazionale, della formazione dell'opinione pubblica e dell'amministrazione.

(Visitato 281 volte, 1 visita oggi)

Altri articoli sull'argomento