Certificazione e garanzia dell'IA dal punto di vista dell'azienda
L'uso dell'intelligenza artificiale (IA) in ambito privato e professionale è in continuo aumento. Allo stesso tempo, a livello europeo si stanno discutendo le normative per la certificazione e la protezione dell'IA. Gli Istituti Fraunhofer IAO e IPA hanno quindi analizzato le attuali misure normative e riassunto i requisiti e le esigenze delle aziende in un nuovo libro bianco.
Negli ultimi anni, l'importanza dell'intelligenza artificiale (IA) è aumentata notevolmente sia nella vita privata che in quella professionale. L'IA ha il potenziale per trasformare numerosi settori e aree della nostra società, migliorando l'efficienza e la qualità in vari casi d'uso. Tuttavia, vi sono anche rischi e incertezze significativi associati all'uso dell'IA, come errori algoritmici, rischi di responsabilità, discriminazione e violazione dei dati. Se i sistemi basati sull'IA non vengono sviluppati, gestiti e testati secondo standard di sicurezza uniformi, possono compromettere la sicurezza di prodotti e servizi.
Per contrastare queste sfide, nel 2021 l'Unione Europea (UE) ha presentato un progetto di legge per l'EU AI Act, che mira a regolamentare l'IA. Nel giugno 2023, la Commissione e il Parlamento dell'UE sono riusciti a concordare una proposta e stanno attualmente negoziando la sua attuazione con gli Stati membri dell'UE. In quanto fattore importante per la certificazione e la garanzia dell'IA, la legge sull'IA è anche di importanza centrale per l'Innovation Park Artificial Intelligence, che sta costruendo il più grande ecosistema europeo per lo sviluppo dell'IA. "Nel nostro ecosistema Ipai, vogliamo promuovere applicazioni di IA che non siano solo innovative ed efficienti, ma anche sicure ed eticamente responsabili. Una comprensione pratica degli standard UE dell'AI Act per la salvaguardia dell'IA aiuta noi e le nostre aziende associate a prendere tutte le precauzioni necessarie", sottolinea Moritz Gräter, CEO di Ipai.
In vista dell'imminente legge europea sull'IA, l'Istituto Fraunhofer per l'ingegneria industriale IAO e l'Istituto Fraunhofer per l'ingegneria manifatturiera e l'automazione IPA hanno quindi esaminato la prospettiva delle aziende. Il team di ricerca ha registrato lo stato attuale delle normative legali sulla protezione dell'IA. Sulla base dei risultati delle interviste con gli esperti, il team ha anche formulato i requisiti da parte delle aziende, degli istituti di ricerca e di istruzione per l'implementazione dei processi di salvaguardia e certificazione dei sistemi di IA.
La mancanza di requisiti per la protezione dell'AI come fattore di incertezza per Azienda
Secondo l'attuale bozza di legge sull'IA dell'UE, le applicazioni di IA devono essere classificate in diversi livelli di rischio e soggette a diversi requisiti. Gli operatori di applicazioni di IA ad alto rischio saranno obbligati a verificare la loro conformità a questi requisiti in un'autovalutazione e potranno quindi utilizzare il sigillo CE come certificato.
Sebbene questi requisiti rendano molto chiaro come dovrebbe essere l'utilizzo dell'IA in conformità con la legge europea sull'IA, attualmente non è ancora chiaro come questo possa essere raggiunto. Attualmente mancano misure concrete per la verifica dei requisiti. "Le aziende hanno difficoltà, ad esempio, a valutare in quali circostanze la loro applicazione dell'IA sia sufficientemente trasparente o quale sia il tasso di errore tollerabile", spiega Janika Kutz, team leader del Centro di ricerca e innovazione sui sistemi cognitivi dell'IAO Fraunhofer KODIS. Si teme inoltre che l'impegno richiesto per la certificazione sia superiore alle risorse delle start-up e delle piccole e medie imprese in particolare. Si teme che siano necessarie competenze legali per implementare correttamente i requisiti e che la conformità aumenti i tempi e i costi di sviluppo, cosicché le aziende europee non saranno in grado di tenere il passo con i concorrenti internazionali.
Le aziende formulano requisiti chiari per la certificazione AI
Un risultato importante delle interviste è che la certificazione deve essere fattibile per le aziende di tutte le dimensioni. Garantire e certificare ogni caso d'uso è costoso e richiede molte risorse, motivo per cui le aziende hanno requisiti chiari per le normative sulla sicurezza dell'IA. Fattori come la trasparenza e la fattibilità dei processi di certificazione, la chiarezza dei ruoli delle autorità e delle istituzioni e la conservazione della capacità innovativa sono particolarmente importanti. "Le aziende intervistate concordano sul fatto che la certificazione dell'IA dovrebbe sempre concentrarsi sul valore aggiunto per gli utenti finali", afferma il Prof. Dr. Marco Huber, responsabile del dipartimento Cyber Cognitive Intelligence del Fraunhofer IPA, riassumendo i risultati delle interviste.
I servizi di supporto esterno alle aziende sono molto richiesti
In base alle dichiarazioni degli intervistati, la maggior parte delle aziende non sembra essere sufficientemente preparata per i prossimi regolamenti della legge europea sull'IA. Le aziende possono trarre vantaggio dal trasferimento di informazioni, conoscenze e networking e sono interessate a servizi di consulenza personalizzati, nonché a metodi e strumenti pratici per supportare la salvaguardia e la certificazione dei sistemi basati sull'IA. Il dialogo continuo tra le autorità di regolamentazione, l'industria, gli istituti di ricerca e il pubblico in generale contribuirà a sviluppare una comprensione completa delle opportunità e delle sfide dell'uso dell'IA. Ciò porterà allo sviluppo di sistemi di IA più efficaci, più sicuri e più orientati alla pratica.
Fonte: www.ipa.fraunhofer.de