Sicuri nel futuro con ISO 27001 e ISO 20000

Al "15th Information Security Symposium in Vienna", tutto ruotava intorno a ISO 27001 e ISO 20000. Gli organizzatori erano le organizzazioni di certificazione CIS e Quality Austria, che quest'anno hanno messo il simposio sotto il motto: "Intelligenza artificiale tra uomo e macchina - in modo sicuro nel futuro con ISO 27001 e ISO 20000".

Molte questioni riguardano attualmente i manager che presto dovranno affrontare l'intelligenza artificiale, il dominio degli algoritmi. (Copyright dell'immagine: Adobe stock Halfpoint)

Quelli tra gli oltre 200 partecipanti professionali sul tema "Securely into the future with ISO 27001 and ISO 20000" che si aspettavano un divertente keynote futuristico, sono stati riportati a terra sui fatti emergenti! Roland Benedikter ha collegato i punti di vista interdisciplinari sulla tecnologia, la sociologia e gli sviluppi globali e ha avvertito chiaramente: "L'IA promuove la governance autoritaria a causa della sua logica intrinseca, perché permette percorsi molto veloci e diretti alle intuizioni e alle decisioni"

AI in regimi autoritari

"Mentre l'UE prevede di investire circa 9,5 miliardi di euro in progetti di ricerca sull'IA nei prossimi anni, l'investimento ufficiale della Cina sull'IA nello stesso periodo è di 150 miliardi di euro, con gli esperti che suggeriscono una somma molto più alta come valore reale", sottolinea Benedikter.

Vede anche una tendenza dalle attuali guerre commerciali tramite embarghi e sanzioni tra Asia, America ed Europa alle future guerre tecnologiche come un nuovo mezzo di posizionamento geopolitico - l'IA potrebbe riordinare i legami politici tra le potenze mondiali.

fusione uomo-macchina

Il ricercatore ha ammesso che gli scenari anti-democratici possono sembrare inverosimili, ma ha citato una serie di esempi attuali e reali: per esempio, le telecamere di sorveglianza nelle scuole della Cina, che sono previste come progetto pilota per poter identificare i potenziali critici del regime in una fase iniziale. La faccia, i gesti e i movimenti del corpo degli studenti sono valutati da algoritmi intelligenti, con conseguenze corrispondenti per le "persone cospicue".

Lo sviluppo di robot umanoidi, interfacce cervello-macchina e impianti intelligenti avviene oggi sotto l'aspetto di fornire assistenza a persone con disabilità o malattie incurabili. Tuttavia, Roland Benedikter ha sottolineato che si presta poca attenzione alle conseguenze per la conseguente trasformazione della condizione umana: "L'industria globale del corpo è un mercato gigantesco. Collegandosi o addirittura fondendosi con l'IA, gli umani dovrebbero essere in grado di crescere oltre se stessi".

Hacking dei pensieri e delle funzioni del corpo

Più gli esseri umani e la tecnologia si fondono, più i problemi di sicurezza diventano esplosivi. "In caso di hacking o errori di sistema, non è solo una macchina che può essere colpita in futuro, ma anche un essere umano, le sue funzioni corporee o addirittura i suoi pensieri", ha sottolineato l'amministratore delegato del CIS Erich Scheiber. Nel complesso, il programma di lezioni ha spaziato dall'arco ai sistemi di gestione IT-affini secondo ISO 27001 per la sicurezza delle informazioni e ISO 20000 per la gestione dei servizi IT. "I sistemi di gestione controllabili permettono di mappare i fattori volatili delle persone e della tecnologia in modo integrato in un sistema di sicurezza - i rischi possono così essere continuamente valutati e minimizzati", ha spiegato Erich Scheiber.

Il CEO di Quality Austria Konrad Scheiber ha affermato: "Anche i nostri processi di creazione di valore stanno diventando sempre più digitali e in rete. La sicurezza informatica diventerà ancora più importante in futuro.

Persone robot con diritti umani

Come meta-tendenza, gli esperti stimano che tra circa 80 anni ci saranno tante "persone robot" quanti sono gli umani. Benedikter ha indicato questioni legali già irrisolte come i "diritti umani" per le e-persone intelligenti. Dopo tutto, il robot umanoide AI Sophia ha già ottenuto la cittadinanza in Arabia Saudita.

"Gli stessi sviluppatori sono scioccati dalla velocità con cui si sta sviluppando", ha riferito Benedikter, concludendo con una dichiarazione estremamente seria: "Il professore di Oxford Nick Bostrom e altri leader di pensiero vedono un pericolo intrinseco che può essere evitato solo attraverso la cooperazione globale interdisciplinare: le intelligenze artificiali potrebbero evolvere in super-intelligenze e, in ultima analisi, potrebbero rivoltarsi contro gli umani. Perché con un'intelligenza sempre più simile a quella umana, potrebbe emergere una sorta di apprendimento e quindi anche di memoria e coscienza anticipata delle macchine. Potrebbero capire chi solo può staccare la spina: gli umani". Tutte queste sfide possono essere affrontate solo in modo inter- e transdisciplinare, ha detto. A tal fine, i governi, la società civile e la scienza dovrebbero cooperare molto più intensamente di prima.

IT-savvy ISO-Standard di gestione a colpo d'occhio: https://at.cis-cert.com/Systemzertifizierung/Ueberblick-ISO-27001-e-ISO-20000.aspx

(Visitato 163 volte, 1 visita oggi)

Altri articoli sull'argomento