Statistiche sui sinistri di Allianz Trade: la truffa del falso residente è ancora "in voga".

I criminali dei colletti bianchi colpiscono con sempre maggiore frequenza e causano danni sempre più gravi. Sono sempre più professionali, anche grazie all'intelligenza artificiale. I criminali sono particolarmente appassionati della cosiddetta "ingegneria sociale", ossia delle truffe in cui gli autori manipolano le persone. Tuttavia, la maggior parte dei danni è ancora causata da autori interni, cioè dai dipendenti dell'azienda.

I deepfake ben fatti sono spesso difficili da identificare. (Immagine: www.depositphotos.com)

"La scomoda verità per le aziende rimane: Il punto debole sono le persone, e i loro stessi dipendenti continuano a causare la maggior parte e - almeno fino al 2023 - il maggior numero di danni. Nel 2024 la situazione potrebbe cambiare per la prima volta in termini di livello di perdite", afferma Marie-Christine Kragh. È responsabile globale della Fidelity Insurance di Allianz Trade.

Nel 2023, gli autori interni sono stati responsabili di oltre la metà (55 %) di tutti i sinistri denunciati ad Allianz Trade in Germania e di circa tre quarti del volume dei sinistri denunciati (76 %). Nel 2024, questa tendenza si è confermata in termini di numero di casi: da gennaio ad agosto 2024, gli autori nazionali hanno commesso circa 60 % dei casi denunciati. La novità del 2024, tuttavia, è che nello stesso periodo gli autori esterni sono in vantaggio in termini di danni (61 %). L'esperienza dimostra che potrebbero esserci ancora variazioni significative per l'intero anno, sia a causa di perdite importanti sia per il fatto che i reati commessi da autori interni vengono solitamente scoperti e denunciati molto più tardi rispetto ai reati commessi da autori esterni.

L'ingegneria sociale è in crescita tra i criminali dei colletti bianchi

Tra gli autori esterni vi sono anche gli "ingegneri sociali": nelle frodi di pagamento e di ordinazione, deviano i flussi di pagamento e di merci, mentre nelle frodi di falso residente si fingono presunti capi e istruiscono i dipendenti a trasferire somme di denaro su conti fraudolenti per presunte transazioni commerciali. Il numero di casi di questi reati è aumentato di 17 % nel 2023 rispetto all'anno precedente e il volume delle perdite di 19 %.

"La truffa del falso presidente è ancora in voga dopo la sorprendente ripresa di due anni fa", afferma Kragh, "Il numero di casi di questa truffa è aumentato di nuovo di quasi un terzo (+31 %) nel 2023".

Tuttavia, le perdite per caso causate dalle due società sono diminuite significativamente nel 2023. L'anno scorso il volume delle perdite si è dimezzato (-55 %). Nella maggior parte dei casi, le perdite si sono attestate su valori a sei cifre.

I falsi boss sono ancora "in voga" con perdite importanti, l'AI porta un nuovo livello di evoluzione

"I falsi boss hanno colpito molto più spesso nel 2023, ma non hanno sottratto somme di denaro altrettanto ingenti", afferma Kragh. "Tuttavia, le aziende non devono cullarsi in un senso di sicurezza, anzi. Quest'anno ci aspettiamo che il numero di casi rimanga elevato ma stabile, con un aumento dei sinistri più gravi. Riteniamo che il volume dei sinistri per le aziende sia destinato a più che raddoppiare nel 2024. Ciò indica che i truffatori stanno ulteriormente professionalizzando le loro truffe grazie agli strumenti di AI, con un approccio ancora più mirato a dipendenti e aziende."

È probabile che la nuova tecnologia faccia il gioco dei criminali dal colletto bianco quando si tratta di frodi nei pagamenti. L'ammontare delle perdite causate dalle frodi nei pagamenti è più che raddoppiato nel 2023 rispetto all'anno precedente (+59 %), soprattutto a causa delle grandi perdite. In molti casi, le fatture contraffatte sono praticamente indistinguibili dagli originali.

Secondo le stime di Allianz Trade, basate sulle statistiche dei sinistri da gennaio ad agosto 2024, ci sono segnali di una leggera attenuazione dei principali sinistri per frode nei pagamenti per tutto il 2024: Anche se il numero di casi rimarrà probabilmente elevato, la media dei sinistri dovrebbe normalizzarsi in qualche modo e il volume complessivo dei sinistri dovrebbe diminuire nel 2024 (-25 %).

Pericolo da deepfakes: clonazione vocale con un semplice tasto

Con il rapido sviluppo degli strumenti di intelligenza artificiale, è probabile che in futuro i deepfakes rappresentino una minaccia crescente per le aziende. "Qualche anno fa, la clonazione vocale era ancora una cosa per specialisti assoluti e la qualità era spesso discutibile", afferma Tom Alby, Chief Digital Transformation Officer di Allianz Trade in Germania, Austria e Svizzera. "Oggi, grazie agli strumenti di intelligenza artificiale, è praticamente disponibile 'off the shelf' con la semplice pressione di un tasto. Questo apre anche orizzonti completamente nuovi per i truffatori. Gli ostacoli sono più bassi che mai, e hanno bisogno di sempre meno competenze per attacchi davvero ben congegnati".

In Social Engineers, tuttavia, la tecnologia è solo un mezzo per raggiungere un fine. Il suo scopo è quello di enfatizzare l'autenticità del capo e dell'incarico. La manipolazione attraverso le emozioni e la pressione gioca un ruolo altrettanto importante. "L'utilizzo di voci e immagini generate artificialmente per creare fiducia è uno strumento potente", afferma Kragh. "Un'e-mail ben formulata è una cosa, ma se il finto capo parla improvvisamente con una voce reale o addirittura ha un aspetto reale e può essere visto nel 'suo' ufficio in caso di dubbio, allora si tratta di una dimensione completamente nuova che in molti casi fa scomparire tutti i dubbi. Non si può semplicemente applicare una patch di sicurezza ai dipendenti e tutto viene automaticamente scongiurato. La sensibilizzazione è quindi più importante che mai".

Gara tra stadi evolutivi dei criminali e misure di protezione

I deepfake ben fatti sono spesso difficili da identificare. I dipendenti dovrebbero prestare attenzione all'intonazione o alla melodia innaturale del discorso o all'autenticità dei movimenti o dell'ammiccamento. Anche la scarsa qualità dell'audio o del video, i rumori di fondo inspiegabili o i cambiamenti di luce e di tonalità della pelle possono essere indicatori importanti. Lo stesso vale per la scarsa sincronizzazione delle labbra con ciò che viene detto. Si può anche chiedere semplicemente all'altra persona di toccarsi il naso con un dito.

"Tuttavia, presumo che nei prossimi mesi assisteremo a deepfakes in cui tutto questo non sarà più valido", afferma Alby. "Ecco perché ha senso pensare internamente a come installare meccanismi di controllo. Dopotutto, i criminali non dormono, lavorano giorno e notte sui deficit rimanenti e sono i primi a prendere a cuore questi "consigli di rilevamento". Questo è il loro input per il prossimo stadio evolutivo. Sarà sicuramente un gioco al gatto e al topo".

"Tuttavia, la vigilanza, il pensiero critico e una buona cultura aziendale aperta sono i fattori più importanti", afferma Kragh. Una singola indagine può far crollare l'intero castello di carte e smascherare i colpevoli". Anche l'obbligo dell'amministratore delegato di non dare istruzioni per i trasferimenti nelle videochiamate o una soluzione per determinate transazioni possono essere garanzie adeguate".

In un caso recente, un dipendente di un'azienda automobilistica ha sventato un tentativo di frode da parte di un falso presidente con una semplice domanda: Quale libro gli aveva consigliato l'amministratore delegato la settimana scorsa? Il falso capo non ne aveva idea.

Fonte: www.allianz-trade.ch

(Visitato 59 volte, 1 visita oggi)

Altri articoli sull'argomento