Nouveaux développements dans l'utilisation cybercriminelle de l'IA
Les outils d'IA générative ont le potentiel de permettre des cyber-attaques vraiment disruptives dans un avenir proche. Mais existe-t-il déjà aujourd'hui de nouveaux LLM criminels ou des offres de capacités de type ChatGPT dans les logiciels de piratage ?
L'intelligence artificielle offre de nombreuses opportunités et possède un grand potentiel d'utilisateurs. Mais il y a aussi le revers de la médaille : car l'IA peut aussi être utilisée à des fins criminelles. Une analyse de Trend Micro présente les derniers développements et met en lumière les menaces auxquelles il faut s'attendre dans un avenir proche.
Jailbreaking-as-a-Service
Alors que les technologies d'IA sont rapidement acceptées dans l'économie, le monde de la cybercriminalité a certes tenté l'an dernier de développer ses propres grands modèles linguistiques (LLM) cybercriminels, mais ces tentatives ont été en grande partie abandonnées. Au lieu de cela, les criminels se sont tournés vers le "jailbreaking" de modèles existants, c'est-à-dire vers des astuces spéciales pour les amener à contourner leurs mesures de sécurité intégrées. C'est ainsi qu'il existe désormais des offres telles que le jailbreaking-as-a-service. Dans ce cas, les criminels utilisent des techniques raffinées pour amener les LLM à répondre à des demandes qui devraient être bloquées. Ces techniques vont des jeux de rôle aux scénarios hypothétiques en passant par l'utilisation de langues étrangères. Des fournisseurs de services comme OpenAI ou Google travaillent à combler ces failles de sécurité. Les utilisateurs cybercriminels, quant à eux, doivent donc recourir à des invitations de jailbreaking plus sophistiquées. C'est ainsi qu'est apparu un marché pour une nouvelle classe de services criminels sous la forme d'offres de chatbots pour le jailbreaking.
"Les cybercriminels ont abusé de l'IA bien avant le récent engouement pour l'IA générative dans le secteur informatique. C'est pourquoi nous nous sommes plongés dans les forums criminels clandestins pour découvrir comment les cybercriminels utilisent et déploient réellement l'IA pour atteindre leurs objectifs, et quels types de services criminels basés sur l'IA sont proposés", explique David Sancho, chercheur principal en matière de menaces chez Trend Micro. "Nous avons examiné les conversations souterraines sur l'IA et constaté que l'intérêt pour l'IA générative a suivi les tendances générales du marché, mais que l'adoption semble être à la traîne. Nous avons également vu des offres LLM faites par des criminels pour des criminels. Parmi elles, FraudGPT, DarkBARD, DarkBERT et DarkGPT, qui présentent de nombreuses similitudes. C'est pourquoi nous soupçonnons qu'ils fonctionnent très probablement comme des services d'enveloppement pour le ChatGPT ou le Google BARD légitimes - nous les appelons des services de jailbreaking as a service", poursuit David Sancho. "Nous avons également examiné d'autres offres LLM criminelles potentiellement fausses : WolfGPT, XXXGPT et Evil-GPT. Nous nous sommes également penchés sur les services de deepfake pour les criminels : Nous avons vu les prix et certains modèles commerciaux précoces autour de ces fausses images et vidéos basées sur l'IA".
Les services Deepfake gagnent du terrain
Certes, les deepfakes existent depuis longtemps, mais ce n'est que récemment que de véritables offres cybercriminelles ont été découvertes. Les criminels proposent des services de deepfake pour contourner les systèmes de vérification d'identité. Cela devient un problème croissant, en particulier dans le secteur financier, car les banques et les bourses de cryptomonnaies exigent des vérifications de plus en plus strictes. La création de deepfakes est de moins en moins coûteuse et de plus en plus facile. Les cybercriminels utilisent cette technologie pour créer de fausses images et vidéos qui peuvent tromper même les systèmes de sécurité avancés. Il suffit souvent d'un document d'identité volé pour créer une fausse image convaincante.
Qu'est-ce que cela signifie pour l'avenir ?
Les développements montrent que les criminels trouvent toujours de nouvelles façons d'abuser des technologies d'IA. Bien que la grande disruption n'ait pas encore eu lieu, ce n'est qu'une question de temps avant que des attaques plus sérieuses ne se produisent. Les entreprises et les particuliers doivent donc rester vigilants et améliorer constamment leurs mesures de cybersécurité afin d'être armés contre ces menaces. Trois règles fondamentales des modèles commerciaux cybercriminels seront déterminantes pour savoir quand les acteurs malveillants se tourneront vers GenAI à grande échelle :
- Les criminels veulent une vie facile : L'objectif est d'atteindre un certain résultat économique avec le moins d'efforts et le moins de risques possible.
- Les nouvelles technologies doivent être meilleures que les outils existants : Les criminels n'adoptent de nouvelles technologies que si le retour sur investissement est plus élevé que pour les méthodes existantes.
- L'évolution plutôt que la révolution : Les criminels préfèrent les ajustements progressifs aux révisions globales afin d'éviter de nouveaux facteurs de risque.
Conclusion : l'utilisation cybercriminelle de l'IA n'en est qu'à ses débuts
Le besoin d'un accès sécurisé, anonyme et intraçable aux LLM demeure. Cela incitera les services cybercriminels à exploiter sans cesse de nouveaux LLM plus faciles à jailbreaker ou adaptés à leurs besoins spécifiques. Actuellement, il existe plus de 6 700 LLM facilement disponibles sur la plateforme communautaire d'intelligence artificielle Hugging Face. On peut également s'attendre à ce que de plus en plus d'outils criminels, anciens et nouveaux, intègrent des fonctions GenAI. Les cybercriminels commencent à peine à gratter la surface des possibilités réelles que GenAI leur offre.
Dans un blog, Trend Micro a rassemblé de plus amples informations sur le sujet :
- https://www.trendmicro.com/de_de/research/24/e/ki-cybercrime-jailbreaks-bestehender-llm-modelle.html
- https://www.trendmicro.com/de_de/research/24/e/generative-ki-tools-fur-deepfakes.html