Neue Entwicklungen in der cyberkriminellen Nutzung von KI

Generative KI-Tools haben das Potenzial, in naher Zukunft wirklich disruptive Cyberangriffe zu ermöglichen. Doch gibt es schon heute neue kriminelle LLMs oder Angebote von ChatGPT-ähnlichen Fähigkeiten in Hacking-Software?

KI-generiertes Bild eines Hackers: Das ist noch harmlos im Gegensatz zu anderen Möglichkeiten, die von Cyberkriminellen sonst noch genutzt werden. (Bild: Pixabay.com)

Künstliche Intelligenz bietet viele Chancen und hat ein grosses Nutzerpotenzial. Aber es gibt auch die andere Seite der Medaille: Denn KI lässt sich auch zu kriminellen Zwecken einsetzen. Eine Analyse von Trend Micro zeigt die neuesten Entwicklungen und beleuchtet, welche Bedrohungen in der nahen Zukunft zu erwarten sind.

Jailbreaking-as-a-Service

Während KI-Technologien in der Wirtschaft rasch an Akzeptanz gewinnen, gab es im vergangenen Jahr in der Welt der Cyberkriminalität zwar Versuche, eigene cyberkriminelle Large Language Models (LLMs) zu entwickeln, doch diese wurden weitgehend aufgegeben. Stattdessen verlegten sich die Kriminellen darauf, bestehende Modelle zu „jailbreaken“, das heisst, sie mit speziellen Tricks dazu zu bringen, ihre integrierten Sicherheitsvorkehrungen zu umgehen. So gibt es inzwischen Angebote wie Jailbreaking-as-a-Service. Hierbei nutzen Kriminelle raffinierte Techniken, um LLMs dazu zu bringen, Anfragen zu beantworten, die eigentlich blockiert werden sollten. Diese Techniken reichen von Rollenspielen über hypothetische Szenarien bis hin zur Nutzung fremder Sprachen. Dienstanbieter wie OpenAI oder Google arbeiten daran, diese Sicherheitslücken zu schliessen. Cyberkriminelle Nutzer wiederum müssen deshalb auf raffiniertere Jailbreaking-Prompts zurückgreifen. So ist ein Markt für eine neue Klasse von kriminellen Diensten in Form von Chatbot-Angeboten für Jailbreaking entstanden.

„Cyberkriminelle haben KI schon lange vor dem jüngsten Hype um generative KI in der IT-Branche missbraucht. Deshalb haben wir uns in die kriminellen Untergrundforen begeben, um herauszufinden, wie Cyberkriminelle KI tatsächlich nutzen und einsetzen, um ihre Ziele zu erreichen und welche Art von KI-gestützten kriminellen Dienstleistungen angeboten werden“, erläutert David Sancho, Senior Threat Researcher bei Trend Micro. „Wir haben uns die Untergrundgespräche über KI angeschaut und festgestellt, dass das Interesse an generativer KI den allgemeinen Markttrends gefolgt ist, die Akzeptanz jedoch hinterherzuhinken scheint. Wir haben auch LLM-Angebote von Kriminellen für Kriminelle gesehen. Darunter FraudGPT, DarkBARD, DarkBERT und DarkGPT, die viele Ähnlichkeiten aufweisen. Aus diesem Grund vermuten wir, dass sie höchstwahrscheinlich als Wrapper-Dienste für den legitimen ChatGPT oder Google BARD funktionieren – wir nennen sie Jailbreaking-as-a-Service-Dienste“, so David Sancho weiter. „Wir haben auch andere möglicherweise gefälschte kriminelle LLM-Angebote untersucht: WolfGPT, XXXGPT und Evil-GPT. Dabei befassen wir uns auch mit Deepfake-Diensten für Kriminelle: Wir haben Preise und einige frühe Geschäftsmodelle rund um diese KI-gestützten gefälschten Bilder und Videos gesehen.“

Deepfake-Services auf dem Vormarsch

Zwar gibt es Deepfakes schon länger, aber erst kürzlich wurden echte cyberkriminelle Angebote entdeckt. Kriminelle bieten Deepfake-Dienste an, um Systeme zur Identitätsüberprüfung zu umgehen. Besonders im Finanzsektor wird dies zu einem zunehmenden Problem, da Banken und Kryptowährungsbörsen immer strengere Überprüfungen verlangen. Die Erstellung von Deepfakes wird immer günstiger und einfacher. Cyberkriminelle nutzen diese Technologie, um gefälschte Bilder und Videos zu erstellen, die selbst fortgeschrittene Sicherheitssysteme täuschen können. Dabei reicht oft schon ein gestohlenes Ausweisdokument, um ein überzeugendes Fake-Bild zu erstellen.

Was bedeutet das für die Zukunft?

Die Entwicklungen zeigen, dass Kriminelle immer neue Wege finden, KI-Technologien zu missbrauchen. Obwohl die grosse Disruption bisher ausgeblieben ist, ist es nur eine Frage der Zeit, bis ernsthaftere Angriffe zu erwarten sind. Unternehmen und Privatpersonen müssen deshalb wachsam bleiben und ihre Cybersicherheitsmassnahmen stetig verbessern, um gegen diese Bedrohungen gewappnet zu sein. Drei grundlegende Regeln cyberkrimineller Geschäftsmodelle werden dabei ausschlaggebend sein, wann bösartige Akteure in grossem Stil auf GenAI setzen:

  1. Kriminelle wollen ein leichtes Leben: Ziel ist es, mit möglichst geringem Aufwand und niedrigem Risiko ein bestimmtes wirtschaftliches Ergebnis zu erreichen.
  2. Neue Technologien müssen besser sein als vorhandene Tools: Kriminelle übernehmen neue Technologien nur, wenn die Rendite höher ist als bei den bestehenden Methoden.
  3. Evolution statt Revolution: Kriminelle bevorzugen schrittweise Anpassungen statt umfassender Überarbeitungen, um neue Risikofaktoren zu vermeiden.

Fazit: Cyberkriminelle Nutzung von KI erst am Anfang

Der Bedarf an einem sicheren, anonymen und nicht nachverfolgbaren Zugang zu LLMs bleibt bestehen. Dies wird cyberkriminelle Dienste dazu veranlassen, sich immer wieder neue LLMs zunutze zu machen, die einfacher zu jailbreaken oder auf ihre speziellen Bedürfnisse zugeschnitten sind. Derzeit gibt es mehr als 6.700 leicht verfügbare LLMs auf der KI-Community-Plattform Hugging Face. Es ist auch davon auszugehen, dass immer mehr alte und neue kriminelle Tools GenAI-Funktionen integrieren werden. Cyberkriminelle haben gerade erst begonnen, an der Oberfläche der tatsächlichen Möglichkeiten zu kratzen, die GenAI ihnen bietet.

In einem Blog hat Trend Micro weitere Informationen zum Thema zusammengestellt:

(Visited 274 times, 1 visits today)

Weitere Artikel zum Thema