Das Potential KI im Risikomanagement
Die Entwicklung künstlicher Intelligenz (KI) schreitet mit grosser Geschwindigkeit voran. Vor allem in den Bereichen maschinelles Sehen, linguistische Datenverarbeitung und Strategiespiele konnten in den letzten Jahren zahlreiche Durchbrüche erzielt werden. Letztlich handelt es sich bei KI um eine omnifunktionale Technologie, die das Potenzial hat, praktisch alle Lebensbereiche zu verändern. Auch im Risikomanagement bietet der KI-Einsatz vielfältige Chancen.
Der aktuelle KI-Boom, der vor gut fünf Jahren begonnen hat, geht in erster Linie auf drei Entwicklungen zurück: erstens billigere Rechenleistung, zweitens grössere Datensätze und drittens Deep-Learning-Algorithmen, die eine enorme Anzahl von Zwischenschichten zwischen Eingabedaten und Ergebnissen verwenden. Dies hat unter anderem zu bedeutenden Durchbrüchen in den Bereichen maschinelles Sehen (z.B. übermenschliche Leistungen bei der Objekterkennung und Hautkrebsklassifizierung), linguistische Datenverarbeitung (z.B. menschliche Parität bei der Spracherkennung, bei englisch-chinesischer Übersetzung und dem Textverständnistest GLUE) und Strategiespiele (z.B. übermenschliche Leistungen bei Go, Poker und Dota 2) geführt.
Es ist zu erwarten, dass KI als omnifunktionale Technologie in den nächsten Jahren zahlreiche wirtschaftliche Sektoren und Politikbereiche stark verändern, wenn nicht gar revolutionieren wird. Denn KI besitzt eine Vielzahl an innovativen Komplementaritäten, wie etwa autonome Fahrzeuge, unbemannte Luftfahrzeuge oder industrielle Roboter, und somit ein beträchtliches Anwendungspotenzial in allen grösseren Industrien. Im Folgenden werden einige zentrale Chancen und Herausforderungen dargestellt, die sich mit der zunehmenden Durchdringung von KI-Anwendungen für das Risikomanagement ergeben.
Welche Chancen im Risikomanagement?
In den kommenden Jahren ist mit dem Einsatz von KI-Anwendungen in allen Phasen des Risikomanagements, von der Risikoprävention bis hin zur Krisenbewältigung, zu rechnen. So kann KI bereits in der Gefahrenvorsorge und -vermeidung einen wichtigen Beitrag leisten. Unter anderem kann maschinelles Lernen beim Schutz kritischer Infrastrukturen zur prädiktiven Instandhaltung, Inspektion sowie zur visuellen Erkennung von Infrastrukturschäden eingesetzt werden.
So wurde maschinelles Lernen beispielsweise verwendet, um vorauszusagen, welche Wasserleitungen in Sydney ein hohes Ausfallrisiko haben oder wo in US-Städten sich bauaufsichtliche Inspektionen am wahrscheinlichsten lohnen. Ebenfalls wurde maschinelles Lernen in verschiedenen Studien dazu verwendet, Korrosion oder kleine Risse in Beton- oder Stahlbauten zu erkennen und zu quantifizieren. Dieses Verfahren könnte schon bald bei der Inspektion von Kernkraftwerken, Strassen, Brücken oder Gebäuden eingesetzt werden.
Auch in den Bereichen Risikoanalyse und Früherkennung verspricht KI präzisere und vor allem schnellere Prozesse. Da die expertengestützte Risikoanalyse, wie sie heute vorherrscht, sehr ressourcenintensiv ist, kann sie zumeist nur in längeren Intervallen durchgeführt werden. KI unterstützt hier eine Verschiebung weg von der subjektiven, expertengesteuerten Risikoanalyse hin zu einem maschinenbasierten Prozess. Anwendung finden solche Ansätze einerseits in der Modellierung von komplexen, längerfristigen Herausforderungen wie dem Klimawandel. Andererseits können mithilfe von maschinellem Lernen und Wetterdaten beispielsweise Hochwasseroder Erdrutschvorhersagemodelle täglich, stündlich oder sogar in Echtzeit aktualisiert werden, um Frühwarnsysteme zu optimieren. «KI-Systeme sind stark von der Datenqualiät und -quantität abhängig.»
Auch Verwendung für die Cybersicherheit
Die Fortschritte im Bereich maschinelles Sehen unterstützen insbesondere die Lageerfassung und die Überwachung kritischer Infrastrukturen. Intelligente Sicherheitssysteme ermöglichen unter anderem die Erkennung von biometrischen Eigenschaften, Emotionen, menschlichen Handlungen und untypischem Verhalten in einem Überwachungsbereich. Zudem erlauben sie es, Videomaterial in einem bestimmten Zeitraum automatisch anhand spezifischer Merkmale wie etwa Grösse, Geschlecht oder Kleidungsfarbe nach Objekten oder Menschen zu durchforsten. Ähnlich kann maschinelles Lernen auch zur Erkennung von Anomalien und Einbrüchen im Bereich Cybersicherheit verwendet werden. Nicht zuletzt kann KI auch das Krisenmanagement unterstützen. Zum Beispiel, indem maschinelles Lernen dazu verwendet wird, aus Posts in den sozialen Medien automatisch lokale Schadensausmasse sowie Unterstützungsnotwendigkeiten herauszulesen. Der Erfolg von KI in Strategiespielen ist ein Indiz dafür, dass sie zukünftig durchaus auch zur Entscheidungsunterstützung in der Krisenbewältigung eingesetzt werden könnte. Längerfristig besteht auch Zukunftspotenzial im Bereich des Resilience Engineering. Demnach könnte KI zum Beispiel in wichtigen Infrastruktursystemen dazu genutzt werden, generische Anpassungsfähigkeit aufzubauen, und ihnen so helfen, sich an verändernde Umweltbedingungen anzupassen.
Risiken und Herausforderungen
Auch wenn KI ein äusserst dynamisches Themenfeld ist und häufig sehr hohe Erwartungen in diese Technologie gesetzt werden, bleiben auf absehbare Zeit gewisse Grenzen bei deren Anwendung bestehen. So sind KI-Systeme stark von der Qualität und Quantität von Daten abhängig. Verzerrungen, welche in den Trainingsdaten vorhanden sind, spiegeln sich später bei der Inferenz wider. Ebenfalls erfassen KI-Systeme zwar statistische Korrelationen aus enormen Datenmengen, aber sie haben deswegen noch kein Verständnis von kausalen Zusammenhängen. Wo keine oder nur sehr spärliche Daten vorhanden sind, wie etwa bei aufkommenden und zukünftigen technologischen Risiken, kann derzeitige KI nicht mit menschlicher Expertise mithalten.
Darüber hinaus birgt der breite Einsatz von KI-Systemen auch neue Risiken, insbesondere wenn Algorithmen folgenschwere Entscheidungen unterstützen oder treffen, wie in der Medizin, beim Transport, auf Finanzmärkten oder bei kritischen Infrastrukturen. In solchen Fällen muss unter anderem die Einhaltung von Fairness, Genauigkeitsund Robustheitskriterien sichergestellt werden. Zum Beispiel, indem kontrolliert wird, wie stark das Netzwerk verschiedene Inputs bei Entscheidungen gewichtet, sodass diese ethischen Massstäben entsprechen und es beispielsweise nicht zu Diskriminierung nach Herkunft oder Geschlecht kommt. Eine weitere Gefahr, der insbesondere in Märkten vorgebeugt werden muss, sind kaskadenhafte Interaktionen zwischen Algorithmen, wie etwa im «Flash Crash» (mehrere starke Kurseinbrüche) an der Wall Street im Jahr 2010. Darüber hinaus sind KI-Systeme anfällig gegenüber sogenannten «adversarial examples», manipulativen Eingriffen mittels Bildern oder physischen Objekten, welche die KI bewusst verwirren. So haben Forscher am Massachusetts Institute of Technology etwa eine Plastikschildkröte 3D-gedruckt, welche von Googles Objekterkennungs-KI konsistent als Schusswaffe klassifiziert wird. Ein weiteres amerikanisches Forscherteam hat (semi-) autonome Fahrzeuge mit unscheinbaren Aufklebern dazu gebracht, ein Stoppschild als Tempolimittafel zu klassifizieren.
Fazit
KI ist eine Allzwecktechnologie und hält auch im Bereich Risikomanagement zunehmend Einzug. So verändert sich die Praxis von Risikoanalyse und Überwachung im Zuge des Fortschritts im Bereich des maschinellen Sehens und in der linguistischen Datenverarbeitung immer weiter. Gleichzeitig dürfen heutige KI-Systeme aber auch nicht überschätzt werden. So gestaltet sich die Prognose von Extremereignissen mittels KI aufgrund fehlender Trainingsdaten häufig schwierig. Die rasante und nicht immer lineare Entwicklung von KI macht es schwierig, zukünftige KI-Kapazitäten realistisch einzuschätzen, und es gibt keinen Expertenkonsens, in welchem Zeitrahmen «starke KI» Realität werden könnte. KI ist fortgeschrittene Statistik, sie ist weder inhärent neutral, noch besitzt sie derzeit ein menschenähnliches Verständnis von Konzepten. Öffentliche und private Akteure sollten vor allem in die Weiterbildung und Qualifikation ihrer Mitarbeitenden investieren, damit diese KI-Instrumente korrekt trainieren, nutzen und einschätzen können. Zuletzt bedeutet das transformative Potenzial von KI-Systemen in vielen Bereichen auch, dass sich die Politik verstärkt damit beschäftigen muss. So hat die neue EU-Kommission im Februar ihr White Paper zur KI vorgestellt, welches die Entwicklung von rechtlich verbindlichen Anforderungen für Anwendungen mit hohen Risiken, wie etwa medizinische Entscheide oder die biometrische Identifikation, vorsieht. In der Schweiz hat die interdepartementale Arbeitsgruppe KI ihren Bericht im Dezember vorgelegt. Dieser hält die derzeitigen Rechtsvorschriften für genügend, hebt jedoch Abklärungsbedarf in den Bereichen Völkerrecht, öffentliche Meinungsbildung, und Verwaltung hervor.