Prüftools für KI-Systeme

Die mediale Omnipräsenz der neuen KI-Anwendung ChatGPT von OpenAI zeigt: Künstliche Intelligenz hat eine beeindruckende Reife erreicht. Der Chatbot, der mit Daten und Texten aus dem ganzen Internet trainiert wurde, reagiert auf Fragen mit Antworten, die sich von von Menschen erstellten Texten nur schwer bis gar nicht unterscheiden lassen. Doch wie steht es um die Qualitätsprüfung von KI-Systemen?

Das Tool ScrutinAI ermöglicht es, Fehler in KI-Modellen oder Trainingsdaten aufzudecken und die Ursachen dafür zu analysieren. Im vorliegenden Beispiel wird ein KI-Modell zur Erkennung von Anomalien und Krankheiten auf CT-Bildern untersucht. (Bild: Fraunhofer IAIS)

ChatGPT hat einen neuen Hype um Künstliche Intelligenz ausgelöst, die Möglichkeiten der KI sind beeindruckend. Gleichzeitig wird die Qualitätssicherung und Kontrolle von KI-Systemen immer wichtiger – insbesondere wenn sie verantwortungsvolle Aufgaben übernehmen. Denn die Ergebnisse des Chatbots beruhen auf riesigen Datenmengen an Texten aus dem Internet. Dabei berechnen Systeme wie ChatGPT allerdings nur die wahrscheinlichste Antwort auf eine Frage und geben diese als Fakt aus. Doch welche Prüftools existieren, um z.B. die Qualität der durch ChatGPT generierten Texte zu messen?

KI-Prüfkatalog

ChatGPT hat die Prominenz von KI verstärkt. Doch KI beschränkt sich selbstverständlich nicht nur auf dieses Tool. Von Sprachassistenzsystemen über die Analyse von Bewerbungsdokumenten bis hin zum autonomen Fahren – als Schlüsseltechnologie der Zukunft kommt Künstliche Intelligenz (KI) überall zum Einsatz. Umso wichtiger ist es, KI-Anwendungen so zu gestalten, dass sie verlässlich und sicher agieren und transparent und zuverlässig mit Daten umgehen. Dies ist eine notwendige Voraussetzung dafür, dass KI auch in sensiblen Bereichen zum Einsatz kommen kann und Nutzer sowie Nutzerinnen nachhaltig Vertrauen in die Technologie haben. Deshalb hat das Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS einen KI-Prüfkatalog entwickelt. Damit erhalten Unternehmen einen praxisorientierten Leitfaden, der sie befähigt, ihre KI-Systeme vertrauenswürdig zu gestalten. Auf rund 160 Seiten beschreibt er, wie KI-Anwendungen systematisch hinsichtlich Risiken evaluiert werden können, formuliert Vorschläge für Prüfkriterien zur Messung der  Qualität der Systeme und schlägt Massnahmen vor, die KI-Risiken mindern können. 

Prüftools im Einsatz

Forschende des Fraunhofer IAIS präsentieren darüber hinaus vom 17. bis 21. April auf der Hannover Messe 2023 am Fraunhofer-Gemeinschaftsstand in Halle 16, Stand A12 verschiedene Prüftools und Verfahren, mit denen sich KI-Systeme systematisch entlang ihres Lebenszyklus auf Schwachstellen untersuchen und gegen KI-Risiken absichern lassen. Die Tools unterstützen Entwickler und Entwicklerinnen sowie Prüfinstitute dabei, die Qualität von KI-Systemen systematisch zu evaluieren und so ihre Vertrauenswürdigkeit sicherzustellen. Ein Beispiel ist etwa das Werkzeug „ScrutinAI“. Es befähigt Prüferinnen und Prüfer, systematisch nach Schwachstellen von neuronalen Netzen zu suchen und somit die Qualität der KI-Anwendungen zu testen. Ein konkretes Beispiel ist eine KI-Anwendung, die Anomalien und Krankheiten auf CT-Bildern erkennt. Hier stellt sich die Frage, ob alle Arten von Anomalien gleichermassen gut erkannt werden oder einige besser und andere schlechter. Diese Analyse hilft Prüferinnen und Prüfern zu beurteilen, ob eine KI-Anwendung für ihren vorgesehenen Einsatzkontext geeignet ist. Gleichzeitig können auch Entwicklerinnen und Entwickler profitieren, indem sie Unzulänglichkeiten ihrer KI-Systeme frühzeitig erkennen und entsprechende Verbesserungsmaßnahmen ergreifen können, wie etwa die Anreicherung der Trainingsdaten um spezifische Beispiele.

Quelle und weitere Informationen: Fraunhofer IAIS

(Visited 248 times, 1 visits today)

Weitere Artikel zum Thema