Offener Umgang mit GenAI führt zu weniger Schatten-KI
Unternehmen sehen in der künstlichen Intelligenz eine grosse Chance, ihre Wirtschaftsleistung zu steigern und die Arbeit ihrer Mitarbeitenden zu revolutionieren, indem sie zum Beispiel, produktiver werden, oder Zeit sparen, weil sie Informationen schneller finden können. Diese Vorteile können jedoch nur durch eine koordinierte KI-Strategie im gesamten Unternehmen realisiert werden.
71 % der Arbeitnehmer nutzen bereits KI-Tools, bevor ihre Vorgesetzten davon wussten. Diese unautorisierte Nutzung einer KI-Technologie, die auf potenziell sensible Unternehmensdaten zugreifen kann, nennt sich „Schatten-KI“. Schatten-KI beschreibt die Verwendung von generativen KI-Produkten ohne Aufsicht der IT-Abteilung, wobei ungeschützte persönliche Konten verwendet werden, die nicht die Sicherheitsprüfungen oder Datenvereinbarungen aufweisen, die für ein Unternehmenskonto gelten würden. Ohne eine umfassende Strategie und Mitarbeiterschulung kann eine solche Situation das Unternehmen erheblichen Risiken aussetzen.
Bei KI-Einführung niemanden zurücklassen
Eines der Hauptprobleme der Schatten-KI durch vereinzelte User besteht in der unangemessenen und nicht Compliance-gerechten Nutzung aufgrund fehlender einheitlicher Unternehmensrichtlinien. Diese fragmentierte, individualisierte Herangehensweise an die Einführung generativer KI (GenAI) trägt dazu bei, das Unternehmen zu splitten: Auf der einen Seite stehen die Mitarbeitenden, die die neueste Technologie nutzen, ohne sich mit ihren Kollegen auszutauschen, auf der anderen Seite die zögerlichen Nichtnutzer, die hinter ihren vermeintlich fortschrittlicheren Kollegen zurückbleiben. Ohne eine ganzheitliche Strategie und Schulung der Mitarbeitenden im Umgang mit diesen neuen Tools, können diejenigen, die auf individueller Basis experimentieren, frustriert sein, weil sie nicht in der Lage sind, nützliche Erkenntnisse oder genaue Ergebnisse zu gewinnen. Zudem bergen diese ersten negativen Erfahrungen das Risiko, dass Mitarbeitende die KI-Tools ganz aufgeben.
Unautorisierter Gebrauch gefährdet sensible Daten
Eine aktuelle Studie von Veritas ergab, dass 31 % der Befragten zugaben, potenziell sensible Informationen mit generativen KI-Tools zu teilen. Geschäftskonten für KI-Produkte enthalten in der Regel Vereinbarungen, die sicherstellen, dass Unternehmensdaten nicht zum Trainieren von KI-Modellen verwendet werden. Persönliche Konten, die häufig in der Schatten-KI verwendet werden, verfügen jedoch in der Regel nicht über diese Vereinbarungen. Das bedeutet, dass alle Unternehmensdaten, die über ein persönliches Konto geteilt werden, versehentlich zum Trainieren des KI-Modells verwendet werden könnten.
Die Absicherung der Unternehmensdaten sollte daher immer ein Hauptanliegen darstellen. Zudem können schwerwiegende Folgen entstehen, wenn Mitarbeitende diese leistungsstarken Tools ohne Anleitung oder eigenes Urteilsvermögen einsetzen. KI-Tools sind immer noch anfällig für fehlerhafte oder ungenaue Ergebnisse und sogar für „Halluzinationen“. Denn wenn man sich auf fehlerhafte Ergebnisse verlässt, ohne diese zu hinterfragen, kann dies zu falschen Entscheidungen und potenziellen rechtlichen oder finanziellen Auswirkungen für das Unternehmen führen.
KI-Strategie, die Regeln setzt, aber auch zum Experimentieren einlädt
Um diesen Herausforderungen zu begegnen, sollten Unternehmen eine koordinierte KI-Strategie verfolgen. Es ist wichtig, dass IT-Teams vertrauenswürdige Anbieter identifizieren und klare Bedingungen für den Umgang mit sensiblen Daten vereinbaren. Die Zusammenarbeit mit Anbietern, die über solide KI-Prinzipien verfügen, einschliesslich Regeln für die Datensicherheit und die Verhinderung von Datenschutzverletzungen, wird Cyberrisiken und rechtliche Verpflichtungen minimieren. Für Unternehmen, die über ausreichende Ressourcen verfügen, ist die Entwicklung einer maßgeschneiderten KI-Lösung durch Nutzung vorhandener grosser Sprachmodelle ebenfalls eine praktikable Option. So entsteht eine leistungsstarke KI, die sich nahtlos in das Datenökosystem und die Prozesse des Unternehmens einfügt, die Produktivität steigert und Zeit für strategische Aufgaben freiräumt.
Um den grösstmöglichen Nutzen aus ihren KI-Investitionen zu ziehen, sollten Unternehmen außerdem ein umfassendes Programm entwickeln, das ihre Mitarbeitenden kontinuierlich über die besten Verfahren zur Integration von KI in ihre tägliche Arbeit informiert. So wird sichergestellt, dass alle Mitarbeitenden die Vorteile der KI-Technologie nutzen können. In jedem Team gibt es einen „Early Tech Adopter“, der durch seine Neugierde und Leidenschaft anderen, die eher zögerlich experimentieren, voraus ist. Solche Mitarbeitende können in Zusammenarbeit mit ihren IT-Teams zu KI-Champions innerhalb des Unternehmens werden, Erkenntnisse, bewährte Verfahren und Einsichten mit Kollegen teilen und eine kollaborative Lernumgebung fördern.
Ethik und Innovation kombinieren
Innerhalb der Grenzen der KI-Strategie des Unternehmens können Mitarbeitende mit der Automatisierung von Routineaufgaben ihre Leistung steigern und Zeit sparen, um sich auf die Arbeit zu fokussieren, die den grössten Wert für das Unternehmen bringt. Es ist jedoch wichtig, daran zu denken, dass KI nicht als Ersatz für menschliche Intelligenz und Überprüfung verwendet werden sollte. KI ist heute in der Lage, zahlreiche Aufgaben zu automatisieren und innerhalb von Sekunden grosse Mengen an Inhalten zu generieren. Aber die Mitarbeitenden müssen immer noch ihr eigenes kritisches Denken anwenden. Denn wenn sie den von der KI generierten Text nicht wirklich gelesen oder das Problem, das sie zu lösen versuchen, nicht wirklich bedacht haben, werden sie in Zukunft nur noch grössere Probleme schaffen. Deshalb müssen Unternehmen bei aller KI-Euphorie immer wieder über die langfristigen ethischen und sozialen Auswirkungen der KI auf die Belegschaft nachdenken und gleichzeitig sicherstellen, dass die KI die menschlichen Fähigkeiten auf ausgewogene Weise ergänzt.
Autor:
Christopher (Chris) Noon ist Director und Global Head of Commercial Intelligence & Analytics (CIA) bei Dropbox. Als solcher leitet er die Data-Science-Initiativen des Unternehmens. Sein Team entwickelt Tools zur Visualisierung des Kundenengagements und zur Identifizierung von Trends. Vor seiner Karriere bei Dropbox war Chris Noon Dozent für alte Geschichte und Archäologie an der Universität Oxford. Er wechselte von der akademischen Welt in die Technologiebranche mit dem Ziel, sein Fachwissen zu nutzen, um die Kluft zwischen Technologie und Bildung zu überbrücken. Für diese Bemühungen erhielt er ein Fellowship der Royal Society of Art.