KI bzw. ChatGPT macht (nicht nur) Berater denkfaul!

Das Programm ChatGPT kann nicht „out of the box“ denken. Das bedenken viele Berater – gleich welcher Couleur – beim Benutzen des Chat-Programms nicht.

Nützliches Tool, das aber nicht vom Denken abhalten sollte: ChatGPT. (Bild: Unsplash.com)

Seit das Unternehmen OpenAI Ende 2022 sein Programm ChatGPT für die allgemeine kostenlose Nutzung freigeschaltet hat, ist um das Thema künstliche Intelligenz (KI) ein Hype entstanden. Auch die Beraterszene hat den Nutzen solcher Chat-Programme wie ChatGPT für sich erkannt – zu Recht, denn mit ihnen lassen sich sehr schnell und einfach zumindest erste Entwürfe solcher Werbetexte wie Blogbeiträge, Werbeschreiben oder Post für die Social Media generieren, die man dann weiterbearbeiten kann.

Berater lassen Texte oft von ChatGPT schreiben

Zuweilen treibt die ChatGPT-Nutzung der Berater aber seltsame Blüten. So zum Beispiel, wenn wir als PR- und Marketing-Agentur für Berater zu einem aktuellen Trendthema – wie Künstliche Intelligenz, Transformation, hybride Teams, Nachhaltigkeit, Blended Learning, Generation Z usw. – einen Artikel schreiben und in Print- und Online-Medien platzieren sollen, beispielsweise weil der betreffende Berater gerade ein neues Produkt zu diesem Thema entwickelt hat und er dieses promoten möchte.

Angenommen wir sagen dann zu dem Berater „Das machen wir gern. Doch bitte geben Sie uns zuvor einen Input, damit wir ihre Kernbotschaften und ihre inhaltliche Stossrichtung kennen“. Dann wird uns nicht selten kurze Zeit später ein Text zugesandt, der erkennbar von ChatGPT erstellt wurde. Das heisst, im Idealfall besteht er aus einigen recht allgemeinen Aussagen beispielsweise zum Thema „Künstliche Intelligenz“ oder „Transformation“, die wir selbst auch beim Googeln im Netz gefunden hätten. Von eigenen Gedanken des Beraters findet man in den Texten jedoch keine Spur.

Berater durch-denken Themen oft nicht

Nicht selten wären die Texte, wenn wir sie ohne eine neue inhaltliche Fokussetzung Fachzeitschriften anbieten würden, aus deren Sicht sogar ein absoluter Blödsinn – zum Beispiel, weil in ihnen nicht reflektiert wird, dass Kleinunternehmen weniger Ressourcen als Konzerne haben und die Logistikbranche beispielsweise ganz anders als die Finanzbranche tickt, weshalb für viele Probleme auch unterschiedliche Lösungen erforderlich sind. Das heißt, in den Artikeln erfolgt keine Differenzierung, obwohl sich gerade darin die Expertise eines Beraters zeigt.

Hierfür ein Beispiel. Vor einigen Wochen bat uns ein auf KMU spezialisierter Personalberater, der offensichtlich auch irgendwo gelesen hatte „Der KI gehört die Zukunft“, für ihn einen Artikel zum Thema „KI-Einsatz im Personalauswahlprozess“ zu schreiben. Nachdem ich ihn gebeten hatte, mir diesbezüglich einige Stichworte zu senden, erhielt ich kurze Zeit später einen etwa 30 Zeilen langen Text. In ihm wurde ein möglicher KI-Einsatz im Personalauswahlprozess zur Bewerbervorselektion beschrieben – ohne jeglichen Bezug auf Klein- und Mittelunternehmen.

Dabei hatte mir der Berater im Vorfeld erzählt, die meisten seiner Kunden kämpften aktuell mit folgendem Problem: Auf Stellenausschreibungen von ihnen melden sich, wenn überhaupt, maximal 1, 2 Bewerber und deshalb müssen sie mangels Alternative, um ihre Arbeitsfähigkeit zu bewahren, oft auch Bewerber einstellen, die ihre Anforderungen nur partiell erfüllen. Als ich den Berater anrief und fragte, welchen Nutzen in einer solchen Arbeitsmarktsituation KMU ein KI-System zur Vorselektion von Bewerbern biete, lautete seine Antwort nach einem kurzen Nachdenken: „Eigentlich keinen – denn wenn nur ein Bewerber vor der Tür steht, dann…“

Berater kauen oft Phrasen und Klischees wieder

Ähnlich erging es mir, als wir für ein grösseres Beratungsunternehmen einen Artikel zum Thema „Generationenübergreifende Zusammenarbeit“ schreiben sollten. In der Textvorlage, die ich erhielt, wurde der Eindruck suggeriert: Das Gros der Mitarbeitenden und Führungskräfte der Unternehmen sind auch heute noch Digital Immigrants, die mit der IT auf Kriegsfuss stehen und starke emotionelle Vorbehalte gegenüber IT-Lösungen haben, woraus Probleme in der Zusammenarbeit mit den Digital Natives resultieren.

Als ich daraufhin den Textlieferanten fragte, inwieweit dies heute noch zutreffend sei, da inzwischen viele Angehörige der in dem Artikel zitierten Generationen X und Y ja schon 35 oder gar 40 Jahre alt seien und nicht selten seit Jahren schon zu den Leistungsträgern in den Unternehmen zählten, lautete seine Antwort: „Damit könnten Sie recht haben.“ Offensichtlich hatte er jedoch noch nie darüber nachgedacht, inwieweit diese vor ein, zwei Jahrzehnten gültigen Klischees heute noch stimmen. Also störten sie ihn auch im Textentwurf von ChatGPT nicht.

Berater reflektieren zu wenig: Wer sind meine Adressaten?

Ähnliche Erfahrungen sammeln wir auch immer häufiger, wenn wir für Berater neue Seiten für ihre Homepages und Beiträge für ihre Blogs texten sollen, zum Beispiel weil sie ein neues Produkt entwickelt haben oder bei einem bestimmten Stichwort, das gerade „in“ ist, auch von ihren potenziellen Kunden im Netz gefunden werden möchten. Auch dann stellt sich uns beim Sichten ihrer Textvorlagen oft die Frage: „Was hat sich der Berater hierbei gedacht?“ Und nicht selten lautet die Antwort: „Nichts, denn er hat nur bei ChatGPT einige Prompts eingeben.“

Der Grund hierfür: Die Texte sind so banal und allgemein, dass man von einem eigenständigen Denken des Beraters oder gar von dessen Feld- und Praxiserfahrung nichts spürt. Nur, warum sollten dann potenzielle Kunden, die beim Googeln auf die Webseite des Beraters stossen, diesen überhaupt kontaktieren? Das fragen sich viele Berater bei ihrer ChatGPT-Nutzung offensichtlich nicht. Sie fragen sich dies ebenso wenig, wie sie sich beim Schreiben von Artikeln fragen: Warum sollte eine Fachzeitschrift einen „Experten-Beitrag“ von mir publizieren, den deren Redaktion auch selbst durch die Eingabe gewisser Prompts in ChatGPT erstellen könnte?

ChatGPT kann nicht „out of the box“ denken

Die obigen Zeilen sollen kein Votum gegen eine Nutzung des Programms ChatGPT durch Berater gleich welcher Couleur sein. Dieses ist und bleibt ein oft sehr hilfreiches Tool. Was ChatGPT Beratern aber nicht abnehmen kann, ist das Denken (in all seinen Facetten wie durch-denken, be-denken und quer-denken) und das Entwickeln passgenauer Problemlösungen für ihre Zielkunden.

Denn letztlich kann dieses Programm nur ein mehr oder minder sinnvolles Substrat der Infos, die es im Netz findet, wiedergeben. Es kann also auch nicht (um ein aktuelles Berater-Schlagwort zu verwenden) „out of the box“ denken und ganz neue Problemlösungen (er-)finden. Das ist und bleibt der Job der Berater (alleine oder im Dialog mit ihren Kunden).

Was für die Beraterzunft gilt, gilt selbstverständlich auch für den KI-Einsatz in Unternehmen. Auch hier besteht die Gefahr, dass die User denkfaul werden und den von KI-Systemen vorgeschlagenen Lösungen blind vertrauen statt sich zu fragen: Inwieweit sind diese zielführend?

Sich für einen adäquaten KI-Einsatz qualifizieren

Diesbezüglich die Mitarbeitenden der Unternehmen zu sensibilisieren und zu schulen, könnte übrigens ein Beratungs- bzw. Trainingsangebot der Anbieter im Bildungs- und Beratungsbereich sein. Noch habe ich beim Googeln im Netz ein solches Angebot nicht gefunden. Dies ist jedoch spätestens nach dem Erscheinen dieses Artikels nur noch eine Frage der Zeit – und sei es nur, weil ein entsprechender Hinweis in einem von ChatGPT für Berater erstellten Text erscheint.

 

Zum Autor:
Bernhard Kuntz ist Geschäftsführer der auf Berater spezialisierten Marketing- und PR-Agentur Die PRofilBerater GmbH, Darmstadt. Er ist Autor u.a. der Bücher „Die Katze im Sack verkaufen“, „Fette Beute für Trainer und Berater“ und „Warum kennt den jeder?“ (Internet: www.die-profilberater.de).

(Visited 167 times, 1 visits today)

Weitere Artikel zum Thema