Liebe KI-Interessierte,
eine Beobachtung vorweg, die für das Verständnis entscheidend ist:
Künstliche Intelligenz arbeitet mit Wahrscheinlichkeiten. Das System berechnet, welches Wort – und welcher Gedankengang – mit hoher Wahrscheinlichkeit gut passt.
Das Ergebnis sind Antworten, die plausibel wirken. Nicht automatisch solche, die richtig sind. Das ist kein Fehler, sondern Systemlogik.
Und dazu gehört auch ein zweiter Punkt, der oft missverstanden wird: Was wir als „Halluzinationen“ bezeichnen, sind keine fehlerhaften Ausnahmen. Es sind Situationen, in denen das System weiterhin plausibel formuliert, obwohl die inhaltliche Grundlage unsicher ist oder fehlt.
Für den Alltag bedeutet das sehr konkret:
Jede KI-Antwort ist zunächst ein Vorschlag. Keine verlässliche Aussage.
Und genau deshalb braucht sie immer eines: Prüfung.
Nicht, weil die KI „schlecht“ ist, sondern weil sie eben nur einen Antwort-Vorschlag auf Basis von Wahrscheinlichkeiten generiert.
Die typische Situation im Führungsalltag
Jetzt zurück zu einer typischen Szene: Ein Mitarbeiter bringt Ihnen eine Entscheidungsvorlage. Sauber strukturiert, klare Empfehlung, gut argumentiert. Und irgendwo im Gespräch fällt der Satz: „Ich habe das mit ChatGPT vorbereitet.“
Das ist zunächst nichts Problematisches an sich. Im Gegenteil: Eine angemessene Nutzung von KI wird inzwischen erwartet. Die Frage ist im Vergleich zu früher allerdings eine etwas andere:
Hat sich die Person mit dem Thema wirklich auseinandergesetzt oder wurde hier mit KI nur schnell eine gute Antwort erzeugt?
Das lässt sich nicht durch Nachfragen nach „Richtigkeit“ klären und schon gar nicht durch Kontrolle.
Was es hier braucht, ist eine Form der Prüfung, die zwei Dinge gleichzeitig leistet:
- Sie gibt Ihnen Sicherheit über die Qualität
- ohne den Mitarbeitenden unter Verdacht zu stellen.
Die passende Prüflogik: gemeinsam weiterdenken
Die einfachste Form dafür ist überraschend unspektakulär: Sie steigen nicht in die Bewertung ein – sondern ins Weiterdenken. Das wirkt im Gespräch völlig natürlich und zeigt sehr schnell, wie tragfähig eine Antwort ist.
1. „Lassen Sie uns das einmal weiterdrehen…“
Sie greifen die vorhandene Antwort auf und verändern leicht die Situation: „Was würde sich ändern, wenn wir das Budget halbieren?“ „Wie sähe das unter stärkerem Zeitdruck aus?“
Wenn jemand wirklich im Thema ist, bleibt die Argumentation stabil und sie passt sich an. Wenn nicht, wird es schnell unklar oder widersprüchlich.
2. „Welche gute Gegenposition gäbe es dazu?“
Nicht als Kritik formuliert, sondern als Ergänzung: „Welche Argumente würde jemand bringen, der das anders sieht?“
Hier zeigt sich, ob Alternativen durchdacht wurden oder ob die Antwort nur sauber durch die KI formuliert ist.
3. „Wo würden Sie selbst noch genauer hinschauen?“
Das ist oft die aufschlussreichste Frage: „An welcher Stelle würden Sie sagen: Das müssten wir noch genauer prüfen?“
Wer sich wirklich mit dem Thema beschäftigt hat, kennt die offenen Punkte. Wer dagegen nur eine Antwort erzeugt hat, bleibt hier meist vage.
Warum diese Logik funktioniert
Durch diese Art prüfen Sie nicht die Person und auch nicht direkt die Antwort. Sondern Sie prüfen, wie tief jemand im Thema ist. Hat er/sie nur mal schnell eine plausible Antwort mit Künstlicher Intelligenz erzeugt oder sie dafür genutzt, um seine eigenen Gedanken zum Thema vertieft und kritisch zu schärfen.
Und genau das ist der entscheidende Unterschied.
Künstliche Intelligenz wie ChatGPT kann sehr gute erste Entwürfe liefern, aber diese können nur der Vorbereitung dienen.
Die Entscheidung, ob die Antwort gut bzw. richtig ist, müssen - immer - wir Menschen selbst treffen. Oder auf Neudeutsch: “human in the loop”.
Ein Gedanke zum Schluss
Am Ende bleibt es bei dem, was Führung schon immer ausgemacht hat: Als Führungskräfte stehen wir für die Ergebnisse ein.
Und ich persönlich möchte das mit gutem Gefühl tun.
Deshalb gehe ich nie davon aus, dass eine Antwort der KI einfach „richtig“ ist. Ich behandle sie vielmehr als das, was sie ist: ein Vorschlag.
Und arbeite so lange damit weiter, bis ich sagen kann: Das kann ich vertreten.
Vielleicht hilft Ihnen das ja, wenn Sie 'mal wieder eine solche Situation in Ihrem Führungsalltag haben (ich freue mich natürlich auch über Rückmeldungen, wie gut das bei Ihnen funktioniert hat).
Schöne Grüße derweil und ein weiterhin neugierig-gelassenes Führen mit KI
Ihre
Beate Freuding
P.S. Wenn Sie nochmal in die bisherigen KI Briefings reinschauen möchten, dann folgen Sie diesem Link: https://ki-briefing.kit.com/
P.P.S. Wenn Sie jemanden kennen, den das Thema hier auch interessieren könnte, dann leiten Sie den Newsletter gern weiter.
Und wenn Sie mehr als nur mitlesen wollen – so kann's weitergehen:
The AI Leader
Ein persönlicher Denk- und Entscheidungsraum, um Künstliche Intelligenz einzuordnen, Verantwortung zu klären und sicher zu entscheiden. Keine Schulung, keine Tools, keine Umsetzung, sondern Orientierung auf Entscheiderebene.
The AI Organization
Ein klarer Entscheidungsrahmen für den strategischen Umgang mit KI. Für Organisationen, in denen KI bereits Thema ist, aber ohne klare Linie.
Wenn Sie einen Themenwunsch für das KI-Briefing haben – schreiben Sie mir gern: ki-briefing@digital-leader.eu
Hinweis: Dieser Beitrag ist in enger Zusammenarbeit mit KI geschrieben worden und persönlich von Dr. Beate Freuding, Geschäftsführerin von The Digital Leader, kuratiert. Der Beitrag dient der allgemeinen Information und Orientierung. Er stellt keine Rechtsberatung dar und kann eine individuelle juristische Prüfung im Einzelfall nicht ersetzen. Für Entscheidungen, die auf Basis dieses Beitrags getroffen werden, übernimmt die Autorin keine Haftung.