Liebe KI-Interessierte,
viele glauben: „ChatGPT hat alle Fakten gespeichert und holt sie hervor, wenn ich einen Prompt eingebe.“ Verständlich – schließlich liefert es in Sekunden Berichte, Analysen oder ganze Argumentationen.
Nur: Ein Sprachmodell speichert nichts. Es berechnet – und das ist ein entscheidender Unterschied.
Der Kern: Ein Sprachmodell ist ein Vorhersageapparat
Wenn man es ganz nüchtern betrachtet, passiert beim Erzeugen eines Textes durch ein GPT (General Pretrained Transformer) wie ChatGPT, Claude oder Gemini Folgendes:
- Ihr Satz wird in Token zerlegt (Textstücke wie „Ent-“, „schei-“, „dung“).
- Das Modell berechnet für jedes mögliche nächste Token die Wahrscheinlichkeit.
- Es wählt das wahrscheinlichste Token aus.
- Dann wiederholt es den Prozess. Tausende Male.
Das Ergebnis wirkt wie Denken – ist aber reine Statistik. Das Modell weiß nicht, was es sagt. Es weiß nur, wie Sprache typischerweise aussieht, wenn Menschen etwas Bestimmtes sagen möchten.
Warum ein GPT trotzdem wirkt, als wüsste es etwas
Weil zwei Ebenen zusammenfallen:
1. Das Modell hat keine Erinnerung – aber einen riesigen Raum an Mustern.
Es kennt Milliarden Beispiele, wie Menschen über Wirtschaft, Politik, Führung, Psychologie oder Kommunikation sprechen. Nicht als Fakten – sondern als Muster.
2. Die Anwendung, in der Sie schreiben, speichert Ihren Verlauf.
Der Eindruck, ChatGPT & Co. „wisse noch, was ich gestern gesagt habe“, entsteht nur durch das Kontextfenster – einen Zwischenspeicher des aktuellen Gesprächs innerhalb der Tools, wenn Sie die Funktion “Memory” Speicher aktivieren. Das Modell selbst bleibt blind. Das ist der Punkt, der extrem wichtig ist.
Ein Sprachmodell ist ein Simulationsraum, kein Gedächtnis
Es verhält sich nicht wie ein Speicher. Es verhält sich wie ein Modell von menschlicher Sprache, das Sie in Echtzeit bespielen.
Man könnte sagen: Sie sprechen nicht mit Wissen. Sie sprechen mit Wahrscheinlichkeiten in Form von Sprache. Und diese Wahrscheinlichkeiten sind so gut modelliert, dass es sich wie Wissen anfühlt.
Warum das für Führungskräfte entscheidend ist
Gerade Führungskräfte treffen Entscheidungen, die nicht auf „wahrscheinlich“ beruhen dürfen.
Wenn man nicht versteht, wie ein Modell arbeitet, entsteht eine gefährliche Annahme: „Das klingt plausibel – also stimmt es.“ Aber Plausibilität ist im System kein Qualitätskriterium. Es ist ein Nebenprodukt der Sprachsimulation.
Die Konsequenzen:
- GPT ist brillant im Formulieren – nicht im Überprüfen: Wenn Sie einen Bericht wollen: fantastisch. Wenn Sie Wahrheit wollen: riskant.
- GPT ist gut im Strukturieren – aber blind für Logikbrüche. Es erkennt Muster, keine Fehler.
- GPT ist wertvoll für Ideen – aber verantwortungslos gegenüber Folgen. Es hat kein Verständnis von Ihrer Organisation, keine Prioritäten, keine Konsequenzabschätzung.
Deshalb ist GPT für Führungskräfte ein Werkzeug – kein Co-Pilot im eigentlichen Sinn.
Die zentrale Frage für Führungskräfte
Wo in meiner Organisation ist Form entscheidend – und wo Wahrheit? Wo geht es um Sprache – und wo um Substanz?
Diese Unterscheidung wirkt banal. In Wirklichkeit ist sie der Dreh- und Angelpunkt jeder sinnvollen KI-Nutzung.
1. Bereiche, in denen Form zählt – hier gehören GPTs hin
Alles, was Kommunikation, Struktur, Formatierung, Verständlichkeit braucht.
Typische Beispiele:
- Präsentationen
- Reden
- E-Mails
- Zusammenfassungen
- Berichte
- Kundentexte
- interne Kommunikation
- Wissensaufbereitung
- Feedbackvorlagen
- Protokolle.
GPT erzeugt Klarheit, Geschwindigkeit und Konsistenz – ohne Risiko, weil es um Darstellung geht, nicht um Wahrheit. In diesen Bereichen beschleunigt ein GPT Führung, ohne sie zu verzerren.
2. Bereiche, in denen Wahrheit zählt – hier braucht es Kontrolle
Das sind alle Situationen, in denen Entscheidungen auf Richtigkeit beruhen:
- Strategie
- Budget
- Personalentscheidungen
- Leistungsbeurteilungen
- Risikoanalysen
- Compliance
- rechtliche Einordnungen
- interne Konflikte
- Bewertungen von Menschen oder Situationen
GPT kann helfen, diesbezügliche Optionen zu strukturieren. Aber: Es kann die Substanz nicht liefern. Ein Modell kennt nicht:
- den Kontext Ihrer Organisation
- die politischen Dynamiken
- implizite Konfliktlinien
- tatsächliche Leistungsdaten
- Risiken, die hinter Entscheidungen stehen
- Intentionen oder Konsequenzen
Für diese Bereiche gilt: GPT als Denkpartner – ja. GPT als Informationsquelle – nein. GPT als Entscheidungshilfe – gefährlich.
3. Bereiche, in denen beides zusammenkommt – und die besonders anspruchsvoll sind
Das ist die Zone, in der viele Fehler entstehen, weil der Übergang unscharf ist.
Beispiele:
- Strategieprosa („Warum machen wir X?“)
- Bewerberbeurteilungen
- Management-Kommunikation über Risiken
- narrativ aufbereitete Analysen
- Vorstandsvorlagen
- KPI-Interpretationen
- ESG- und Risiko-Reports
Hier erzeugt ein GPT Texte, die formal perfekt wirken, aber inhaltlich nicht belastbar sind.
Gefahr: Der Text liest sich überzeugend – und tarnt die fehlende Wahrheit dahinter. Diese Zone braucht Führung – nicht Technik.
Warum diese Differenzierung so wesentlich ist
Weil Sprachmodelle eine Illusion erzeugen:
Wenn sich etwas gut liest, wirkt es richtig. Wenn etwas richtig klingt, wird es schnell zur Entscheidungsgrundlage.
Genau hier beginnt die Verantwortung: Nicht, ob man ChatGPT & Co. nutzt – das ist längst entschieden. Sondern wofür.
Führung im KI-Zeitalter ist nicht die Kunst, alles zu automatisieren. Sondern die Fähigkeit, Form von Wahrheit zu unterscheiden – und GPTs konsequent dort einzusetzen, wo es Stärken hat.
So, das war es heute zum Thema "Wie Sprachmodelle funktionieren und warum es Form von Wahrheit zu unterscheiden gilt".
Schöne Grüße - und ein weiterhin neugierig-gelassenes Führen mit KI
Ihre
Beate Freuding
P.S.: Nächste Woche ist Heilig Abend. Die nächste Ausgabe erscheint dann wieder am 31.12.25. Der letzte Tag im alten Jahr fokussiert dann auf das Thema "KI Governance", also die Frage, wie Sie KI gut und nachhaltig in Ihrer Organisation einführen können.
Offizielle Dokumente, Studien, Whitepaper etc.
|
|
The AI Strategy Roadmap (Microsoft, 2025)
Ein praxisnahes Framework für Führungsteams, das beschreibt, wie Organisationen Künstliche Intelligenz verantwortungsvoll und skalierbar einführen können.
|
|
|
Sie möchten mit mir sprechen?
Sehr gern. Sie erreichen mich unter freuding@digital-leader.eu oder telefonisch unter 0152 05188026. Oder vereinbaren Sie direkt einen Gesprächstermin: https://calendly.com/freuding/beratung-ki
|
Und wenn Sie mehr als nur mitlesen wollen – so kann's weitergehen:
Executive Briefing für die Geschäftsleitung
In zwei Stunden erhalten Sie eine fundierte Einordnung, was KI für Ihre Organisation bedeutet – und welche Führungsentscheidungen jetzt anstehen.
KI-Coaching für Führungskräfte
In individuellen 1:1-Sessions entwickeln Sie ein fundiertes Verständnis von KI – und wie Sie als Führungskraft damit souverän umgehen.
Wenn Sie einen Themenwunsch für das KI-Briefing haben – schreiben Sie mir gern: ki-briefing@digital-leader.eu
Hinweis: Dieser Beitrag ist in enger Zusammenarbeit mit KI geschrieben worden und persönlich von Dr. Beate Freuding, Geschäftsführerin von The Digital Leader, kuratiert. Der Beitrag dient der allgemeinen Information und Orientierung. Er stellt keine Rechtsberatung dar und kann eine individuelle juristische Prüfung im Einzelfall nicht ersetzen. Für Entscheidungen, die auf Basis dieses Beitrags getroffen werden, übernimmt die Autorin keine Haftung.