Liebe KI-Interessierte,
neulich nach einem Vortrag vor Unternehmern kam in der Q&A eine Frage, die mich noch eine Weile beschäftigt hat.
Ein Unternehmer mittleren Alters hob die Hand und fragte etwas nachdenklich:
„Werden wir nicht alle dümmer, wenn wir ständig KI benutzen?"
Der Raum wurde kurz still. Nicht weil die Frage provokant war. Sondern weil sie viele offenbar selbst schon gedacht, aber nicht ausgesprochen hatten.
Ich konnte keine einfache, kurze Antwort geben. Denn eine solche wäre falsch gewesen.
Was ich stattdessen getan habe: Ich habe die Frage auseinandergenommen. Nicht um sie zu entkräften, sondern weil sie beides verdient: ernst genommen zu werden und gleichzeitig nicht überdramatisiert zu werden.
Was tatsächlich für ein „Verdummen” spricht
Beginnen wir mit den Argumenten, die man nicht wegwischen sollte.
1. KI begünstigt kognitive Bequemlichkeit
Aus der Kognitionsforschung ist gut belegt: Menschen reduzieren Denkaufwand, wenn Systeme zuverlässig Ergebnisse liefern (sog. Cognitive Offloading). Das kennen wir vom Taschenrechner.
Generative KI verschärft diesen Effekt, weil sie uns nicht nur unterstützt, sondern gleich auch fertige Denkprodukte liefert: Argumentationslinien, Entscheidungsoptionen, Bewertungen.
Das Risiko dabei ist: Unser Denken endet nicht, weil wir es nicht mehr können, sondern weil es uns nicht mehr nötig erscheint.
2. Plausibilität ersetzt Prüfung
Ein zweiter, gut dokumentierter Effekt ist der sog. Automation Bias. Automatisierte Vorschläge werden weniger hinterfragt, seltener korrigiert, häufiger übernommen, besonders wenn sie sprachlich souverän wirken.
Künstliche Intelligenz erzeugt genau diese Wirkung. Sie klingt sicher und konsistent, auch wenn die Annahmen dahinter fragil sind.
3. Fähigkeiten können tatsächlich verkümmern
Ja, eigenständiges Formulieren, analytisches Herleiten, argumentatives Durchdenken baut sich ab, wenn es langfristig nicht genutzt wird. In Organisationen zeigt sich das zuerst bei Nachwuchskräften, die nie lernen mussten, ohne Vorstrukturierung zu denken.
Und das ist kein theoretisches Risiko. Es ist vielmehr ein reales Kompetenzproblem, wenn es nicht aktiv adressiert wird.
Was ebenso klar gegen ein pauschales „Verdummen” spricht
1. Denken verschwindet nicht, sondern es verlagert sich
Die Forschung zeigt konsistent: Menschen verlieren keine allgemeinen Denkfähigkeiten. Sie denken weniger dort, wo Aufgaben ausgelagert werden und mehr dort, wo Bewertung, Auswahl und Verantwortung gefragt sind.
KI ersetzt eine mögliche Ausführung, aber sie ersetzt kein Urteil.
2. KI kann nachweislich die Denkqualität erhöhen
Studien zur Human-AI-Collaboration zeigen: Die Entscheidungsqualität steigt messbar, wenn KI für Perspektivwechsel, Gegenargumente, Explizierung von Annahmen oder den Vergleich von Entscheidungslogiken genutzt wird.
Das setzt allerdings voraus, dass KI als Denkwerkzeug fungiert, nicht nur als Antwortlieferant.
3. Das eigentliche Problem ist daher nicht KI, sondern Führung
Organisationen „verdummen” nicht, weil sie KI nutzen. Sie verdummen, wenn niemand definiert, wo Denken verpflichtend bleibt.
Fehlende Entscheidungsklarheit, unklare Verantwortlichkeiten, mangelnde Urteilskompetenz: all das sind indes Führungsprobleme, keine Technologieprobleme.
Verdummen ist möglich. Aber nicht zwangsläufig.
Drei konkrete Konsequenzen, die mir in Bezug auf die Frage wichtig sind:
1. Denkverantwortung explizit machen.
Organisationen müssen klar definieren, wo Künstliche Intelligenz eigenständig wirken darf bzw. wo menschliches Urteil zwingend greifen muss und welche Entscheidungen nie durchgewunken werden dürfen.
Wenn diese Klarheit fehlt, entsteht schleichende Denkdelegation. Diese Themen gehören u.a. gehört in eine KI-Strategie und KI-Governance.
2. Kompetenzen bewusst erhalten.
Eigenständiges Argumentieren, kritisches Prüfen, begründetes Entscheiden, ja, das muss aktiv trainiert bleiben. Nicht als einmaliges verpflichtendes Schulungsevent, sondern als Teil des Arbeitsalltags.
3. KI-Nutzung als Denkprozess gestalten.
Gute KI-Nutzung zwingt zu expliziten Fragestellungen, zu einer Trennung von Entwurf und Bewertung und zu dokumentierten Entscheidungslogiken. Das erhöht zwar kurzfristig den Aufwand, verhindert langfristig aber den Qualitätsverlust.
Zurück zu meinem Vortrag.
Der Mann hat nach meiner Antwort genickt. Nicht erleichtert, eher so, als hätte er bestätigt bekommen, was er ohnehin ahnte.
Oder anders formuliert:
Das eigentliche Problem ist nicht die KI.
Es ist vielmehr die Frage, wie in Organisationen gefördert wird, dass wir unser Denken nicht verlernen und Künstliche Intelligenz so nutzen, dass wir durch sie schlauer und nicht dümmer werden.
So, das war’s wieder für heute.
Schöne Grüße und ein weiterhin neugierig-gelassenes Führen mit KI
Ihre
Beate Freuding
P.S. Alle bisherigen Ausgaben finden Sie hier: https://ki-briefing.kit.com/
P.P.S. Wenn Sie jemanden kennen, den das Thema hier auch interessieren könnte, dann leiten Sie den Newsletter gern weiter.
Und wenn Sie mehr als nur mitlesen wollen – so kann's weitergehen:
The AI Leader
Ein persönlicher Denk- und Entscheidungsraum, um Künstliche Intelligenz einzuordnen, Verantwortung zu klären und sicher zu entscheiden. Keine Schulung, keine Tools, keine Umsetzung, sondern Orientierung auf Entscheiderebene.
The AI Organization
Ein klarer Entscheidungsrahmen für den strategischen Umgang mit KI. Für Organisationen, in denen KI bereits Thema ist, aber ohne klare Linie.
Wenn Sie einen Themenwunsch für das KI-Briefing haben – schreiben Sie mir gern: ki-briefing@digital-leader.eu
Hinweis: Dieser Beitrag ist in enger Zusammenarbeit mit KI geschrieben worden und persönlich von Dr. Beate Freuding, Geschäftsführerin von The Digital Leader, kuratiert. Der Beitrag dient der allgemeinen Information und Orientierung. Er stellt keine Rechtsberatung dar und kann eine individuelle juristische Prüfung im Einzelfall nicht ersetzen. Für Entscheidungen, die auf Basis dieses Beitrags getroffen werden, übernimmt die Autorin keine Haftung.