Werden wir dümmer, wenn wir KI benutzen?



Liebe KI-Interessierte,

neulich nach einem Vortrag vor Unternehmern kam in der Q&A eine Frage, die mich noch eine Weile beschäftigt hat.

Ein Unternehmer mittleren Alters hob die Hand und fragte etwas nachdenklich:

„Werden wir nicht alle dümmer, wenn wir ständig KI benutzen?"

Der Raum wurde kurz still. Nicht weil die Frage provokant war. Sondern weil sie viele offenbar selbst schon gedacht, aber nicht ausgesprochen hatten.

Ich konnte keine einfache, kurze Antwort geben. Denn eine solche wäre falsch gewesen.

Was ich stattdessen getan habe: Ich habe die Frage auseinandergenommen. Nicht um sie zu entkräften, sondern weil sie beides verdient: ernst genommen zu werden und gleichzeitig nicht überdramatisiert zu werden.

Was tatsächlich für ein „Verdummen” spricht

Beginnen wir mit den Argumenten, die man nicht wegwischen sollte.

1. KI begünstigt kognitive Bequemlichkeit

Aus der Kognitionsforschung ist gut belegt: Menschen reduzieren Denkaufwand, wenn Systeme zuverlässig Ergebnisse liefern (sog. Cognitive Offloading). Das kennen wir vom Taschenrechner.

Generative KI verschärft diesen Effekt, weil sie uns nicht nur unterstützt, sondern gleich auch fertige Denkprodukte liefert: Argumentationslinien, Entscheidungsoptionen, Bewertungen.

Das Risiko dabei ist: Unser Denken endet nicht, weil wir es nicht mehr können, sondern weil es uns nicht mehr nötig erscheint.

2. Plausibilität ersetzt Prüfung

Ein zweiter, gut dokumentierter Effekt ist der sog. Automation Bias. Automatisierte Vorschläge werden weniger hinterfragt, seltener korrigiert, häufiger übernommen, besonders wenn sie sprachlich souverän wirken.

Künstliche Intelligenz erzeugt genau diese Wirkung. Sie klingt sicher und konsistent, auch wenn die Annahmen dahinter fragil sind.

3. Fähigkeiten können tatsächlich verkümmern

Ja, eigenständiges Formulieren, analytisches Herleiten, argumentatives Durchdenken baut sich ab, wenn es langfristig nicht genutzt wird. In Organisationen zeigt sich das zuerst bei Nachwuchskräften, die nie lernen mussten, ohne Vorstrukturierung zu denken.

Und das ist kein theoretisches Risiko. Es ist vielmehr ein reales Kompetenzproblem, wenn es nicht aktiv adressiert wird.

Was ebenso klar gegen ein pauschales „Verdummen” spricht

1. Denken verschwindet nicht, sondern es verlagert sich

Die Forschung zeigt konsistent: Menschen verlieren keine allgemeinen Denkfähigkeiten. Sie denken weniger dort, wo Aufgaben ausgelagert werden und mehr dort, wo Bewertung, Auswahl und Verantwortung gefragt sind.

KI ersetzt eine mögliche Ausführung, aber sie ersetzt kein Urteil.

2. KI kann nachweislich die Denkqualität erhöhen

Studien zur Human-AI-Collaboration zeigen: Die Entscheidungsqualität steigt messbar, wenn KI für Perspektivwechsel, Gegenargumente, Explizierung von Annahmen oder den Vergleich von Entscheidungslogiken genutzt wird.

Das setzt allerdings voraus, dass KI als Denkwerkzeug fungiert, nicht nur als Antwortlieferant.

3. Das eigentliche Problem ist daher nicht KI, sondern Führung

Organisationen „verdummen” nicht, weil sie KI nutzen. Sie verdummen, wenn niemand definiert, wo Denken verpflichtend bleibt.

Fehlende Entscheidungsklarheit, unklare Verantwortlichkeiten, mangelnde Urteilskompetenz: all das sind indes Führungsprobleme, keine Technologieprobleme.

Verdummen ist möglich. Aber nicht zwangsläufig.

Drei konkrete Konsequenzen, die mir in Bezug auf die Frage wichtig sind:

1. Denkverantwortung explizit machen.

Organisationen müssen klar definieren, wo Künstliche Intelligenz eigenständig wirken darf bzw. wo menschliches Urteil zwingend greifen muss und welche Entscheidungen nie durchgewunken werden dürfen.

Wenn diese Klarheit fehlt, entsteht schleichende Denkdelegation. Diese Themen gehören u.a. gehört in eine KI-Strategie und KI-Governance.

2. Kompetenzen bewusst erhalten.

Eigenständiges Argumentieren, kritisches Prüfen, begründetes Entscheiden, ja, das muss aktiv trainiert bleiben. Nicht als einmaliges verpflichtendes Schulungsevent, sondern als Teil des Arbeitsalltags.

3. KI-Nutzung als Denkprozess gestalten.

Gute KI-Nutzung zwingt zu expliziten Fragestellungen, zu einer Trennung von Entwurf und Bewertung und zu dokumentierten Entscheidungslogiken. Das erhöht zwar kurzfristig den Aufwand, verhindert langfristig aber den Qualitätsverlust.

Zurück zu meinem Vortrag.

Der Mann hat nach meiner Antwort genickt. Nicht erleichtert, eher so, als hätte er bestätigt bekommen, was er ohnehin ahnte.

Oder anders formuliert:

Das eigentliche Problem ist nicht die KI.

Es ist vielmehr die Frage, wie in Organisationen gefördert wird, dass wir unser Denken nicht verlernen und Künstliche Intelligenz so nutzen, dass wir durch sie schlauer und nicht dümmer werden.

So, das war’s wieder für heute.

Schöne Grüße und ein weiterhin neugierig-gelassenes Führen mit KI

Ihre

Beate Freuding

P.S. Alle bisherigen Ausgaben finden Sie hier: https://ki-briefing.kit.com/

P.P.S. Wenn Sie jemanden kennen, den das Thema hier auch interessieren könnte, dann leiten Sie den Newsletter gern weiter.


Sie möchten mit mir sprechen?

Sehr gern. Sie erreichen mich unter freuding@digital-leader.eu oder telefonisch unter 0152 05188026. Oder vereinbaren Sie direkt einen Gesprächstermin: https://www.digital-leader.eu/orientierungsgespraech


Und wenn Sie mehr als nur mitlesen wollen – so kann's weitergehen:

The AI Leader

Ein persönlicher Denk- und Entscheidungsraum, um Künstliche Intelligenz einzuordnen, Verantwortung zu klären und sicher zu entscheiden. Keine Schulung, keine Tools, keine Umsetzung, sondern Orientierung auf Entscheiderebene.

The AI Organization
Ein klarer Entscheidungsrahmen für den strategischen Umgang mit KI. Für Organisationen, in denen KI bereits Thema ist, aber ohne klare Linie.


Wenn Sie einen Themenwunsch für das KI-Briefing haben – schreiben Sie mir gern: ki-briefing@digital-leader.eu

Hinweis: Dieser Beitrag ist in enger Zusammenarbeit mit KI geschrieben worden und persönlich von Dr. Beate Freuding, Geschäftsführerin von The Digital Leader, kuratiert. Der Beitrag dient der allgemeinen Information und Orientierung. Er stellt keine Rechtsberatung dar und kann eine individuelle juristische Prüfung im Einzelfall nicht ersetzen. Für Entscheidungen, die auf Basis dieses Beitrags getroffen werden, übernimmt die Autorin keine Haftung.

The Digital Leader, Soltauer Str. 13, Lüneburg, Niedersachsen 21335
Unsubscribe · Preferences

KI Briefing

Jeden Mittwoch direkt in Ihrem Postfach. Für Führungskräfte, die Künstliche Intelligenz verstehen, einordnen und nutzen wollen. Jetzt abonnieren und nichts verpassen.

Read more from KI Briefing

Liebe KI-Interessierte, ich erlebe gerade in vielen Gesprächen einen ähnlichen Moment: Ich frage: „Haben Sie eigentlich schon eine KI-Strategie?“ Die Antwort ist oft: „Noch nicht. Dafür ist es bei uns noch zu früh.“ Und das ist nachvollziehbar. Denn was aktuell passiert, fühlt sich nicht nach „Strategie“ an: Ein Team nutzt ChatGPT für Texte. Ein Bereich testet ein Tool. Die IT schaut sich etwas an. Das wirkt eher wie Ausprobieren als wie eine Entscheidung. Nur: Genau daraus entsteht bereits...

Liebe KI-Interessierte, eine Beobachtung vorweg, die für das Verständnis entscheidend ist: Künstliche Intelligenz arbeitet mit Wahrscheinlichkeiten. Das System berechnet, welches Wort – und welcher Gedankengang – mit hoher Wahrscheinlichkeit gut passt. Das Ergebnis sind Antworten, die plausibel wirken. Nicht automatisch solche, die richtig sind. Das ist kein Fehler, sondern Systemlogik. Und dazu gehört auch ein zweiter Punkt, der oft missverstanden wird: Was wir als „Halluzinationen“...

Liebe KI-Interessierte, ich hatte vor Kurzem ein Gespräch mit einem Geschäftsführer, das aktuell recht typisch ist. Er sagte: „Wir sind beim Thema KI eigentlich schon ganz gut unterwegs.“ Ich fragte: „Was heißt das konkret?“ Die Antwort kam sofort: „Die Teams nutzen ChatGPT, im Marketing testen wir ein spezielles Tool und die IT schaut sich gerade Copilot an.“ Kurze Pause. Dann habe ich eine zweite Frage gestellt: „Und wer entscheidet bei Ihnen, was davon im Ergebnis bleiben soll – und was...