In einer internen Erhebung befragte Anthropic 132 Softwareingenieure, wie KI-Werkzeuge ihre Arbeit verändert haben. Die Antworten waren vor allem wegen einer Beobachtung aufschlussreich, die sich durch fast alle Rückmeldungen zog: Viele beschrieben, dass sich ihr Beruf deutlich gewandelt habe. Statt selbst Code zu schreiben, steuern sie nun KI-Agenten, die Code schreiben. Die Produktivität stieg. Gleichzeitig aber äußerten einige Sorge über den schwindenden handwerklichen Aspekt ihrer Arbeit und die Furcht vorm Nachlassen der eigenen Fähigkeiten. Dazu noch ein sehr menschlicher Aspekt, den ein Programmierer so auf den Punkt brachte: "I like working with people and it is sad that I need them less now."
Diese Beobachtung verweist auf eine Verschiebung, die weit über die Softwareentwicklung hinausgeht und die im ersten Artikel dieser Serie beschriebene organisationale Dimension um eine individuelle ergänzt. Dort ging es darum, warum KI-Initiativen an Organisationen scheitern. Hier geht es darum, was mit der kognitiven Arbeit selbst passiert, wenn KI Teile der Ausführung übernimmt.
Dabei zeigt sich: Die Verschiebung betrifft nicht nur, welche Arbeit übrig bleibt, sondern auch, wie sie erlernt wird, was sie für die kognitive Belastung bedeutet und wen sie begünstigt.
Die Urteilsverschiebung
Generative KI verschiebt den Wertschöpfungskern kognitiver Arbeit von der Ausführung zur Urteilsbildung. Ein Berater, der früher zwei Tage an einer Marktanalyse schrieb, bekommt heute in einer Stunde einen brauchbaren Entwurf von einer KI. Ein deutlicher Zeitgewinn, aber was er nun mit dieser Zeit anfangen muss, ist dichter und anspruchsvoller als das, was er vorher tat: den Entwurf auf Plausibilität prüfen, fehlende Kontexte ergänzen, Annahmen hinterfragen, Schlussfolgerungen bewerten. Tätigkeiten, für die der Berater vorher während des Rechercheprozesses ein Gespür entwickelt hätte, muss nun im Nachgang konstruiert werden.
KI kann dabei auch die Urteilsbildung unterstützen: Sie zeigt Optionen auf, liefert Gegenargumente, fasst Daten zusammen. Das macht das menschliche Urteil aber nicht einfacher, sondern anspruchsvoller, weil mehr Informationen, Optionen und Geschwindigkeit zu verarbeiten sind. Die Urteilsverschiebung begünstigt dabei systematisch jene, die bereits über Erfahrung und Wissen verfügen. Sie haben die Grundlagen, die KI verstärken kann. Eine experimentelle Studie mit 319 Wissensarbeitern zeigt genau diese Asymmetrie: Wer seinen eigenen Fähigkeiten vertraut, denkt bei KI-Ergebnissen kritischer nach, allerdings zu höheren kognitiven Kosten. Wer vor allem der KI vertraut, denkt weniger nach.
Das hat einen konkreten Effekt auf die Qualität der Arbeit: Schlechte Anforderungen produzierten auch früher schon schlechte Ergebnisse, aber langsam. Heute produzieren sie schlechte Ergebnisse, aber in Sekunden. KI eliminiert dabei die Ausführungsreibung, die unklare Anforderungen entweder vor der Ausführung bewahrt hat oder sie zumindest verborgen hat, denn die Anforderungen konnten sich auf dem Weg noch entwickeln.
Das Entschleunigungsparadox
Die Urteilsverschiebung wird durch einen zweiten Effekt verschärft, der auf den ersten Blick paradox wirkt: Repetitive Tätigkeiten, die KI übernimmt, dienten häufig als kognitives Scaffolding. Sie gaben Menschen Zeit und Struktur zum Denken.
Am Beispiel der Consulting-Branche: Wenn die nächtliche Arbeit an Präsentationen wegfällt, entfällt nicht nur eher nervige Routine, sondern auch deutlich mehr. Das Erstellen einer Folie war nie nur das Erstellen einer Folie. Es war der Kontext, in dem Juniors das Geschäft lernten, in dem Feedback en passant stattfand, in dem Mustererkennung wuchs. Die Automatisierung entfernt nicht nur die Aufgabe, sondern auch den Lernmechanismus, der in ihr verborgen war.
Lernpsychologisch ist dieser Effekt gut dokumentiert. Robert Bjork beschreibt Desirable Difficulties als Lernhindernisse, die kurzfristig bremsen, aber langfristig das Lernen vertiefen: Selbstgenerierung, verteiltes Üben, aktiver Abruf. KI eliminiert genau diese Schwierigkeiten. Was kurzfristig als Effizienzgewinn erscheint, kann langfristig ein Lernhindernis sein. In Vygotskys Terminologie: KI ist permanentes Scaffolding, das nie entfernt wird. Und Scaffolding, das nie entfernt wird, verhindert das eigenständige Lernen.
Das Entschleunigungsparadox wirkt unterschiedlich für Anfänger und Experten. Für Experten, deren Lernphase hinter ihnen liegt, ist die Automatisierung befreiend: Sie können sich auf die Arbeit konzentrieren, für die ihre Erfahrung den größten Hebel hat. Für Anfänger ist sie riskant: Die Aufgaben, an denen sie hätten wachsen müssen, fallen weg, bevor sie an ihnen gewachsen sind.
Die kognitive Obergrenze
Wenn KI die Ausführung eliminiert und die verbleibende Arbeit aus reiner Urteilsbildung besteht, stellt sich die Frage, ob es eine Obergrenze dafür gibt, wie viele kognitive Hochlast-Entscheidungen ein Mensch pro Zeiteinheit treffen kann?
Die Forschung sagt ja. Lai und Gershman (2024) formalisieren diese Grenze informationstheoretisch: Menschen vereinfachen ihre Entscheidungsstrategien systematisch unter kognitiver Last. Unter Zeitdruck ignorieren sie Kontextinformationen und fallen auf Standardaktionen zurück. Das ist kein Motivationsproblem und kein Zeichen von Schwäche, sondern eine rationale Anpassung an begrenzte kognitive Kapazität.
Folgendes lässt sich für KI-unterstützte Arbeit daraus ableiten: Wenn die Ausführungszeit wegfällt und die Dichte der Entscheidungen pro Zeiteinheit steigt, reagieren Menschen vorhersagbar mit vereinfachtem Entscheiden, mit Rückfall auf Gewohnheiten, mit dem Übersehen von Kontextinformationen. Das Gehirn operiert bereits an seinen Kapazitätsgrenzen. KI ändert daran nichts, weil sie keine kognitiven Ressourcen hinzufügt. Sie ändert nur, wofür die vorhandene Kapazität eingesetzt wird.
Mehr KI-Unterstützung führt also nicht zu proportional mehr Urteilsleistung. Es gibt einen Punkt, ab dem zusätzliche Automatisierung die Entscheidungsqualität verschlechtert, weil der Mensch mit der verdichteten Urteilsarbeit nicht mehr Schritt hält. Die kognitive Obergrenze ist kein technisches, sondern ein biologisches Limit.
KI als Verstärker
Die hier beschriebenen Mechanismen haben Auswirkungen, die über den Einzelnen hinausgehen: Wenn Einstiegsaufgaben wegfallen und Lernpfade in Branchen dünner werden, ist das nicht nur ein Kapazitätsproblem.
Ein randomisiertes Experiment mit über 1.100 Teilnehmern quantifiziert den Effekt: KI reduziert den Produktivitätsunterschied zwischen höher und niedriger Gebildeten um 75 Prozent. Auf den ersten Blick ein demokratisierender Effekt. Doch die Studie zeigt auch: Sobald die KI nicht mehr verfügbar war, blieben die zugrundeliegenden Kompetenzunterschiede unverändert bestehen. Die Performance stimmte, die Kompetenz nicht.
Das ist der Kern der Asymmetrie: KI hebt das Leistungsniveau von Anfängern, ohne dass die zugrundeliegende Fähigkeit wächst. Eine systematische Übersicht über 35 Studien zu Automation Bias zeigt: Professionelle Expertise und Domänenwissen sind die stärksten Schutzfaktoren gegen unkritische Übernahme von KI-Empfehlungen. Also ausgerechnet das, was Anfängern in der Regel fehlt. Diejenigen, die am meisten von KI profitieren könnten, sind zugleich am anfälligsten dafür, falsche Ergebnisse nicht zu erkennen.
Für erfahrene Fachkräfte wirkt KI als Verstärker: Sie verfügen über das Urteilsvermögen, das KI-Outputs einordnet, und die Erfahrung, die Fehler zu erkennen. Für Berufseinsteiger fehlt beides, und die Gelegenheiten, es aufzubauen, werden durch die Automatisierung der Einstiegsaufgaben weniger. Die Technologie, die Kompetenz demokratisieren soll, könnte den Aufbau von Kompetenz langfristig erschweren.
Was folgt daraus?
Die Urteilsverschiebung, das Entschleunigungsparadox und die kognitive Obergrenze zeichnen zusammen ein Bild, das differenzierter ist als die übliche Debatte über KI und Arbeit. KI ersetzt nicht pauschal menschliche Arbeit und sie wertet sie auch nicht pauschal auf. Sie verdichtet die verbleibende Arbeit auf das, was kognitiv besonders anspruchsvoll ist, und erzeugt dabei eine Asymmetrie, die Erfahrene stärkt und Unerfahrene vor neue Herausforderungen stellt.
Für Organisationen bedeutet das: Die im vorherigen Artikel beschriebene Investition in Menschen statt in Technologie ist nicht optional, sondern die Voraussetzung dafür, dass KI-Augmentierung überhaupt funktioniert. Die Verschiebung zur Urteilsbildung wirft für Organisationen auch die Frage auf, ob kognitive Last bei der Reorganisation von Arbeit stärker mitbedacht werden müsste. Für Individuen stellt sich eine Folgefrage: Wenn Urteilsfähigkeit der neue Kern ist und Erfahrung den KI-Hebel bestimmt, welche Kompetenzprofile sind dann für die Zukunft gut aufgestellt? Dieser Frage widmet sich der nächste Artikel dieser Serie.