Warum KI-Nutzung im Job zur Karrierebremse werden kann

von Lisa Scharf

Künstliche Intelligenz (KI) gilt als zentrale Schlüsseltechnologie des 21. Jahrhunderts. Sie verspricht Produktivitätssteigerung, Prozessoptimierung und neue kreative Möglichkeiten. Doch aktuelle Forschungsergebnisse deuten darauf hin, dass KI-Nutzung in manchen Kontexten nicht belohnt, sondern sogar negativ bewertet wird – mit möglichen Folgen für Karrierechancen, Gleichstellung und Unternehmenserfolg.

 

Wenn identische Arbeit unterschiedlich bewertet wird

Eine Studie von Oguz A. Acar et al., veröffentlicht in der Harvard Business Review (August 2025) und in den Proceedings of the National Academy of Sciences (PNAS), untersuchte dieses Phänomen experimentell. 1.026 Ingenieur*innen bewerteten denselben Python-Code – der einzige Unterschied: einer Gruppe wurde gesagt, der Code sei mit KI-Unterstützung erstellt worden.

Das Ergebnis: Die Kompetenz der vermeintlichen KI-Nutzenden wurde im Schnitt um 9% niedriger eingeschätzt, obwohl die Codequalität identisch war. Besonders betroffen waren Frauen (−13%) und ältere Beschäftigte. Die Autoren vermuten, dass soziale Stereotype und Vorurteile hier eine Rolle spielen. Die begleitende PNAS-Studie mit über 4.400 Teilnehmenden weist darauf hin, dass KI-Nutzende häufig als weniger fleißig und weniger kompetent wahrgenommen werden – vor allem von Kolleg*innen, die selbst keine KI verwenden.

 

Mögliche psychologische Mechanismen

·       Unkenntnis der Technologie: Wer selbst keine KI nutzt, weiß oft nicht, wie viel Fachwissen nötig ist, um KI sinnvoll einzusetzen. Sie unterschätzen den Aufwand und nehmen an, die Maschine erledige „alles von selbst“.

·       Verlustangst und Konkurrenzdenken: Manche sehen in KI eine Bedrohung für den eigenen Arbeitsplatz oder Status. Wer KI nutzt, wird dann als „gefährlicher Konkurrent“ gesehen – und abgewertet, um das eigene Ansehen zu schützen.

·       Traditionelle Leistungsnormen: In manchen Unternehmen gilt harte, sichtbare Arbeit als Beweis für Kompetenz. Wenn KI Arbeitsschritte unsichtbar und schneller erledigt, passt das nicht ins gewohnte Bild von „Leistung“.

·       Stereotype über Technologieeinsatz: Vorhandene Vorurteile – etwa, dass „Abkürzungen“ unverdient sind – können sich auf die Beurteilung übertragen, selbst wenn die Abkürzung effizient und sinnvoll ist.

·       Fehlende Erfolgsgeschichten: Wenn es im Unternehmen noch wenige positive Beispiele für erfolgreiche KI-Nutzung gibt, fehlt der soziale Beweis, dass KI ein professionelles Arbeitsmittel ist und nicht nur „Hilfe für Unerfahrene“.

Aus arbeitspsychologischer Sicht könnte dies die intrinsische Motivation mindern und zu „vermeidender Anpassung“ führen – Beschäftigte verzichten auf den Einsatz von KI, um Karrierenachteile zu vermeiden.

 

Hypothesen zur Überwindung der „versteckten Strafe“

Die Forschungsergebnisse legen nahe, dass Unternehmen durch folgende Maßnahmen das Risiko negativer Karriereeffekte bei KI-Nutzung verringern könnten:

  • Sensibilisierung von Führungskräften und Nicht-Nutzern für die strategischen Vorteile von KI.
  • Anpassung der Leistungsbewertung, um Output und Ergebnisqualität unabhängig vom eingesetzten Werkzeug zu messen.
  • Gezielter Kulturwandel hin zu Team- statt Individualbewertungen, um Stigmatisierung zu reduzieren.
  • Prüfung der Transparenzpflicht: In manchen Kontexten könnte die Offenlegung von KI-Nutzung unbeabsichtigte Nachteile verursachen.

Diese Ansätze sind Hypothesen, die in der Praxis weiter erprobt und wissenschaftlich evaluiert werden sollten.

 

Fazit

Die „versteckte Strafe“ für KI-Nutzung ist ein potenzielles Hemmnis für Innovation. Sie verdeutlicht, dass technologischer Fortschritt allein nicht genügt – ebenso entscheidend ist der Abbau sozialer und psychologischer Barrieren. Unternehmen, die eine faire Anerkennungskultur etablieren, könnten nicht nur Effizienzgewinne realisieren, sondern auch Vielfalt und Inklusion fördern.

 

Quelle: Acar, O. A., Gai, P. J., Tu, Y., & Hou, J. (2025). The Hidden Penalty of Using AI at Work. Harvard Business Review.