KI nutzen, menschliche Expertise bewahren
Forschende aus aller Welt rücken wie jüngst Prof. Dr. Jin Gerlach von der Uni Passau ein Thema in den Mittelpunkt, das für die Industrie hochrelevant ist: Was passiert mit dem Wissenshaushalt von Unternehmen, wenn künstliche Intelligenz immer mehr wissensintensive Aufgaben übernimmt?
16. März 2026Teilen
Gerlach, Inhaber des Lehrstuhls für Wirtschaftsinformatik mit Schwerpunkt Daten- und Informationsmanagement an der Universität Passau, verortet seine Forschung an der Schnittstelle von datenbasierter Wertschöpfung, Digitalisierung und organisationaler Transformation. Seine gemeinsam mit Donald Lange Anfang Februar 2026 in der „Academy of Management Review“ veröffentlichte Arbeit legt nahe, dass KI in Organisationen nicht nur Effizienz erzeugen, sondern zugleich menschliche Expertise entwerten kann. Genau darin liegt die strategische Brisanz: Modelle altern, Prozesse verändern sich, Daten driften – und für die Erneuerung der Systeme wird später genau jenes Fachwissen gebraucht, das zuvor durch Automatisierung ausgedünnt wurde.
Governance-Problem mit unmittelbarer wirtschaftlicher Relevanz
Für die Industrie ist das keine abstrakte Theorie, sondern ein Governance-Problem mit unmittelbarer wirtschaftlicher Relevanz. Wenn Qualitätsprüfung, Diagnose, Planung, Forecasting oder Fehleranalyse zunehmend von KI-Systemen übernommen werden, sinkt in vielen Rollen die Notwendigkeit, Domänenwissen aktiv anzuwenden. Was kurzfristig als Produktivitätsgewinn erscheint, kann mittelfristig zu einer Wissensfalle werden: Beschäftigte verlieren Routinen, Nachwuchskräfte erwerben bestimmte Fähigkeiten gar nicht mehr vollständig, und erfahrene Experten scheiden aus, ohne dass ihr implizites Wissen ausreichend reproduziert wurde. Gerlachs These verschiebt die Debatte damit weg von der reinen Automatisierungslogik hin zur Frage, wie Unternehmen ihre langfristige Lern-, Kontroll- und Erneuerungsfähigkeit sichern.
Kompetenzarchitektur des Unternehmens im Blick behalten
Diese Sicht wird inzwischen durch andere aktuelle Forschungsstränge deutlich gestützt. Besonders aufschlussreich ist eine 2025 veröffentlichte Studie von Microsoft Research, die auf der CHI-Konferenz vorgestellt wurde. Die Forschenden analysierten mehr als 300 Wissensarbeiter und rund 900 konkrete GenAI-Nutzungssituationen. Ihr Ergebnis: Je stärker das Vertrauen in generative KI, desto geringer fiel häufig das berichtete kritische Denken aus; je höher dagegen die eigene Selbstsicherheit der Nutzer, desto eher blieb kritische Prüfung erhalten. Zudem beschreiben die Autoren eine Rollenverschiebung von eigenständiger Problembearbeitung hin zu Verifikation, Integration und Überwachung. Für industrielle Organisationen ist das bemerkenswert, weil es Gerlachs Kerngedanken empirisch unterfüttert: Wenn Beschäftigte fachliche Probleme immer seltener selbst durchdringen und stattdessen überwiegend KI-Ergebnisse plausibilisieren, verändert sich nicht nur der Prozess, sondern die Kompetenzarchitektur des Unternehmens.
KI kann gleichzeitig Leistungsbeschleuniger und Lernbremse sein
Noch deutlicher wird die Problematik in der aktuellen Lernforschung. Eine 2025 in PNAS veröffentlichte Studie von Hamsa Bastani und Koautoren zeigt, dass generative KI Lernende während der Nutzung durchaus leistungsfähiger machen kann, die Kompetenzentwicklung aber leidet, wenn das System ohne geeignete Leitplanken eingesetzt wird. Besonders aufschlussreich ist der Befund, dass die Leistung nach Wegfall des KI-Zugangs unter das Niveau einer Vergleichsgruppe fiel, die nie Zugriff auf das Tool hatte. Für die Entwicklung der Industrie ist das ein wichtiger Hinweis: Hohe kurzfristige Output-Werte dürfen nicht mit nachhaltigem Kompetenzaufbau verwechselt werden. KI kann also gleichzeitig Leistungsbeschleuniger und Lernbremse sein – genau das stützt Gerlachs Warnung vor schleichender Wissensentwertung in Unternehmen.
Wert menschlicher Fachkräfte neu verorten
Auch neuere Debatten zur verlässlichen Delegation an KI-Agenten weisen in dieselbe Richtung. Aktuelle Arbeiten aus dem Jahr 2026 betonen, dass Delegation nur dort relativ robust funktioniert, wo Ergebnisse leicht und kostengünstig überprüfbar sind. In schlecht verifizierbaren, offenen oder stark kontextabhängigen Aufgaben scheint menschliche Expertise bislang unverzichtbar zu sein, weil Fehler sonst entweder zu spät erkannt werden oder mit großem Aufwand korrigiert werden müssen. Für die Industrie folgt daraus, dass der Wert menschlicher Fachkräfte nicht sinkt, sondern an anderer Stelle verortet werden muss – weg von der ausschließlichen Bearbeitung standardisierter Routinen, hin zu Urteil, Validierung, Ausnahmebehandlung und Systemerneuerung. Genau deshalb ist Wissensverlust so gefährlich. Er schwächt nicht nur die operative Belegschaft, sondern die Fähigkeit des Unternehmens, KI überhaupt dauerhaft sicher und wirtschaftlich zu betreiben.
Unternehmen brauchen belastbare Human-AI-Konfigurationen
Dass diese Perspektive nicht bloß akademische Vorsicht ist, zeigt schließlich auch der regulatorisch-praktische Rahmen. So wird beispielsweise im NIST AI Risk Management Framework, dem freiwilligen Leitfaden des US-amerikanischen National Institute of Standards and Technology (NIST), ausdrücklich betont, dass KI-Risiken über den gesamten Lebenszyklus gemessen, überwacht und unter menschlicher Verantwortung gemanagt werden müssen. Gerade weil Einsatzkontexte, Datenlagen und Fehlermuster nicht statisch sind, brauchen Unternehmen belastbare Human-AI-Konfigurationen, klare Verantwortlichkeiten und eine Kultur des kritischen Hinterfragens. Damit bestätigt auch die Governance-Seite implizit Gerlachs Grundannahme: Wer menschliche Expertise zu stark abbaut, verliert nicht nur Know-how, sondern auch die Fähigkeit, Drift, Fehlanpassung und Qualitätsverlust in KI-Systemen rechtzeitig zu erkennen.
Erfahrungswissen, Diagnosefähigkeit und Lerngelegenheiten erhalten
Die aktuelle Arbeit von Prof. Jin Gerlach steht damit nicht isoliert, sondern an einem zentralen Forschungsknotenpunkt der KI-Transformation. Seine These wird inzwischen von empirischen Befunden zu sinkendem kritischem Denken, von Lernstudien zu Kompetenzverlust unter KI-Nutzung und von Governance-Rahmen zur notwendigen menschlichen Aufsicht gestützt. Für Entscheider in der Industrie ergibt sich daraus eine klare Konsequenz: KI-Initiativen dürfen nicht nur nach Automatisierungsgrad und Effizienz bewertet werden, sondern sollten die komplette Wissensbilanz berücksichtigen. Unternehmen, die Produktivität steigern und zugleich Erfahrungswissen, Diagnosefähigkeit und Lerngelegenheiten erhalten, bauen Resilienz auf. Unternehmen, die nur substituieren, riskieren mittelfristig den Verlust genau jener Fähigkeiten, die ihre KI-Systeme morgen tragfähig machen sollen.
Aussteller zum Thema
Sprecher zum Thema
Events zum Thema
Interesse an News zu Ausstellern, Top-Angeboten und den Trends der Branche?
Browser Hinweis
Ihr Webbrowser ist veraltet. Aktualisieren Sie Ihren Browser für mehr Sicherheit, Geschwindigkeit und eine optimale Darstellung dieser Seite.
Browser aktualisieren