Direkt zum Inhalt

Für wen arbeitet eigentlich die KI? Ein Fahrplan für mehr Mitbestimmung

zuletzt aktualisiert: 19. January 2026

Wenn Algorithmen über Beförderungen, Schichtpläne oder gar Kündigungen entscheiden, verschieben sich die Machtverhältnisse in der Arbeitswelt – oft zulasten der Beschäftigten. Die gesetzliche Regulierung konzentriert sich darauf, die größten Gefahren zu bannen. Doch das reicht nicht, argumentieren Anne Mollen und Lukas Hondrich in ihrem Working Paper »Von der Risikobegrenzung zur Beteiligung – automatisierte Entscheidungssysteme am Arbeitsplatz«. Es braucht einen grundlegenden Wandel hin zu echter Mitgestaltung durch die Beschäftigten.

Zwei Holzwege in der Natur, die voneinander abzweigen.
Risikobegrenzung oder Beteiligung? Bei der Einführung von KI am Arbeitsplatz stehen wir vor einer Richtungsentscheidung für eine faire Arbeit der Zukunft.IMAGO / YAY Images

tl;dr: Das Wichtigste in Kürze

  • Die Blackbox im Personalbüro: Algorithmische Entscheidungssysteme (ADM-Systeme) sind oft intransparent und verstärken das Machtungleichgewicht zwischen Arbeitgebern und Beschäftigten.

  • Das zu kleine Sicherheitsnetz: Regulierungsansätze richten den Fokus auf die Minimierung von Risiken, schaffen aber keine Möglichkeiten zur aktiven Mitgestaltung.

  • Die Idee: Beschäftigte und ihre Vertreter*innen müssen von Anfang an in den gesamten Lebenszyklus der Systeme eingebunden werden. Das Konzept der »Machine-Learning-Pipeline« bietet dafür einen konkreten Fahrplan.

Weg von der reinen Risikovermeidung, hin zu echter Beteiligung

Lebensläufe automatisch durchsuchen, die Arbeitsleistung von Beschäftigten evaluieren, Schichten zuteilen oder sogar über Kündigungen entscheiden. Dafür kommen in Unternehmen immer häufiger Algorithmische Entscheidungssysteme zum Einsatz, sogenannte ADM-Systeme. Das sind softwarebasierte Werkzeuge, die auf Basis von Datenanalysen Entscheidungen im Unternehmen treffen oder vorbereiten. Sie versprechen Effizienz und Objektivität, doch für die Betroffenen sind sie oft intransparent und ihre Entscheidungen kaum nachvollziehbar.

Das wirft eine drängende Frage auf: Wie können Menschen im Unternehmen sicherstellen, dass ihre Rechte mit Blick auf diese Systeme geschützt werden? Oder anders formuliert: »Wo gibt es mit Blick auf People-Analytics-Systeme für Beschäftigteninteressen einen Handlungs- und Gestaltungsspielraum?«. Es braucht an dieser Stelle einen Paradigmenwechsel: Weg von der reinen Risikovermeidung, hin zu echter Beteiligung.

»Vielmehr muss das Problem angegangen werden, dass die Stimmen der Beschäftigten, wenn ADM-Systeme am Arbeitsplatz eingeführt werden, keinen Eingang in die Entscheidungsfindung dieser Systeme finden.«
Anne Mollen und Lukas Hondrich über Algorithmische Entscheidungssysteme am Arbeitsplatz

Das EU-Sicherheitsnetz: Wichtig, aber nicht ausreichend

In der KI-Verordnung der EU werden Systeme im Personalwesen als »Hochrisikoanwendungen« eingestuft. Das ist ein wichtiger Schritt. Er verpflichtet Hersteller zu mehr Transparenz, menschlicher Aufsicht und grundlegenden Schutzmaßnahmen. Die Stoßrichtung ist klar: die größten Risiken wie Diskriminierung oder massive Überwachung sollen begrenzt werden.

Doch dieser Ansatz der »Risikobegrenzung« greift zu kurz. Er behandelt KI-Systeme wie fertige Produkte, deren Schönheitsfehler im Nachhinein ausgebessert werden müssen. Er versetzt die Beschäftigten aber nicht in die Lage, diese Werkzeuge von Grund auf mitzugestalten und ihre eigenen Interessen einzubringen.

Fakten zu algorithmischen Entscheidungssystemen und KI am Arbeitsplatz

  • Technik- und Machtfrage

    Die Einführung von KI am Arbeitsplatz ist keine rein technische Entscheidung. Sie verändert Macht- und Wissensverhältnisse im Unternehmen langfristig.

  • Der unsichtbare Manager

    2022 wusste jede*r dritte Beschäftigte in Europa nicht, ob eine KI am Arbeitsplatz eingesetzt wird.

  • Gefährliche Rückkopplung

    KI-Systeme können Vorurteile nicht nur abbilden, sondern durch Feedback-Schleifen aktiv verstärken. Wenn ein System bestimmte Gruppen bevorzugt, lernt es aus diesen positiven Ergebnissen und bevorzugt sie in Zukunft noch stärker.

Die Machine-Learning Pipeline

Die Entwicklung und der Einsatz von algorithmischen Entscheidungssystemen am Arbeitsplatz ist für Außenstehende oft eine Blackbox, deren Logik nur Datenexpert*innen verstehen. Wie kann man einen Prozess mitgestalten, den man kaum versteht?

Genau hier erweist sich ein Konzept aus der Technikentwicklung selbst als überraschend nützlicher Hebel: die sogenannte »Machine-Learning-Pipeline« (ML-Pipeline). Dieses Modell ist im Grunde ein Fahrplan. Es zerlegt den gesamten Lebenszyklus eines KI-Systems – von der ersten Idee bis zur laufenden Wartung – in klar voneinander getrennte Phasen. Und in jeder Phase öffnen sich Fenster für die Beteiligung von Beschäftigtenvertreter*innen.

Phase 1: Problemdefinition – Wofür brauchen wir die KI überhaupt?

Ganz am Anfang steht die Frage nach dem Zweck. Soll ein System wirklich den internen Stellenmarkt verwalten? Hier werden die Weichen gestellt. Beschäftigtenvertreter*innen müssen an den Tisch, um zu diskutieren, ob der Einsatz einer KI für das definierte Problem überhaupt sinnvoll ist und welche langfristigen Folgen dies für Machtstrukturen und Informationsflüsse im Unternehmen hat.

Phase 2: Daten – Womit wird der Algorithmus gefüttert?

Jedes KI-System ist nur so gut wie die Daten, mit denen es trainiert wird. Hier geht es um zentrale Fragen der Überwachung und Privatsphäre. Welche Daten werden erhoben? Werden historische Ungleichheiten (z.B. weniger Frauen in Führungspositionen) einfach fortgeschrieben? Beschäftigte müssen ein Mitspracherecht haben, welche Daten genutzt werden dürfen, um Fairness zu gewährleisten und die Arbeitskultur positiv zu gestalten.

Phase 3: Modelltraining – Wie lernt das System, was »richtig« ist?

In dieser technischen Phase wird die »Zielfunktion« des Systems definiert – also das Ziel, auf das der Algorithmus hin optimiert wird. Soll er nur die effizienteste Person für eine Stelle finden? Oder sollen auch Kriterien wie die Förderung von Karrierewegen oder die Reduzierung von Geschlechter-Bias eine Rolle spielen? Die Festlegung dieser Ziele ist ein entscheidender Punkt, um die Interessen der Beschäftigten im Kern des Systems zu verankern.

Phase 4: Einsatz – Wer hat das letzte Wort?

Wenn das System live geht, ist menschliche Aufsicht essenziell. Es braucht klare Regeln, wie mit den Ergebnissen des Algorithmus umgegangen wird. Werden Vorschläge einfach durchgewunken oder kritisch geprüft? Um Machtmissbrauch zu verhindern, müssen Richtlinien für menschliche Interventionen im Vorfeld festgelegt und deren Einhaltung überwacht werden.

Phase 5: Retraining – Wie verhindern wir, dass das System aus dem Ruder läuft?

Ein KI-System ist nie »fertig«. Es lernt weiter und wird mit neuen Daten trainiert. Dabei besteht die Gefahr von negativen Feedback-Schleifen: Wenn das System bestimmte Personengruppen bevorzugt, werden diese in Zukunft noch häufiger vorgeschlagen, was die ursprüngliche Schieflage verstärkt. Daher braucht es einen kontinuierlichen Aufsichtsprozess, in den Beschäftigtenvertreter*innen fest eingebunden sind.

»Risikobegrenzung bietet einen unverzichtbaren, grundlegenden Schutz, aber darüber hinaus müssen Beschäftigte in die Lage versetzt werden, ihre Interessen bei der Entwicklung von ADM-Systemen integrieren zu können.«
Anne Mollen und Lukas Hondrich über Algorithmische Entscheidungssysteme am Arbeitsplatz

Wissensaufbau für die Mitgestaltung algorithmischer Systeme

Der Weg zu einer gerechten KI am Arbeitsplatz ist kein Sprint. Er erfordert einen grundlegenden Wissensaufbau bei Beschäftigten und ihren Interessenvertretungen. Sie müssen keine Programmierer*innen werden, aber ein grundlegendes Verständnis der Prozesse entwickeln, um die richtigen Fragen zu stellen.

Nur so wird es auch möglich, Menschen, deren Arbeit durch automatisierte Entscheidungssysteme verändert wird, nicht nur vor deren Risiken zu schützen, sondern sie von den Möglichkeiten dieser Tools profitieren zu lassen.

FAQ – Die wichtigsten Fragen zu KI und Mitbestimmung am Arbeitsplatz

Über die Methodik

Das Working Paper basiert auf einer Analyse von gewerkschaftlichen Debatten und Positionen zur Regulierung von ADM-Systemen in acht europäischen Ländern. Zudem wurden Stellungnahmen von Gewerkschaften, Dachverbänden und zivilgesellschaftlichen Organisationen zur geplanten KI-Verordnung der EU ausgewertet. Die Autor*innen haben auf dieser Grundlage und im Austausch mit Stakeholdern Konzepte entwickelt, wie die Interessen von Beschäftigten in der Praxis berücksichtigt werden können.

Über die Autor*innen des Working Papers

  • Dr. Anne Mollen

    ist Senior Research Associate bei AlgorithmWatch sowie Projektmanagerin für »SustAln – Der Nachhaltigkeitsindex für Künstliche Intelligenz«. Der Schwerpunkt ihrer Arbeit liegt auf automatisierten Entscheidungssystemen in der Arbeitswelt und bei Online-Plattformen.

  • Lukas Hondrich

    war wissenschaftlicher Mitarbeiter bei AlgorithmWatch und arbeitete zu Arbeitsrechten und KI-Regulierung in der EU. Er untersuchte Mitbestimmungsmöglichkeiten von Beschäftigten und Gewerkschaften bei datenbasierten soziotechnischen Systemen.