No risk, no fun?! KI-Systeme bewerten, um sie verantwortlich und gerecht gestalten zu können | LABOR.A® 2025
zuletzt aktualisiert: 9. February 2026
KI-basierte Systeme sind im Betrieb längst angekommen. Nicht angekündigt, nicht vorbereitet, oft einfach genutzt. Genau an diesem Punkt setzt diese Session an. Sie beginnt nicht mit Visionen, sondern mit einer nüchternen Beobachtung: KI entfaltet Wirkung, bevor sie bewertet wird. Und damit entsteht ein Problem, das sich nicht mehr aufschieben lässt.
Schon in den ersten Minuten wird klar, worum es geht. Personalauswahl, Chatbots, interne Daten, Entscheidungsunterstützung – KI ist vielseitig einsetzbar. Und jede dieser Anwendungen bringt eigene Risiken mit sich. Die Frage ist nicht, ob man sie sieht, sondern ob man sie rechtzeitig erkennt.
Fortschritt erzeugt neue Verwundbarkeit
Fortschritt, so die Perspektive von Detlef Gerst (politischer Sekretär, IG Metall Vorstand), ist nie neutral. Jede technische Neuerung bringt neue Möglichkeiten und Nachteile mit sich.
KI steht für Effizienz und Entlastung. Gleichzeitig ermöglicht sie neue Formen der Kontrolle, der Manipulation und der Entwertung von Arbeit. Hier setzt der Begriff der Kritikalität an: Er beschreibt nicht die Technik selbst, sondern ihre möglichen Folgen für Menschen, Gesellschaft und Umwelt. Maßstab sind Werte wie Menschenwürde, Selbstbestimmung, Sicherheit, Demokratie und Gerechtigkeit.
Detlef Gerst macht deutlich, warum bestehende Regulierungsansätze in dieser Situation nicht ausreichen. Der EU AI Act bewertet Risiken vor dem Einsatz. Doch entscheidend ist, wie KI im Betrieb tatsächlich genutzt wird: in welchem Kontext, mit welchen Daten, durch wen und zu welchem Zweck. Erst dort zeigt sich, ob ein System harmlos bleibt oder problematisch wird.
Eine Publikumsfrage zeigt die Ambivalenz
Marcel Thiel (Moderation, wissenschaftlicher Mitarbeiter und Berater, IMU-Institut Berlin) bittet das Publikum um eine spontane Einschätzung: Wie riskant sind KI-gestützte Chatbots im Betrieb – grün, gelb oder rot? Die Abstimmung erfolgt per Handzeichen im Saal und parallel im Chat.
Das Ergebnis ist eindeutig. Die große Mehrheit ordnet die Chatbots als »gelb« ein, sie gelten weder als harmlos noch als klar abzulehnen. Damit wird sichtbar, was viele Betriebe derzeit beschäftigt: KI ist bereits im Einsatz, während verlässliche Maßstäbe zur Einschätzung ihrer Risiken noch fehlen.
Die Zurückhaltung hat Gründe, denn Risiko ist kein fixer Wert. Es hängt davon ab, welche Daten genutzt werden, wie qualifiziert Beschäftigte sind, wie hoch der Rationalisierungsdruck ist und in welchem Arbeitskontext ein System eingesetzt wird. Dasselbe KI-System kann unterstützen – oder Arbeitsprozesse unbemerkt verschieben.
Ordnung schaffen im Graubereich
Um diese Unsicherheit handhabbar zu machen, stellt Marcel Thiel eine Risikomatrix vor. Sie verbindet zwei Dimensionen: die mögliche Schadenshöhe und die Wahrscheinlichkeit ihres Eintritts. Daraus ergeben sich abgestufte Risikoklassen – von minimal bis inakzeptabel.
Entscheidend ist dabei nicht die mathematische Genauigkeit, sondern die Funktion im Betrieb. Die Matrix soll helfen, systematisch über Risiken zu sprechen: Welche Schäden sind denkbar? Wie viele Beschäftigte sind betroffen? Lassen sich Fehlentscheidungen korrigieren? Und wie wahrscheinlich ist es, dass sie eintreten?
Aus dieser Einordnung folgt eine klare Logik für die Praxis: niedrig riskante Systeme können schneller eingeführt werden, hochriskante müssen intensiver geprüft und geregelt werden. Systeme mit nicht beherrschbaren Risiken sollen gar nicht erst zum Einsatz kommen.
Die Praxis zeigt die Grenzen der Bewertung
Wie sich das im betrieblichen Alltag bewährt, schildert Clemens Suerbaum (Gesamtbetriebsratsvorsitzender, Nokia). Bei Nokia existiert eine unternehmensweite Bewertung von KI-Systemen. Viele Anwendungen scheitern bereits früh – vor allem an Fragen der Datenhoheit, Haftung oder rechtlichen Verantwortung.
Gleichzeitig bleibt Unsicherheit. Selbst umfangreiche Bewertungsverfahren können nicht vollständig vorwegnehmen, wie KI bestimmte Arbeitsprozesse verändert, wo zusätzliche Belastung entsteht oder welche Tätigkeiten an Bedeutung verlieren.
Clemens Suerbaum beschreibt, warum Pilotphasen, Evaluationen und klare Abbruchkriterien entscheidend sind – und wie schwierig es ist, belastbare Rückmeldungen aus der Belegschaft zu bekommen. Oft fehlt nicht der Wille, sondern die Orientierung: Was ist ein relevantes Risiko? Und wer ist dafür ansprechbar?
Technik bewerten heißt Beteiligung organisieren
Gegen Ende verschiebt sich der Fokus der Diskussion. Risikobewertung funktioniert nicht allein über Matrizen und Checklisten. Sie setzt Wissen voraus, gemeinsame Schulungen und Austausch in den Gremien. Vor allem aber braucht sie Vertrauen in der Belegschaft.
KI wirkt nicht isoliert, sondern in sozialen Strukturen. Wer Risiken bewerten will, muss Beteiligung ermöglichen und unterschiedliche Erwartungen ernst nehmen. Technische Instrumente können Orientierung geben – ersetzen aber keine Auseinandersetzung darüber, wie Arbeit gestaltet werden soll.
Deutlich wird, dass eine Risikoeinstufung nur eine grobe Orientierung leisten kann. Sie ist abstrakter als die betriebliche Realität und kann Fehlentwicklungen nicht ausschließen. Bewertung, Pilotanwendungen und eine erneute Betrachtung im konkreten Einsatz bleiben notwendig.
Warum dieses Video sehenswert ist
Die Diskussion zeigt, wie Entscheidungen über KI unter realen betrieblichen Bedingungen getroffen werden: mit unvollständigem Wissen, widersprüchlichen Erwartungen und unter hohem Zeitdruck. Es wird sichtbar, warum es keine einfachen Antworten gibt – und warum der Versuch, Risiken systematisch zu bewerten, trotzdem unverzichtbar ist.
Wer verstehen will, wie KI im Betrieb tatsächlich verhandelt wird, bekommt hier einen ungewöhnlich offenen Einblick in die komplexe Praxis der Risikobewertung im Unternehmen.
Über dieses Video
Die Session »No risk, no fun?! KI-Systeme bewerten, um sie verantwortlich und gerecht gestalten zu können« fand am 01.10.2025 auf der LABOR.A® statt.
Speaker*innen:
Detlef Gerst, IG Metall
Clemens Suerbaum, Nokia
Moderation: Marcel Thiel, IMU-Institut Berlin
Die LABOR.A® ist die hybride Plattformkonferenz der Hans-Böckler-Stiftung zum Thema »Arbeit der Zukunft«.