Direkt zum Inhalt

Journalismus und KI: Perfect Match, oder?

zuletzt aktualisiert: 5. February 2026

Der journalistische Alltag ist oft ein Kampf gegen die Uhr: Deadlines, Routineaufgaben und immer weniger Personal. Künstliche Intelligenz verspricht hier die große Entlastung. Das Working Paper »Künstliche Intelligenz und Beschäftigte im Journalismus« von Henry Steinhau, Matthieu Binder, Merlin Münch und Lena Biskup taucht tief in die Realität der Redaktionen ein und zeigt: Die eigentliche Herausforderung ist nicht die Technik, sondern die Frage, wem sie dient – dem Journalismus oder der Jahresbilanz?

Nahaufnahme einer Journalistin von hinten vor einer Filmkamera, dahinter unscharf mehrere Personen.
Unersetzlich oder bald überflüssig? Der Einsatz vor Ort bleibt das Herzstück journalistischer Arbeit – auch im Zeitalter der KI.IMAGO / Panthermedia

Das Wichtigste in Kürze

  • Die Hoffnung: Journalist*innen können KI als Werkzeug nutzen, um sich von zeitraubenden Routinearbeiten zu befreien und mehr Zeit für Recherche und Kreativität zu haben.

  • Die Realität: Die Einführung geschieht oft ohne klare Strategie und ohne die Beschäftigten wirklich einzubeziehen. Statt Entlastung erleben viele Journalist*innen neuen Druck, zusätzliche Aufgaben und eine wachsende Unsicherheit über die Zukunft ihres Berufs.

  • Die Kernsorge: Die größte Angst ist nicht der Jobverlust, sondern der Verlust von journalistischer Glaubwürdigkeit und die Austauschbarkeit in einer Flut von KI-Content.

  • Die Forderung: Damit die Chancen der KI wirklich genutzt werden und die Glaubwürdigkeit des Journalismus gesichert wird, braucht es jetzt klare Regeln, eine faire Beteiligung aller Beschäftigten und starke Mitbestimmung.

Und dank KI dann endlich eine leere To-Do-Liste

Der Traum ist verlockend: Eine KI transkribiert Interviews, fasst lange Berichte zusammen, optimiert Texte für Suchmaschinen und schlägt Social-Media-Teaser vor. All die ungeliebten Routineaufgaben, die wertvolle Zeit fressen, erledigt die Maschine. Da bleibt dann mehr Raum für das, was guten Journalismus ausmacht: investigative Recherche, kritisches Nachhaken und kreative Erzählformen. KI soll so Einiges automatisieren, damit mehr Zeit für die wichtigen Dinge bleibt.

Die große Chance der Effizienzsteigerung hat eine gefährliche Kehrseite. Denn wo Arbeit schneller erledigt werden kann, wächst oft nicht der Freiraum, sondern der Druck, noch mehr zu produzieren. Die Beschleunigung führt potenziell zu einer neuen Form der Arbeitsverdichtung und einem erhöhten Leistungsdruck. Statt die gewonnene Zeit in die Tiefe einer Geschichte zu investieren, könnte die Erwartungshaltung der Arbeitgeber*innen an den Output steigen.

Verschärft wird dieses Problem durch die Art und Weise, wie KI-Tools oft eingeführt werden: häufig ohne klare Strategie und ohne die Beschäftigten wirklich einzubeziehen. Dieser Mangel an Mitbestimmung führt dazu, dass die Werkzeuge nicht primär zur Entlastung der Mitarbeitenden, sondern zur Steigerung des Outputs angeschafft werden. Die Bedürfnisse der Redakteur*innen bleiben auf der Strecke.

»In jedem Fall sollte gründlich und vielfältig geprüft werden, ob der Einsatz bestimmter KI-Tools wirklich einen journalistischen Mehrwert bietet – oder ob er womöglich sogar mehr Arbeit macht.«
Henry Steinhau et al. über KI im Journalismus

Die neuen Lasten im Arbeitsalltag

Der Blick mit kritischen Augen zeigt schnell: KI ist im Journalismus weit davon entfernt, ein magischer Knopf für weniger Arbeit zu sein. Zwar existieren KI-Anwendungen für sehr spezifische Aufgaben, die Teil der journalistischen Arbeit sind. Das ist spannend. Allerdings bringen diese Anwendungen auch neue, ganz konkrete Anforderungen und Belastungen in den journalistischen Alltag. Die Folgen für die Beschäftigten sind schon jetzt spürbar:

  • Permanenter Anpassungsdruck: Der Umgang mit KI-Tools muss gelernt werden. Journalist*innen müssen sich plötzlich mit »Prompt-Engineering« auseinandersetzen. Das erfordert Zeit und Übung, die im eng getakteten Redaktionsalltag oft fehlt.

  • Neue Fehlerquellen, alte Verantwortung: KI-Systeme machen Fehler. Die finale Verantwortung für die Korrektheit der Inhalte liegt aber weiterhin bei den Journalist*innen. Das bedeutet: Jeder von einer KI generierte Satz muss einem Faktencheck unterzogen werden – ein zusätzlicher Arbeitsschritt, der Zeit kostet.

  • Stellenabbau unter neuem Vorwand: In einigen Verlagen wird KI bereits als Begründung für Stellenstreichungen genutzt. Oftmals dient die neue Technologie dabei als willkommener Vorwand, um ohnehin geplante Sparmaßnahmen umzusetzen und ganze Abteilungen zu reduzieren.

Wenn Wahrheit verschwimmt und Beliebigkeit Einzug hält

Die tiefere Sorge, die viele Journalist*innen umtreibt, geht weit über den eigenen Arbeitsplatz hinaus. Es ist die Angst vor dem schleichenden Verlust der Glaubwürdigkeit ihres gesamten Berufsstandes. In einer Welt, die mit KI-generierten Falschnachrichten und täuschend echten Bildern geflutet wird, droht die journalistische Arbeit in der Beliebigkeit zu versinken.

»Große Gefahren für den Journalismus entstehen zudem, wenn durch KI-Tools-Nutzungen massenhaft ungeprüfte Inhalte verbreitet werden [...]«
Henry Steinhau et al. über KI im Journalismus

Die Gefahr ist, dass die Unterscheidbarkeit von qualitätsgesichertem Journalismus zu beliebigem KI-Content für viele Menschen verloren geht. Wenn die Grenzen verschwimmen, leidet das Vertrauen in die Medien insgesamt. Diese Entwicklung zwingt den Journalismus zu einer existenziellen Selbstbefragung: Wenn standardisierte Tätigkeiten von einer Maschine erledigt werden können, was ist dann der unersetzliche, menschliche Kern der Arbeit? Die Antwort liegt in der Stärkung der eigenen Qualitätsmerkmale: ethische Standards, sorgfältige Prüfung, Einordnung und Transparenz.

Qualität hoch oder Kosten runter?

Letztlich läuft alles auf eine zentrale Frage hinaus: Wird KI in Redaktionen und Medienhäusern so implementiert, dass sie den Qualitätsjournalismus stärkt und die Arbeitsbedingungen verbessert? Oder wird sie zu einem reinen Instrument der Kostenreduktion und Produktionssteigerung? Die Antwort darauf hängt maßgeblich davon ab, ob es gelingt, die Beschäftigten und ihre Expertise in den Prozess einzubinden. Ohne diese Einbeziehung droht eine Entwicklung, in der die Technologie nicht den Menschen dient.

Was jetzt getan werden muss: Ein klarer Rahmen für die KI

Damit der Pakt mit der Maschine gelingen kann, braucht es klare und verbindliche Regeln. Aus den Erkenntnissen der Untersuchung leiten sich konkrete Forderungen an die Medienhäuser, die Politik und die Branche selbst ab:

  • Mitbestimmung ins Zentrum rücken: Beschäftigte und ihre Betriebsräte müssen von Anfang an und umfassend in die Auswahl, Einführung und Gestaltung von KI-Systemen einbezogen werden. Das ist nicht nur fair und hilfreich, sondern auch gesetzlich verankert.

  • In Qualifikation und klare Leitlinien investieren: Alle Mitarbeitenden brauchen Zugang zu hochwertigen Schulungen. Gleichzeitig müssen Redaktionen verbindliche Regeln aufstellen, die den ethischen und sorgfältigen Umgang mit KI festschreiben, inklusive einer klaren Kennzeichnungspflicht.

  • Freie Mitarbeiter*innen nicht vergessen: Freie Journalist*innen sind ein zentraler Bestandteil der Branche. Sie dürfen beim Zugang zu Lizenzen, Tools und Weiterbildungen nicht abgehängt werden, um ihre Konkurrenzfähigkeit zu sichern.

  • Einen fairen Rechtsrahmen schaffen: Der Gesetzgeber ist gefordert, das Urheberrecht so anzupassen, dass Journalist*innen fair vergütet werden, wenn ihre Arbeit zum Training von KI-Modellen genutzt wird. Es darf nicht sein, dass sie zu »unbezahlten Lieferanten von Rohdaten« für Tech-Konzerne werden.

Mehr zum Thema

Fragen und Antworten zu Journalismus und KI

Über die Methodik

Die Kurzstudie verfolgt einen qualitativen Forschungsansatz. Die Grundlage bilden 19 leitfadengestützte Expert*innen-Interviews, die von Januar bis März 2024 mit festangestellten und freien Journalist*innen aus unterschiedlichen Branchen, sowie mit Verbandsvertreter*innen geführt wurden. Ergänzend wurde eine Textanalyse aktueller journalistischer Richtlinien und Positionspapiere zum Umgang mit KI durchgeführt.

Über die Autor*innen der Studie

  • Henry Steinhau

    ist Journalist und im iRights.Lab im Team Forschung und Projekte tätig.

  • Matthieu Binder

    ist Volljurist und arbeitet beim iRights.Lab im Team Forschung und Projekte mit Schwerpunkten in KI, Datenschutz und Urheberrecht.

  • Merlin Münch

    ist Techniksoziologe, Formatentwickler und Redakteur und gehört beim iRights.Lab zum Team Forschung und Projekte.

  • Lena Biskup

    ist Werkstudentin beim iRights.Lab und studiert Jura mit dem Schwerpunkt Medienrecht.