KI im Journalismus

1. Von der Recherchehilfe zum voll automatisierten Text

Seit über 35 Jahren bin ich als Journalist tätig und habe den Wandel der Branche von der Schreibmaschine bis zur digitalen Berichterstattung hautnah miterlebt. Insbesondere in den letzten Jahren hat die Künstliche Intelligenz (KI) einen Quantensprung vollzogen. Sie eröffnet völlig neue Möglichkeiten – von der Recherche bis hin zu vollautomatisiert geschriebenen Texten. KI im Journalismu ist noch nicht selbstverständlich, gehört aber inzwischen zu meinem Arbeitsalltag.

In diesem Beitrag zeige ich, wie KI‑gestützte Werkzeuge Rechercheprozesse beschleunigen (etwa bei der Bildsuche oder Datenanalyse). Thema ist, wie Texte besser entworfen werden und schließlich: wie können Texte automatisiert werden.

Dabei geht es nicht nur um technische Aspekte und Tools, sondern auch um redaktionelle Entscheidungen:

  • Welche Inhalte eignen sich für KI‑Unterstützung?
  • Wie gewährleisten wir Qualitäts‑ und Faktensicherheit?
  • Und wo liegen die Grenzen von Algorithmen, wenn es um journalistische Tiefe und ethische Bewertung geht?

Dieser Artikel bietet einen umfassenden Überblick zum aktuellen Stand der KI im Journalismus. Er beschreibt praktische Einsatzszenarien und diskutiert Risiken sowie regulatorische Rahmenbedingungen. So verschaffen Sie sich nicht nur einen Einblick in die Technologie, sondern erhalten auch konkrete Handlungsempfehlungen für Ihren redaktionellen Alltag.


2. Aktueller Stand der KI im Journalismus

Der Einsatz von KI im Journalismus hat in den letzten Jahren erheblich an Fahrt gewonnen. Das Whitepaper Künstliche Intelligenz im Journalismus der Plattform Lernende Systeme dokumentiert, dass deutsche Redaktionen inzwischen systematisch KI‑basierte Recherche‑Tools einsetzen und erproben – etwa für automatisierte Bildrecherche und Datenanalyse. Die UNESCO stellt in ihrem Handbuch Reporting on artificial intelligence: a handbook for journalism ausführliche Leitlinien zur Integration von KI‑Workflows bereit. Sie unterstreicht dabei die Notwendigkeit, technische Standards mit ethischen Vorgaben zu verknüpfen . Ebenfalls zeigt der Digital News Report 2024 des Reuters Institute, dass KI für 41 Prozent der befragten Newsroom‑Manager inzwischen zu den unverzichtbaren Werkzeugen zählt. Das gilt insbesondere für Routine‑ und Datenaufgaben .

Stand jetzt: Börsennachrichten, Wetteraussichten und KI-Beilage

Ein praxisnahes Beispiel lieferten die Mailänder Redakteure von Il Foglio: Ab dem 18. März 2025 erschien für einen Monat täglich ein vierseitiger Abschnitt, der komplett von KI generiert wurde – und gilt damit als weltweit erster Schritt in Richtung vollautomatisierter Beilage. Zudem erstellen Redaktionen bereits Wetterwarnungen und Börsennachrichten automatisiert mit KI. Sie lassen sich leicht in narrative Texte überführen, da sie auf strukturierten, breit verfügbaren Daten basieren.


3. Regulatorische Rahmenbedingungen und ethische Leitlinien für KI im Journalismus

3.1 EU‑AI‑Act und nationale Mediengesetze

Am 1. Januar 2025 ist der Europäische AI‑Act in Kraft getreten. Das Gesetz legt erstmals verbindliche Vorgaben für risikobasierte KI‑Anwendungen fest. Hochrisiko‑Anwendungen wie Gesichtserkennung unterliegen strengen Zertifizierungs- und Transparenzpflichten, während generative Modelle in Redaktionen als „mittleres Risiko“ eingestuft werden. Anbieter müssen Informationspflichten gegenüber Nutzerinnen und Nutzern beachten.

„Wer sich zur Einhaltung des Pressekodex verpflichtet, trägt die presseethische Verantwortung für alle redaktionellen Beiträge, unabhängig von der Art und Weise der Erstellung. Diese Verantwortung gilt auch für künstlich generierte Inhalte.“

Manfred Protze, Sprecher des Presserats (18.09.2024)

In Deutschland ergänzt der Pressekodex des Deutschen Presserats diese Pflicht: Er gilt laut einer Präambel‑Ergänzung auch für KI‑generierte Inhalte. Eine explizite Kennzeichnungspflicht für Texte existiert nicht, wohl aber automatisch erzeugte Bilder.

3.2 Code of Practice & Self‑Regulation in Newsrooms

Der Deutsche Journalisten‑Verband (DJV) forderte in seinem Positionspapier „Künstliche Intelligenz im Journalismus“ einen „sorgfältigen und differenzierten Umgang“ und legt neun Leitplanken fest, etwa zur Wahrung von Quellenschutz und Transparenz bei automatisierten Publikationen. Parallel veröffentlichte der Deutsche Fachjournalisten‑Verband (DFJV) im Juli 2024 einen praxisorientierten Leitfaden, der konkrete Checklisten für die redaktionelle Nutzung von KI bereitstellt – von der Kennzeichnung bis zur Qualitätssicherung. Auf EU‑Ebene liegt darüber hinaus der Entwurf eines Code of Practice on General‑Purpose AI vor, der Verantwortungsstandards für Entwickler und Anwender vorschlägt, unter anderem zu Transparenz, Fairness und Governance.

3.3 Datenschutz, Urheberrecht & Transparenz

KI‑Modelle lernen häufig an großen Mengen journalistischer Texte und Bilder. Der DJV verlangt deshalb eine angemessene Vergütung für Text‑ und Data‑Mining, um urheberrechtliche Ansprüche zu wahren . Zugleich müssen Redaktionen bei automatisierter Bild- und Textrecherche die Vorgaben der DSGVO beachten, insbesondere bei personenbezogenen Daten und sensiblen Informationen. Transparenz bleibt ein zentrales Prinzip: Lesende sollen erkennen können, in welchen Abschnitten KI‑Unterstützung erfolgte – sei es durch explizite Kennzeichnung oder Metadaten im Online‑Artikel.


4. Grundlagen für den KI‑Einsatz in Redaktionen

Der bloße Einsatz von Tools wie ChatGPT, DALL·E oder Perplexity.ai reicht nicht aus, um KI nachhaltig in den redaktionellen Alltag zu integrieren. Vielmehr fehlt in vielen Newsrooms ein grundlegendes Verständnis dafür, wie KI‑Workflows aufgebaut, gesteuert und evaluiert werden müssen – von der Datenbeschaffung bis zur Qualitätskontrolle.

4.1 Technische Infrastruktur und Energie‑/CO₂‑Bilanz großer Modelle

Moderne Sprach‑ und Kreativmodelle laufen oft in der Cloud auf GPU‑Clustern. Doch die reine Bereitstellung von APIs schützt nicht vor Fehlern: Ohne klare Prozessbeschreibungen entstehen „Tool‑Silos“, in denen Mitarbeiterinnen und Mitarbeiter parallel verschiedene Services nutzen, ohne dass jemand den Gesamtworkflow überblickt. Ohne strukturierte Betriebsprozesse bleiben Effizienzgewinne ungenutzt.

4.2 Datenqualität, Datenmanagement & Fact‑Checking

KI benötigt hochwertige, konsistente Datensätze – ob Wetter‑Feeds, Börsenkurse oder Bildarchive. Das Whitepaper Künstliche Intelligenz im Journalismus betont, dass viele Redaktionen zwar Datenquellen erschließen, aber ohne standardisierte ETL‑Pipelines und Metadaten‑Governance arbeiten. Das führt zu unzuverlässigen Ergebnissen und Verzögerungen im Fact‑Checking. Nur mit festgelegten Prozessen zur Datenaufbereitung und Validierung lässt sich Qualität durchgängig sicherstellen.

4.3 Expertise, Weiterbildung & Change Management

Laut dem UNESCO‑Handbuch Reporting on artificial intelligence fehlt es in vielen Häusern an systematischen Schulungsprogrammen und klaren Verantwortlichkeiten für KI‑Projekte . Meine langjährige Erfahrung zeigt, dass ohne einen dokumentierten Prozessrahmen Kollegen zwar einzelne Tools ausprobieren, so aber keine kohärente Strategie entsteht. Ein ganzheitliches Change‑Management muss daher definieren, wer KI‑Anwendungen auswählt, mit welchen KPIs sie bewertet werden und wie Ergebnisse in redaktionelle Qualitätssicherung integriert werden. Workshops, „KI‑Champions“, „KI-Botschafter“ und fest verankerte Leitlinien sind unerlässlich, um das technische Potenzial in verlässliche, reproduzierbare Workflows zu überführen.


5. Analyse redaktioneller Prozesse

Bevor KI‑Tools in Newsrooms zum Einsatz kommen, müssen redaktionelle Abläufe detailliert auf Automatisierungspotenziale untersucht werden – nicht nur für schnelle Standardmeldungen, sondern gerade auch für komplexe Recherchen im Investigativ‑ und Fachjournalismus.

5.1 Automatisierungsfähige Arbeitsschritte

  • Routine‑Nachrichten: Wetter‑ und Börsenmeldungen, Sport‑Scores oder Verkehrsupdates basieren auf klar strukturierten Datensätzen und sind deshalb seit Jahren mit künstlicher Intelligenz automatisierbar.
  • Investigative Recherchen: Laut Journalism, Media and Technology Trends and Predictions 2025 ermöglicht KI das Zusammenführen und Auswerten verteilter Quellen, wodurch einst Wochen dauernde Untersuchungen in Tagen erfolgen können. Ein konkretes Beispiel liefert der Journalist Jaemark Tordecilla: Sein „COA Beat Assistant“ auf Basis eines Custom GPT reduzierte die Sichtung eines 46‑seitigen Prüfberichts um 80 Prozent der Zeit und hebt so das Potenzial für Audit‑ und Finanzrecherchen hervor .
  • Fachjournalistische Vertiefung: Die UNESCO ergänzt im Global Investigative Journalism Casebook und in ihrem Handbuch Reporting on artificial intelligence, dass KI‑gestützte Text‑ und Bildanalyse selbst in Spezialbereichen (zum Beispiel Umwelt‑Impact‑Reports, medizinische Studien, Gesetzestexte) Workflow‑Unterstützung bieten kann.

5.2 Auswahl der zu automatisierenden Textarten

Redaktionen treffen die Entscheidung anhand von:

  1. Datenstruktur: Je strukturierter eine Quelle (Datenfeeds, Tabellen, standardisierte Reports), desto leichter die Automatisierung.
  2. Frequenz: Tägliche bis quartalsweise Veröffentlichungen (Wetter, Quartalszahlen, Wahlergebnisse) rechtfertigen den initialen Setup‑Aufwand.
  3. Komplexität & Mehrwert: Für einfache Informativtexte sind rein datengetriebene KI‑Outputs geeignet; bei tiefgehenden Hintergrund‑ und Investigativberichten dient KI vor allem als Recherche‑ und Extraktionswerkzeug – die inhaltliche Bewertung verbleibt stets beim Menschen.

6. Tools und Modelle für KI im Journalismus im Vergleich

In diesem Abschnitt liegt der Schwerpunkt auf den OpenAI-Angeboten, ergänzt um gängige Wettbewerbsmodelle von Microsoft, Google, DeepSeek und Perplexity.AI.

Um die richtige KI-Lösung für Ihre Redaktion zu finden, sollte man vor allem drei Dinge vergleichen:

  1. Wie viel Text das Modell einmal verarbeiten kann (Kontextfenster)
  2. Wie viel der Einsatz kostet (Preis pro Textmenge)
  3. Welche Medienformen unterstützt werden (nur Text oder auch Bilder, Audio, Video)

Hier ist eine kurze, vereinfachte Übersicht der Angebote. Sie ist nicht vollständig, liefert aber nützliche Anhaltspunkte. (Stand der Informationen zu künstlicher Intelligenz ist der 23.04.2025, Angaben ohne Gewähr)

OpenAI (GPT-4, GPT-4o, 4o-mini-high)

  • GPT-4 kann bis zu 8 000 (bzw. 32 000) Text-Einheiten (“Token”) auf einmal bearbeiten und kostet ab etwa 3 Cent pro 1 000 Token.
  • GPT-4o („omni“) verarbeitet zusätzlich Bilder, Audio und Video und bringt bis zu 128 000 Token aufs Parkett – ideal für lange, multimediale Dokumente.
  • 4o-mini-high bietet dieselbe Funktionalität wie GPT-4o, ist aber so optimiert, dass es bis zu 40 Prozent weniger Strom braucht und bis zu 70 Prozent günstiger pro 1 000 Token ist.

Microsoft Copilot & Azure OpenAI

  • GitHub Copilot (für Code) nutzt GPT-4o mit bis zu 64 000 Token, praktisch für große Programmprojekte.
  • Microsoft 365 Copilot (in Office-Apps) steckt meist in GPT-3.5 oder GPT-4 mit 4 096 bzw. 8 192 Token und ist so in Word, Outlook & Co. integriert.
  • Über den Azure OpenAI Service bekommen Sie dieselben OpenAI-Modelle in eigener Cloud-Umgebung, mit flexiblen Preismodellen für 8 000 bis 32 000 Token.

Google Gemini

Gemini 1.5 Pro verarbeitet riesige Texte bis 1 000 000 Token (bald 2 000 000 Token) und kann Text, Bild und Audio kombinieren – oft sogar kostenlos im Google Cloud-Test.

DeepSeek

  • Open-Source-Modell mit 128 000 Token, optimiert für schnelle Antworten, die per API ähnlich wie OpenAI-Services genutzt werden können.

Perplexity.AI

  • Standard-Version liest bis zu 4 000 Token und hilft besonders bei schnellen Faktenchecks und Literaturrecherchen.
  • Pro-Version erweitert den Blick auf 32 000 Token (über GPT-4o oder Claude) und eignet sich für längere Texte und komplexere Anfragen.

Kurz gesagt:

  • Wollen Sie vor allem Text und zahlenbasierte Meldungen (Wetter, Börse)? Dann reicht oft GPT-4 oder Perplexity Standard.
  • Brauchen Sie Bilder, Audio oder längere Dokumente? Dann lohnt sich GPT-4o, 4o-mini-high oder Google Gemini.
  • Achten Sie immer auf die Token-Grenze (wie viel Text “reinkommt”), die Kosten pro Token und die Unterstützung für verschiedene Medien. So wählen Sie das Modell, das am besten zu Ihren Arbeitsabläufen und Ihrem Budget passt.
Was sind Token?
Ein Token ist eine Grundeinheit des Textes, die Wörter oder Wortteile (zum Beispiel Satzzeichen) umfassen kann. 1 000 Token entsprechen ungefähr 750 Wörtern. Die Anzahl verfügbarer Token bestimmt also, wie viel Text das Modell auf einmal verarbeiten oder erzeugen kann.

6.6 Prompt‑Engineering: Best Practices

Die Qualität der KI‑Ausgaben hängt maßgeblich von der Gestaltung der Eingabe‑Prompts ab. Das GPT‑4 Technical Report empfiehlt, klar getrennte system‑, user‑ und assistant‑Messages zu verwenden, um Modellverhalten gezielt zu steuern . Parameter wie temperaturetop_p und max_tokens erlauben eine feine Steuerung von Kreativität und Ausgabelänge, wie in der GPT‑4 System Card dokumentiert.


7. KI im Journalismus: Möglichkeiten

7.1 Recherche‑Support & Datenanalyse

KI‑gestützte Recherchetools automatisieren das Durchsuchen großer Dokumentenmengen – von Gesetzestexten über Studien bis hin zu Pressemitteilungen. Die UNESCO hebt im Handbuch Reporting on artificial intelligence hervor, dass Named‑Entity Recognition und automatische Zusammenfassungen die Vorlaufzeit für tiefgehende Recherchen um bis zu 70 Prozent reduzieren, indem sie relevante Passagen extrahieren und Zusammenhänge visualisieren . Laut Journalism, media and technology trends and predictions 2025 des Reuters Institute nutzen bereits über 56 Prozent der Redaktionen KI‑gestützte Datenvisualisierungen und Extraktionsskripte, um Analysezyklen von Wochen auf Tage zu verkürzen .

7.2 Automatisierte Texterstellung

Schreibassistenten wie GPT‑4o‑Modelle erzeugen in Echtzeit Standardtexte – Wetter‑ und Börsenberichte, Sportergebnisse oder Quartalsupdates. Reuters dokumentierte, dass die italienische Zeitung Il Foglio (wie oben beschreiben) einen Teil der Ausgabe komplett von KI erstellen ließ. Das verringerte nicht nur den Aufwand für Routineaufgaben, sondern steigerte auch die Auflage. Ähnlich entlastet die Associated Press ihre Redakteur:innen seit Jahren mit Automated Insights für 90 Prozent aller standardisierten Finanz‑ und Sportmeldungen.

7.3 Personalisierung & algorithmische Kuratierung

Empfehlungssysteme passen Inhalte an individuelle Nutzerpräferenzen an. Im Whitepaper Personalised News: How to balance technology and editorial integrity empfiehlt das Reuters Institute, Personalisierungsalgorithmen durch redaktionelle Leitplanken wie Diversitäts‑ und Relevanzkriterien zu ergänzen – ein Ansatz, den etwa Sveriges Radio mit seinem „Public Service Algorithm“ umgesetzt hat. Der Digital News Report 2024 ergab, dass 61 Prozent der befragten Redaktionen personalisierte Newsletter und KI‑basierte Empfehlungen testen, um die Leserbindung zu erhöhen.

7.4 Multimodale Anwendungen

KI‑Modelle wie GPT‑4o und 4o‑mini‑high verarbeiten neben Text auch Bilder, Audio und Video. Das Addendum zur GPT‑4o System Card beschreibt native Bildbefehle, mit denen automatisch Infografiken, Bildunterschriften und andere visuelle Elemente erstellt werden können. Die Journalism, media, and technology trends and predictions 2025 prognostiziert, dass 75 Prozent der Redaktionen in 2025 KI‑gestützte Audioformate (zum Beispiel automatisierte Podcasts) und 65 Prozent KI‑basierte Übersetzungs‑ und Untertitelungsdienste evaluieren, um multilinguale Inhalte effizient bereitzustellen .


8. Fehlerquellen und ethische Risiken

8.1 Halluzinationen & fehlende Faktenprüfung

KI‑Modelle wie zum Beispiel GPT‑4o und 4o‑mini‑high können plausible, aber falsche Aussagen („Halluzinationen“) erzeugen. Das GPT‑4 Technical Report betont, dass Modelle bei unklaren oder lückenhaften Prompts zu erfundenen Fakten neigen und daher eine konsequente menschliche Überprüfung unerlässlich ist.

8.2 Deepfakes, Desinformation & Fact‑Checking‑Tools

Das Foto zeigt einen KI-Fake: Donald Trump in einem Papstgewand
KI im Journalismus kann eine Gefahr sein. Fakes sind selten so einfach zu erkennen.

Multimodale KI eröffnet nicht nur neue Erzählformen, sondern erleichtert auch die Erzeugung täuschend echter Audio‑ und Videomanipulationen. Stimmen können zum Beispiel mit nur wenigen Originalsätzen schon täuschend echt nachgemacht werden. Die EU‑Kommission mahnt im AI‑Act, dass Deepfake‑Risiken besonders in politischen Kontexten streng reguliert werden müssen, und fördert parallel die Entwicklung spezialisierter Fact‑Checking‑APIs für Journalist:innen. Das Bild von Donald Trump als Papst ist innerhalb weniger Sekunden entstanden.

8.3 Framing, latente Bias & rassistische Stereotype

KI lernt aus vorhandenen Textkorpora, die kulturelle und historische Verzerrungen enthalten. Untersuchungen im UNESCO‑Handbuch Reporting on artificial intelligence zeigen, dass unreflektiertes Prompting zu stereotypen Darstellungen und einseitigem Framing führen kann.

8.4 Explainable AI & Transparenz

Transparenz ist ein zentrales Gebot: Lesende haben ein Recht darauf zu wissen, wann und wie KI im Artikel eingesetzt wurde. Der AP Stylebook‑Abschnitt „Artificial Intelligence“ empfiehlt, automatisierte Abschnitte klar zu kennzeichnen und technische Metadaten zur Nachvollziehbarkeit bereitzustellen. Zugleich fordern der Entwurf des EU Code of Practice on General‑Purpose AI und DJV‑Leitlinien, dass KI‑Entscheidungen erklärbar und auditierbar sein müssen, um Vertrauen und Rechenschaftspflicht sicherzustellen.


9. Ökonomische & organisatorische Auswirkungen

9.1 Arbeitsmarkt: Rollenprofile & Stellenentwicklung

Laut der Studie Künstliche Intelligenz und Beschäftigte im Journalismus (Steinhau et al., Juli 2024) kommt es zu einer Verschiebung von klassischen Schreib‑ und Recherchetätigkeiten hin zu neuen Rollen wie „Daten‑Journalist:in“ oder „KI‑Redakteur:in“: Etwa 23 Prozent der befragten Redaktionen planen, bis 2026 zusätzliche KI‑Spezialist:innen einzustellen, während einfache Routinejobs zurückgehen.

9.2 Geschäftsmodelle & Monetarisierung

KI‑basierte Automatisierung kann Kosten senken und gleichzeitig neue Erlösquellen erschließen. Der Digital News Report 2024 zeigt, dass 29 Prozent der News‑Anbieter bereits Abo‑Modelle mit personalisierten, KI‑generierten Newslettern testen, um Engagement zu steigern. Ein prominentes Beispiel ist die Kooperation von Associated Press mit Google Gemini: AP liefert über KI‑gestützte Schnittstellen tagesaktuelle News in Googles Chatbot – eine neue Umsatzquelle durch lizenzierte Datenfeeds.

9.3 Change Management & Qualifizierungsprogramme

Für den erfolgreichen, nachhaltigen Einsatz von KI ist Investition in Weiterbildung essenziell. Die FES‑Studie Grenzen überwinden, Chancen gestalten (2023) empfiehlt flächendeckende Schulungen und die Einrichtung von „KI‑Botschafter:innen“ in Newsrooms, um Know‑how zu verteilen und Akzeptanz zu fördern. Die UNESCO betont in ihrem Handbuch, dass Programme zum Aufbau algorithmischer Alphabetisierung den Kulturwandel unterstützen und langfristig zur Stärkung redaktioneller Innovationsfähigkeit beitragen .


10. Hands‑on: Eigene KI‑Texte erstellen

Einen Einstieg in die strukturierte Erstellung von Texten bietet der Beitrag SEO-Texte schreiben – sechs Schritte zum Erfolg. Die Checkliste animiert zum strukturierten Denken, bildet einen Workflow ab und liefet so eine gute Grundlage für die in der Folge beschriebenen Schritte.

Schritt 1: Use Case definieren
Formulieren Sie präzise, welchen Text Sie benötigen und für welche Zielgruppe. Beispiele:

  • Kurznachricht (Wetterbericht, Börsenupdate)
  • Meldung (Verkehrsupdate, Sportergebnis)
  • Feature‑Artikel (z. B. Tech‑Report)

Schritt 2: Daten & Quellen sammeln
Stellen Sie alle relevanten Rohdaten bereit: Tabellen, JSON‑Feeds, Zitate, Bildbeschreibungen. Achten Sie auf Datenqualität und Metadaten (Zeitstempel, Quelle).

Schritt 3: Modell und Parameter auswählen

  • Modell: 4o‑mini‑high für effiziente, multimodale Texterstellung bei niedrigen Kosten 
  • Parameter:
    • temperature: 0.2–0.5 für präzise, faktentreue Texte
    • max_tokens: abhängig von gewünschter Länge (z. B. 500 Token für ~375 Wörter)
    • top_p: 0.9 für kreative Variationen ohne Ausreißer 

Schritt 4: Prompt‑Struktur nach Best Practices
Orientieren Sie sich am GPT‑4 Technical Report:

  1. System‑Message (Rollenfestlegung)
  2. User‑Message (Aufgabenstellung, Input‑Daten)
  3. Assistant‑Message (erste Antwort, Nachfrage)

Beispiel-Prompt:

jsonKopierenBearbeiten[
  {
    "role": "system",
    "content": "Du bist ein erfahrener Journalist, der präzise, gut strukturierte Nachrichten schreibt."
  },
  {
    "role": "user",
    "content": "Erstelle einen 150‑Wörter-Wetterbericht für Berlin am 24. April 2025 basierend auf folgenden Daten:\nTemperatur: 12 °C – 18 °C\nWetter: wechselnd bewölkt, 10 % Regenwahrscheinlichkeit\nWind: 15 km/h aus Nordwest"
  }
]

Achten Sie auf klare Anweisungen (Tonfall, Stil, Länge) .

Schritt 5: Ausgabe prüfen und verfeinern

  1. Faktencheck: KI‑Antwort mit Primärdaten abgleichen.
  2. Prompt‑Iteration: Nutzen Sie Follow‑up‑Prompts, um Stil oder Detailtiefe anzupassen.
  3. Bias‑Audit: Überprüfen Sie auf ungewollte Tendenzen oder stereotype Formulierungen.

Schritt 6: Integration ins redaktionelle System

  • Exportieren Sie das KI‑Ergebnis in Ihr CMS oder SEO‑Tool.
  • Fügen Sie Metadaten (Modell, Prompt‑Version, Datum) als versteckte Felder hinzu.
  • Kennzeichnen Sie KI‑Abschnitte gemäß Ihren Leitlinien (z. B. DJV‑Positionspapier).

11. Ausblick: Zukunft der KI im Journalismus

Die rasante Entwicklung vom GPT‑4o (System Card, 8. August 2024) hin zu 4o‑mini‑high (System Card, 16. April 2025) zeigt, dass moderne KI‑Modelle zunehmend effizienter und kompakter werden . Während GPT‑4o bereits multimodale Fähigkeiten mit großem Kontextfenster bot, erreicht 4o‑mini‑high vergleichbare Leistungswerte bei deutlich geringerem Rechen‑ und Energieaufwand – eine Schlüsselvoraussetzung für den flächendeckenden Einsatz in Newsrooms.

Prognose: Mit fortlaufender Miniaturisierung, AutoML‑Optimierungen und besseren Algorithmen wird es immer einfacher, komplexe journalistische Aufgaben vollständig durch KI erledigen zu lassen – von selbstständiger Themenrecherche über adaptives Multimodal‑Storytelling bis hin zur automatisierten Produktion investigativer Beiträge. Redaktionen verschieben ihren Fokus daher zunehmend auf KI‑Kurierung, Qualitäts‑ und Ethik‑Monitoring sowie die Integration von KI‑Ausgaben in redaktionelle Workflows. Dieser Wandel bietet große Chancen. Er erfordert aber auch neue Kompetenzen und strikte Governance‑Modelle, um journalistische Integrität und Glaubwürdigkeit zu wahren.