BLOG

Medien wenden KI falsch an

Viele sind sich einig: Generative KI wird die Medienzunft kräftig durchwirbeln, ähnlich wie zuvor das Internet, das iPhone und die sozialen Medien. Schweizer Verlage wollen sich diesmal – man hat aus den Versäumnissen gelernt – nicht überrumpeln lassen. Sie definieren Leitlinien, veranstalten Workshops und begründen ganze Teams. Diese eigentlich lobenswerte Auseinandersetzung mit dem Thema kontrastiert mit der Sparwut, die in den meisten Häusern grassiert.

So erhoffen sich Geschäftsleitungen und Chefredaktionen mit ein wenig KI-Einsatz grosse Effizienzgewinne. Niemand will es offen aussprechen, aber verlockend tönt es schon: besserer und vor allem mehr Journalismus mit weniger Menschen. Aufgabe der oft dünn ausgestatteten KI-Teams ist es deswegen, vermeintliche Routineaufgaben zu identifizieren, beispielsweise das Verfassen eines SEO-Titels oder das Korrektorat eines Textes. Danach werden die erkorenen Anwendungsfälle mit Hilfe von Schnittstellen zu grossen KI-Anbietern implementiert – noch nie war es so einfach und günstig, sich leistungsfähige Technologie ins Haus zu holen. Zuletzt gibt es eine Schulung für die Redaktion und die Ermahnung, jedes KI-Resultat unbedingt zu kontrollieren.

Nicht selten setzt man dabei auf das Automatisieren einer zutiefst journalistischen Tätigkeit: einen fehlerfreien, spannenden und lesbaren Text zu schreiben – auch wenn es sich nur um einen Teaser handelt. Dass generative Sprachmodelle (LLMs) dafür denkbar schlecht geeignet sind, zeigt sich nicht zuletzt in ihrem Hang zur Halluzination. Auch wenn man sie beispielsweise mit einer kurzen Agenturmeldung füttert und dazu auffordert, nur sprachliche Änderungen vorzunehmen und sich an die Fakten zu halten. Schnell schleichen sich unscheinbare Fehler und Ungenauigkeiten ein. Erstaunlicherweise glauben viele immer noch, man müsse nur richtig «prompten», um zuverlässige und brauchbare Resultate zu erhalten. Das ist Wunschdenken. Wie die Hoffnung, mit immer leistungsfähigeren Modellen würden Halluzinationen irgendwann verschwinden. Seit dem Launch von ChatGPT vor mehr als zwei Jahren gab es hier keine nennenswerten Fortschritte.

Zahlendreher und erfundene Zitate sind vielleicht einfach zu bemerken. Kniffliger wird es, wenn die KI eigentlich wichtige Aspekte oder Nuancen unterschlägt. Verschiedene Beispiele aus der Praxis zeigen, wie die menschliche Kontrolle immer wieder versagt. Man darf bezweifeln, dass eine Redaktion unter dem Strich wirklich Zeit spart, wenn sie KI-Texte Wort für Wort überprüfen muss. Denn das sollte sie, wenn sie ihren Qualitätsanspruch ernst nimmt. Zu denken gibt, dass heute schon nur ein Bruchteil des Publikums glaubt, Medien in der Schweiz setzten KI vertrauensvoll ein.

Die Experimentierphase, die viele Verlage in den letzten zwei Jahren durchlaufen haben, war wichtig und wertvoll. Sie haben Schnittstellen zu mächtigen LLMs ausprobiert und deren Stärken und Schwächen anerkannt. Doch nun sollten sie sich ehrlich die Frage stellen, welche Anwendungen tatsächlich einen namhaften Effizienzgewinn bringen, ohne die Qualität zu gefährden. Oder ob dieser Fokus auf eine noch effizientere, noch schnellere Textarbeit überhaupt strategisch klug ist. Mit wenigen Ausnahmen haben es hiesige Verlage bisher verpasst, innovative KI-gestützte Produkte zu lancieren oder gewinnbringende Kooperationen einzugehen. Die Vermutung liegt nahe, dass dies einmal mehr der mangelnden Investitionsbereitschaft geschuldet ist. Doch auf absehbare Zeit wird sich fundamental ändern, wie Menschen Medien konsumieren – letztere tun gut daran, sich heute schon darauf einzustellen.

Im aktuellen Hype geht zudem etwas gerne vergessen: Generative KI ist eine Basistechnologie. Trainiert mit Abermillionen von Texten und audiovisuellen Inhalten, kann sie verblüffend gut Muster erkennen und replizieren. Dadurch ist sie mit einer noch nie da gewesenen Übersetzungsleistung ausgestattet. Das zeigt sich in nahezu perfekten Transkriptionen und Übersetzungen – oder in Text-to-Speech-Anwendungen, die viele heute bereits in Form von Vorlesediensten nutzen. Das langfristig grösste Potenzial liegt aber woanders.

LLMs können nämlich am besten zwischen Mensch und Maschine übersetzen. Dies mag abstrakt klingen. Doch man stelle sich eine Welt vor, in der ein Computer ohne Programmierung macht, was man ihm sagt. Im Kleinen und Grossen liessen sich damit Dutzende von ineffizienten, fehleranfälligen und frustrierenden Arbeiten automatisieren – von allen, ohne teure Softwarelizenzen und spezialisierte Hardware.

Um von diesem Paradigmenwechsel zu profitieren, müssen Verlage jetzt vor allem eines: ihre Mitarbeitenden an die Hand nehmen und auf diese Transformation vorbereiten. Das ist eine lohnenswerte Investition in die Zukunft.



Timo Grossenbacher ist selbstständiger Berater an der Schnittstelle von Technologie und Journalismus. Zuvor war er als Datenjournalist und Head of Newsroom Automation tätig. Dieser Beitrag ist eine Zusammenfassung seiner kürzlich publizierten Analyse.

Unsere Kolumnistinnen und Kolumnisten vertreten ihre eigene Meinung. Sie deckt sich nicht in jedem Fall mit derjenigen der Redaktion.

Kommentar wird gesendet...

KOMMENTARE

Andreas Räber
24.01.2025 08:53 Uhr
Vielen Dank für diesen fundierten Artikel. KI wird sich durchsetzen. Das ist so weit in Ordnung und wenn richtig angewendet, ein Gewinn. Der Punkt ist der: Wir wollen alle gerne den zweiten Schritt vor dem ersten machen. Sprich auf Knopfdruck eine schnelle und ansprechende Leistung erhalten. Doch genau das ist im Falle von KI gefährlich. Denn je mehr nicht überprüfter Inhalt im Web kursiert, desto grösser ist die Gefahr von Fake-Infos, die sich summiert und nicht mehr wegzukriegen ist. Das hat das WWW so an sich … Bis KI wirklich das bringt, was wir uns erhoffen, braucht es noch einige Zeit. Lassen wir uns bewusst darauf ein, haben wir ein gutes Tool zur Hand, das unsere Arbeit unterstützt. Bis wir soweit sind, kostet es uns viel Zeit und Auseinandersetzung. Ob man allerdings damit viel Geld einsparen kann, glaube ich persönlich nicht.