Silke Fürst, nutzen Sie selbst künstliche Intelligenz (KI) beim Schreiben Ihrer wissenschaftlichen Texte?
Silke Fürst: Ja, ich setze selbst auch KI-Tools ein und probiere aus, was wie gut funktioniert und was nicht. Für englischsprachige Texte in internationalen Zeitschriften ist KI sehr nützlich, insbesondere für Korrekturen und den sprachlichen Feinschliff meiner Texte. Das A und O ist dabei, dass ich den Output sehr genau prüfe, meistens auch nochmals anpasse, und diesen KI-Einsatz in der Publikation deklariere. Manchmal bin ich auch überrascht, wie wenig KI weiterhilft, zum Beispiel für Textkürzungen. Für eine Tagung in Dortmund brauchte ich kürzlich ein knapp zweiseitiges Abstract zur Studie, über die wir hier reden. Trotz detailliertem Prompt kam nichts Gescheites heraus.
Sie haben 730 Medienschaffende zu KI befragt (persoenlich.com berichtete). Was hat Sie bei den Studienergebnissen am meisten überrascht?
Fürst: Überrascht hat mich, dass die meisten Medienschaffenden davon ausgehen, dass das Publikum die derzeitigen Kennzeichnungen von KI kaum verstehen und einordnen kann, die die eigene Redaktion verwendet. Und ich habe auch nicht damit gerechnet, dass existierende Richtlinien und Leitfäden zu KI, wie jene des Schweizer Presserats, sehr vielen Medienschaffenden gar nicht bekannt sind oder kaum als hilfreich wahrgenommen werden.
Daniel Vogler: Überraschend fand ich auch, dass die Befragten zwar mehrheitlich angeben, dass sie KI-Tools nutzen und auch als nützlich empfinden, gleichzeitig aber weder Effizienz- noch Qualitätsgewinne durch KI-Tools aktuell als besonders gross einschätzen.
«Es braucht mehr erklärende Transparenz»
Sie erwähnen es: Viele Medienschaffende stellen fest, dass ihr Publikum KI-Kennzeichnungen kaum versteht. Wie kann man das verbessern?
Vogler: Hier braucht es mehr erklärende Transparenz. In der aktuell dynamischen Entwicklung im KI-Bereich sind kontinuierliche Anstrengungen nötig, um dem Publikum klar zu zeigen, wie KI eingesetzt wird, wie Inhalte gekennzeichnet werden und welche Qualitätssicherungsmassnahmen bestehen. Ein einzelner Artikel oder allgemeine Hinweise im Impressum reichen dafür schlichtweg nicht aus. Dafür braucht es auch Expertise in den Redaktionen – also Medienschaffende, die auf KI spezialisiert sind und die Funktionsweise der Tools gut verstehen. Unsere Befragung zeigt jedoch, dass viele Journalistinnen und Journalisten diese Kompetenzen bislang nicht besitzen.
87 Prozent der Medienschaffenden nutzen KI, aber 13 Prozent nie. Wie erklären Sie diese Spaltung?
Fürst: Unsere Ergebnisse zeigen nicht zwei Gruppen, sondern das ganze Spektrum – von sehr häufiger Nutzung bis hin zu gar keiner. Die meisten Befragten setzen KI in moderatem Umfang ein. Wer sie gar nicht nutzt, arbeitet oft in kleineren Redaktionen oder ist schon seit über 25 Jahren im Journalismus tätig.
Vogler: Ähnlich wie in der Gesamtbevölkerung gibt es vermutlich auch unter Journalistinnen und Journalisten eine Gruppe, die der Technologie grundsätzlich skeptisch gegenübersteht und sie bewusst meidet. Andere fühlen sich vielleicht von der schnellen Entwicklung überfordert und verzichten deshalb auf den Einsatz von KI-Tools. Andere wiederum sind offener und haben sogar Spass daran, sich mit den Tools zu beschäftigen.
«Es braucht klar formulierte Qualitätsziele»
Jüngere Journalistinnen und Journalisten nutzen KI deutlich häufiger als ihre älteren Kollegen. Dieses Resultat war doch erwartbar?
Vogler: Das ist in der Tat kein überraschendes Ergebnis. Studien zeigen immer wieder, dass Innovationen schneller und stärker von jüngeren Journalisten aufgegriffen und genutzt werden. Es ist aber nicht so, dass sich ältere Medienschaffende der Technologie generell verweigern oder jüngere alle stark auf KI setzen. In beiden Gruppen gibt es sowohl Personen, die sehr stark auf KI-Tools setzen, als auch solche, die gar keine nutzen.
Die Mehrheit berichtet, dass es in ihrer Redaktion keine systematischen Qualitätssicherungsmassnahmen für KI gibt. Sehen Sie darin ein Problem?
Vogler: Unsere Befragung vom letzten Jahr zeigt, dass das Publikum grundsätzlich kritisch gegenüber KI im Journalismus eingestellt ist – und auch unter Medienschaffenden ist diese Haltung teilweise verbreitet. Fehler in Medienbeiträgen, die auf KI zurückzuführen sind und vom Publikum bemerkt werden, verstärken diese Skepsis zusätzlich.
Fürst: Qualitätssicherungsmassnahmen auf Redaktionsebene helfen, solche Fehler zu reduzieren und journalistische Qualität zu sichern. Das muss organisiert und innerhalb der Redaktion kommuniziert werden; es braucht klar formulierte Qualitätsziele, journalistische Standards und Zuständigkeiten. Es ist deshalb problematisch, dass die meisten Befragten angeben, dass es solche Massnahmen in ihrer Redaktion kaum gibt oder sie diese nicht kennen.
80 Prozent der Befragten fordern einheitliche KI-Standards in der Branche. Wer sollte solche Standards setzen?
Fürst: Der Schweizer Presserat ist eine ganz wichtige Instanz hierbei. Unsere Studie zeigt allerdings, dass der im Januar 2024 verabschiedete Leitfaden zu KI im Journalismus sich kaum etabliert hat. Nur 22 Prozent der Befragten gaben an, dass dieser Leitfaden ihnen beim Einsatz von KI eine hilfreiche Orientierung bietet. Hier wären Weiterentwicklungen also sehr wichtig. Zudem bräuchte es in der Schweiz ein Netzwerk, in dem der Austausch zu KI zwischen Medienschaffenden und Medienmanagern verschiedener Medienhäuser organisiert wird. Ein solches Netzwerk könnte Vorschläge für gemeinsame KI-Standards ausarbeiten.
«Vor allem kleine Redaktionen haben meist noch keine klare Strategie»
Verstärkt KI die Ungleichheit zwischen grossen und kleinen Redaktionen?
Vogler: Ja, unsere Daten legen das nahe. Vor allem kleine Redaktionen haben meist noch keine klare Strategie für den Einsatz von KI-Tools und befinden sich noch in der Orientierungs- und Testphase. Grössere Redaktionen verfolgen eher einen strategischen Ansatz. Natürlich gibt es auf beiden Seiten auch Ausnahmen. Ressourcen spielen dabei aber eine wichtige Rolle: Grössere Häuser können sich eher KI-Lösungen leisten und beispielsweise Spezialisten einstellen. Eine gemeinsame Entwicklung von Tools und Lösungsansätzen könnte diese Unterschiede zumindest teilweise ausgleichen.
Die meisten Befragten befürchten, dass KI zu mehr Falschinformationen in Schweizer Medien führt. Teilen Sie diese Sorge?
Vogler: Das ist eine Gefahr, die wir ebenfalls sehen. 15 Prozent der Befragten geben an, dass der KI-Einsatz bereits zu Fehlern in der Berichterstattung geführt hat. Auf den ersten Blick klingt das vielleicht nicht nach viel, aber einige Medienschaffende berichten auch, dass sie kaum Zeit haben, um KI-Inhalte zu prüfen. Wenn KI-Tools also häufiger und umfassender eingesetzt werden, besteht tatsächlich die Gefahr, dass unabsichtlich Falschinformationen in Medien erscheinen.
Fürst: Entscheidend ist, was jetzt unternommen wird: Redaktionen und Medienhäuser sollten beim Einsatz von KI unbedingt auch in Qualitätssicherung investieren. Und die Arbeitsbedingungen so gestalten, dass Journalist:innen ausreichend Zeit für Informationsüberprüfungen haben.
Es wird um gemeinsame KI-Tools statt Abhängigkeit von US-Tech-Firmen gerungen. Halten Sie das für die Schweiz für realistisch?
Vogler: Es ist tatsächlich kein einfacher Weg. Die US-Firmen haben klare Wettbewerbsvorteile und ihre Tools werden umfassend genutzt. Das kürzlich lancierte Modell «Apertus» kann hier als erster Schritt in diese Richtung gesehen werden. Das Modell adressiert viele Kritikpunkte an KI. Es ist frei zugänglich, transparent und wurde auch mit Schweizer Daten trainiert. Wenn man stärker auf solche Lösungen setzt, auch in Teilbereichen, kann die Abhängigkeit reduziert werden.
«Den Fokus konsequent auf Qualitätssicherung legen»
Was sind Ihre drei wichtigsten Handlungsempfehlungen für die Medienbranche im Umgang mit KI?
Fürst: Erstens: Die Erwartungen des Publikums ernst nehmen und Wege entwickeln, wie der Einsatz von KI transparent und verständlich kommuniziert werden kann. Zweitens: Kooperationen zwischen Schweizer Medienhäusern und Redaktionen initiieren, um gemeinsam KI-Infrastrukturen voranzubringen und unabhängiger von grossen Tech-Unternehmen zu werden.
Vogler: Und drittens den Fokus konsequent auf Qualitätssicherung legen, um Fehler zu minimieren und langfristig das Vertrauen in den Journalismus zu stärken.
Sie sind im Vorstand des Vereins Qualität im Journalismus (QuaJou) und mussten Ihre QuaJou-Tätigkeit während der Studie pausieren. Weshalb eigentlich?
Fürst: QuaJou ist Praxispartner des Projekts und hat mit Feedback zum Fragebogen sowie dessen Verbreitung unterstützt. Nun hat der Förderer des Projekts, die Digitalisierungsinitiative der Zürcher Hochschulen (DIZH), bestimmte Förderbedingungen. Eine ist, dass ich als Antragstellerin nicht gleichzeitig bei einem Praxispartner beteiligt sein darf, auch nicht im Rahmen einer ehrenamtlichen Tätigkeit. Daher musste ich meine Vorstandstätigkeit bei QuaJou pausieren.
Wie sehen Sie das Spannungsfeld von Effizienz versus Qualität im Journalismus im Kontext von KI? Was setzt sich durch?
Vogler: Das ist im Moment noch nicht klar abzusehen. Es ist auch ein Spannungsfeld innerhalb der Medienorganisationen. Aus unternehmerischer Sicht sind Effizienzgewinne oft notwendig, um langfristig zu bestehen, während die journalistische Perspektive Qualität stärker gewichtet. Es ist also in den meisten Fällen eine Frage der Priorisierung: Bekennt man sich zur Qualität und versucht gleichzeitig effizienter zu werden, oder steht Effizienz im Zentrum und Qualität ist eher sekundär?
Fürst: Unsere Studie gibt Hinweise darauf, dass es in der Schweiz auf einen Kompromiss hinauslaufen könnte.
KOMMENTARE
24.09.2025 07:10 Uhr


