BLOG

Praxisfremder Leitfaden

Vergangene Woche hat der Schweizer Presserat einen Leitfaden zum Umgang mit KI-generierten Inhalten publiziert (persoenlich.com berichtete). Darin vermisst man das Wichtigste: eine unübersehbare Kennzeichnungspflicht für KI-generierte Inhalte.

Um einen vertrauenswürdigen Journalismus zu gewährleisten, müssten Journalistinnen und Journalisten bei der Verwendung von künstlicher Intelligenz (KI) «wachsam und zurückhaltend sein», schreibt der Presserat im Begleittext in seinem Newsletter # 8. Neue Richtlinien brauche es hierzu zurzeit keine und, ob die «Erklärung der Pflichten und Rechte der Journalistinnen und Journalisten» mit einer Bestimmung zu KI zu ergänzen sei, sei noch offen. Alarmismus tönt anders.

Dass der Schweizer Presserat primär die Chancen für die Verlage und weniger die grossen Gefahren für die Glaubwürdigkeit des Journalismus sieht, wird gleich zu Beginn des nun online verfügbaren Leitfadens klar: «Künstliche Intelligenz (KI) bringt für den Journalismus neue Möglichkeiten und Herausforderungen.» Wo bleibt der Hinweis auf die Gefahren, die uns zum Beispiel das mit KI erstellte Klimakleber-Plakat der FDP letzten Sommer vor Augen geführt hat? An diesem Beispiel – aus der Werbung notabene – ist klar geworden, wie gefährlich es ist, wenn wir künstlich generierten Bildern, Videos und Tönen als Abbildern von etwas Gewesenem Glauben schenken. Die Gefahr lauert also nicht in den Bildern und Tönen als solchen, sondern darin, dass wir als Rezipientinnen und Rezipienten nicht mehr wissen, ob es sich bei diesen Medieninhalten um faktenbasiertes oder künstlich generiertes Material handelt. Bei einer gezeichneten Karikatur ist klar, dass es keine Fotografie ist, bei einem KI-Bild, das exakt wie eine Fotografie aussieht, eben nicht. Klarheit könnte hier nur eine unübersehbare Kennzeichnung schaffen.

In seinem Leitfaden gibt der Presserat hierzu jedoch lediglich eine Empfehlung ab: «Inhalte, die mithilfe eines KI-Programms erstellt wurden, sind als solche zu kennzeichnen. Der Presserat empfiehlt diesbezüglich grösstmögliche Transparenz.» Was bedeutet denn «grösstmögliche Transparenz» in der Praxis? Könnte die Grösse des Hinweises auf den Zigarettenschachteln «Rauchen kann tödlich sein» als Massstab dienen? Zudem: Eine in einem unverbindlichen Leitfaden geäusserte Empfehlung bleibt eine Empfehlung, hat also nicht die Verbindlichkeit einer Richtlinie. Entsprechend dürften Beschwerden gegen zu wenig transparente Kennzeichnungen beim Presserat nur schon deshalb ins Leere laufen.

Punkt 5 des Leitfadens verlangt eine Überprüfung, «ob die Verwendung von personenbezogenen Daten, die von KI-Programmen bereitgestellt werden, zulässig» sei, und Punkt 6 verlangt, dass die Urheberrechte respektiert werden müssen. «Inhalte (zum Beispiel Bilder) die ein KI-Programm aus bestehenden Quellen übernimmt, müssen bei der Veröffentlichung nach den üblichen Kriterien zitiert werden.» Solche Forderungen sind völlig praxisfremd, respektive würden bei einer Einhaltung dazu führen, dass keine KI-generierten audiovisuellen Elemente genutzt werden könnten. Denn die Anbieter von KI-Software missachten erstens selber die Urheberrechte, und sämtliche Quellen zitieren und alle personenbezogenen Daten überprüfen zu müssen, die zu einem generierten Bild geführt haben, würde Dutzende von Zeitungsseiten füllen, da sich KI-Generatoren auf Zigtausende von Quelldaten stützen.

Ebenso praxisfremd ist die Forderung nach «der Achtung der Integrität von Dokumenten (Text, Ton und Bild)», weil KI-generierte Inhalte per Definition die Integrität des Quellenmaterials zerstören.

Bezüglich der Quellenbearbeitung verlangt der Presserat in Punkt 3 seines Leitfadens, «die Quellen, auf denen die künstlich erzeugten Inhalte beruhen,» müssten genannt werden. Wie soll ein Redaktor diese Quellen nennen, die kein KI-Anbieter bekannt gibt? Der Hinweis auf das Internet als Quelle dürfte wohl kaum ausreichen …

Anzufügen bleibt, dass dieser Forderung vermutlich auch ein falsches Verständnis von KI-Inhalten zugrunde liegt. Selbst wenn eine KI-Software garantieren würde, dass sie nur mit Quellenmaterial von der New York Times, FAZ und NZZ arbeitet, wären diese Quellenangaben noch kein Garant für die Qualität des daraus generierten Resultats.

Gemäss Punkt 4 des Leitfadens dürften «künstlich generierte Bilder, Töne oder Videos aufgrund ihrer Ähnlichkeit mit der Wirklichkeit nie irreführend sein oder Verwirrung stiften». Diese vom Presserat zu Recht attestierte Ähnlichkeit von KI-Inhalten mit echten Abbildern der Wirklichkeit führt eben die Medienkonsumenten gerade in die Irre. Das heisst, die Irreführung ist aufgrund der Ähnlichkeit gerade vorprogrammiert. Sie könnte einzig durch einen grundsätzlichen Verzicht auf KI-Inhalte oder eine unübersehbare Kennzeichnung von solchen unterbunden werden.

Einzige Hoffnung nach dieser ernüchternden Bilanz bietet der letzte Satz des Leitfadens: «Der Presserat ist sich der sehr schnellen Entwicklung in diesem Bereich bewusst und wird seinen Leitfaden sowie seine Richtlinien (Pflichten und Rechte) regelmässig überprüfen und bei Bedarf anpassen.»



Christoph Schütz betreibt ein Atelier für visuelle Kommunikation, hat in Fribourg Medienwissenschaften studiert und publiziert zu urheber- und medienrechtlichen Themen.

Unsere Kolumnistinnen und Kolumnisten vertreten ihre eigene Meinung. Sie deckt sich nicht in jedem Fall mit derjenigen der Redaktion.

 

Kommentar wird gesendet...

KOMMENTARE

Karl-Heinz Hug
12.03.2024 10:12 Uhr
Lieber Christoph Schütz Ganz grossen Dank für deinen Text ! Ja, ich spreche jetzt von der Fotografie, macht mir Kopfzerbrechen. Jeder kann Details meiner Fotos klauen und irgendwo einsetzen. Wie dieser Missbrauch verhindert werden kann ? Mit einer Honorarerhöhung für veröffentlichte Bilder (Pressefotografie insbesondere) denn andere Verlage stehlen die Bilder sowieso. Dann wenigsten einen Obolus für`s "Copyright". Wäre toll wenn ProLitteris sich dahinter klemmen würde ! Beste Grüsse Charly
Kommentarfunktion wurde geschlossen