BLOG

Wir brauchen einen Code of Conduct

Lukas Stuber

Welch ein Tempo: Kaum drei Monate nach der Lancierung von ChatGPT integriert Microsoft die Technologie bereits in seinen Produkten (persoenlich.com berichtete). Google, plötzlich unter Druck geraten, wird eilends nachziehen, und kaum jemand hat die Tools so rasch in Gebrauch genommen wie die Kommunikationsbranche. Doch das Tempo birgt Risiken.

ChatGPT, Dall-E und wie die Tools alle heissen sind beeindruckend, kein Zweifel. Gerade ChatGPT möchten heute schon viele nicht mehr missen, und das Potenzial ist unbestritten: AI wird uns viel Freude bereiten, gerade auch in der Kommunikationsindustrie. Allerdings: Diese Tools machen Fehler, uralte und neue. Das schafft Probleme.

Halluzinierende AI

Noch 2021 warnte Google vor den Gefahren von «Large Language Models». Jetzt aber, von Microsoft auf dem falschen Fuss erwischt, ist das Makulatur: Überstürzt kündigte Google «Bard» an, die Konkurrenz zu ChatGPT. Symptomatisch: Eines der stolz präsentierten «Bard»-Beispiele enthielt eine Fehlinformation, worauf der Aktienkurs Alphabets, Googles Muttergesellschaft, umgehend abstürzte, und zwar gleich um 100 Milliarden Dollar.

Dabei sind derlei AI-Fehler normal. ChatGPT begeht sie ständig, auch im Bing-Kontext, und erfindet oft Fakten und Quellen. «AI Hallucination» nennt sich dieser Effekt. Denn die Tools haben kein Faktenwissen, sondern berechnen auf Grund immenser Datenmengen die Wahrscheinlichkeit, mit der Wörter einander folgen. Damit sind sie im Prinzip hochgezüchtete Papageien: Sie plappern nach, was im Web steht. Der Wahrheitsgehalt ist somit vom Daten-Set abhängig, nicht von gesicherten Fakten. Jetzt, da wir alle Zugang kriegen, wird das zum Problem.

Erstens finden täglich, wie der Microsoft-Blog erwähnt, weltweit zehn Milliarden Suchabfragen statt. Enthält schon nur ein kleiner Prozentsatz Fehler, ist das bereits ein ordentlicher Haufen. Zudem produziert AI nicht nur triviale Fehler, sondern reproduziert auch gesellschaftliche Irrtümer. Daran sind wir buchstäblich selber schuld: Die Daten, mit denen man die Tools trainiert, sind menschengemacht, weshalb AI mit einem wüsten Gemenge aus Gutem und Schlechtem arbeiten muss. Das Ergebnis, nebst manch Erfreulichem: Sexismus, Rassismus, oder Diskriminierung sozial Benachteiligter. Wird derlei automatisiert fortgeschrieben, zementiert man Normen, die wir längst überwinden möchten.

Zweitens: All das lässt sich bewusst von jenen exploitieren, denen es sowieso nicht um Fakten geht. Für die boomende Fake-News-Industrie nämlich sind ChatGPT und Konsorten Gottesgeschenke: Nie zuvor liess sich Fehlinformation so vielsprachig, skalierend und überzeugend herstellen.

Die Hersteller sind sich all dessen durchaus bewusst: OpenAI versuchte, ChatGPT in Russland zu sperren (als sässen Schurken nur dort), und insgesamt fordert die Branche seit Jahren gleich selber Regulierung: OpenAI CEO Sam Altman 2015, Microsoft 2021, Google CEO Sundar Pichai 2022, OpenAI erneut vor Wochenfrist. Immerhin: Ein entsprechender Gesetzesentwurf der EU existiert, die Regierungen in UK und USA hinken hinterher, sind aber wenigstens in Bewegung.

Transparenz, Qualitätssicherung, Verzicht auf Vollautomatisierung

Doch bis Rechtssicherheit vorliegt, wird es dauern. Zugleich sind die Möglichkeiten so vielfältig, die Ergebnisse sehr oft so brauchbar, dass gerade auch seitens der Kommunikationsbranche ein Abwarten nicht zu verlangen ist. Aber es braucht Spielregeln: Wir wären gut beraten, uns auf einen Code of Conduct zu einigen.

Erstens braucht es Regeln zur Transparenz: Firmenkunden müssen wissen, wozu und mit welchen Prozessen Agenturen AI einsetzen, und es gibt gewichtige Argumente dafür, dass auch Userinnen und User informiert werden müssen, in welchem Umfang AI die Inhalte mitgeschaffen hat. Wie tauglich die Lösung per Wasserzeichen ist, an der OpenAI arbeitet, wird sich zeigen.

Zweitens braucht es Prozesse zur Qualitätssicherung: Gebrauchstexte wie Google Ads, Produktbeschriebe, Newsletter oder Content mit SEO-Hintergrund lassen sich jetzt schon vollautomatisch und mit scheinbar guter Qualität herstellen. Doch Fehleranfälligkeit und Bias-Probleme sind zu gross, als dass man derlei ohne jeden Redaktionsprozess nutzen dürfte.

Und drittens ist jener Redaktionsprozess auch notwendig, um Rechtshändel zu vermeiden: Da sich Chatbots gratis und franko der Texte und Bilder bedienen, die Menschen hergestellt haben, erstellen sie mitunter ganz einfach Plagiate. Erste Gerichtsklagen liegen bereits vor.

Um derlei hat sich die Branche vorerst selber zu bemühen. Im besten Fall beschleunigen OpenAIs und Microsofts übereiltes Vorgehen und Googles Nachhetzen den gesetzgeberischen Prozess. Wünschenswert wäre es. Denn AI ist systemrelevant geworden, spätestens jetzt. Also ist das System gefragt: Ohne Regulierung von Artificial Intelligence werden wir ihr riesiges Potenzial gar nie erst ausschöpfen können.



Lukas Stuber ist Digital Ethics Ambassador und Partner bei Dept.

Unsere Kolumnistinnen und Kolumnisten vertreten ihre eigene Meinung. Sie deckt sich nicht in jedem Fall mit derjenigen der Redaktion.

Kommentar wird gesendet...

Kommentare

Kommentarfunktion wurde geschlossen

Die neuesten Blogs

13.04.2024 - Hansmartin Schmid

Die Schweizer Medien und die Kriege

Die Schweizer Auslandberichterstattung ist in deutsche Hände geglitten.

12.04.2024 - Klaus-Dieter Koch

Attraktivität braucht Kontrolle

Warum Hermès, Rolex und Co ihre Marken nicht an jeden verkaufen können.

Zum Seitenanfang20240420