Emanuel Meyer, wann hatten Sie sich zum ersten Mal mit Rechtsfragen zur künstlichen Intelligenz (KI) beschäftigt? Worum ging es da?
Ich meine, das müsste vor circa fünf Jahren gewesen sein, und in meiner Erinnerung war die Frage, die zuerst auftauchte, die Frage nach der Patentierbarkeit von Forschungsergebnissen, die mit oder von KI erstellt wurden.
Heute steht vor allem die Forderung von Urheberinnen und Urhebern im Raum, ihre Rechte gegenüber den Plattformbetreibern besser oder überhaupt zu schützen. Warum kann hier nicht bestehendes Recht angewendet werden?
Bestehendes Recht wird angewendet. Die Ungewissheit besteht darin, dass wir noch nicht wissen, zu welchem Ergebnis das geltende Recht führt. Gesetze sind abstrakt formuliert. Es ist unmöglich, jeden konkreten Einzelfall im Gesetz zu regeln. Bei neuen Sachverhalten braucht es deshalb regelmässig klärende Gerichtsentscheide. Diese stehen im Bereich KI noch aus. Soweit ich sehe, gibt es erst einen einzelnen Entscheid des Hamburger Landgerichtes.
«Wir müssen jetzt schauen, wie die Gerichte entscheiden»
In der schweizerischen Gesetzgebung ist bisher nicht geregelt, ob die Nutzung urheberrechtlich geschützter Inhalte als Trainingsdaten für Sprachmodelle eine Rechtsverletzung darstellt. Warum ist das so?
Das ist ein ausgezeichnetes Beispiel, um zu veranschaulichen, was ich gerade gesagt habe. Im Urheberrecht steht: «Der Urheber oder die Urheberin hat das ausschliessliche Recht zu bestimmen, ob, wann und wie das Werk verwendet wird.» Aber was bedeutet das? Es wird auf der einen Seite die Meinung vertreten, dass das Training von KI eine Werkverwendung sei und deshalb nur mit Zustimmung der Urheberinnen und Urheber erfolgen dürfe. Andere sagen nein – damit das Urheberrecht überhaupt zur Anwendung kommt, muss am Ende ein sogenannter Werkgenuss stehen, also ein Mensch, der liest, zuschaut oder zuhört. Bei KI-Training gehe es um eine Datenanalyse, das sei keine Nutzung im urheberrechtlichen Sinn und deswegen komme auch das Urheberrecht nicht zur Anwendung. Das heisst, wir müssen jetzt schauen, wie die Gerichte entscheiden.
Wer nicht will, dass seine Daten für KI-Anwendungen genutzt werden, kann sie sperren. Wo liegt also das Problem?
Damit sind wir beim nächsten Problem, das sich beim Aufkommen einer neuen Technologie stellt. Wir müssen verstehen, was eigentlich vor sich geht, um eine angemessene Lösung zu finden. Auf den ersten Blick tönt der Vorschlag mit dem Sperren überzeugend. Bei näherer Betrachtung stellen sich aber verschiedene Probleme. Reicht ein lesbarer Hinweis auf der Webseite? Oder muss die Sperre in maschinenlesbarer Form erfolgen? Eine Sperre in maschinenlesbarer Form ist meines Wissens nicht praktikabel, weil dann die gesperrten Inhalte einfach nicht verwendet werden können. Damit können aber auch diejenigen die Inhalte nicht mehr verwenden, die über eine Lizenz verfügen. Wie soll da die Verwertung von Werken noch vernünftig funktionieren?
Stellen sich im Zusammenhang mit künstlicher Intelligenz grundlegend neue Rechtsfragen?
Es gibt schon Erscheinungen, die neue Fragen aufwerfen. Deepfake ist so ein Thema. Das Bundesamt für Kommunikation bereitet derzeit für den Bundesrat eine «Auslegeordnung zur Regulierung von künstlicher Intelligenz» vor. Diese soll bis Ende 2024 vorliegen. Danach wissen wir mehr.
«Das Parlament trägt eine grosse Verantwortung, wenn es regulierend eingreift»
Von einer solchen Auslegeordnung bis zu neuen gesetzlichen Regelungen wird es Jahre dauern. Gleichzeitig geht die technologische Entwicklung rasant voran. Ist das ein unlösbares Dilemma?
Das Parlament trägt eine grosse Verantwortung, wenn es regulierend eingreift. Es muss deshalb genau verstehen, welche Probleme es zu lösen gilt, und welche Konsequenzen durch die Regulierung zu erwarten sind. Es ist deswegen systemimmanent, dass das Recht immer etwas hinterherhinkt.
Im Zusammenhang mit dem laufenden Gesetzgebungsprojekt für ein Leistungsschutzrecht hätte die Möglichkeit bestanden, auch Aspekte der künstlichen Intelligenz mithineinzupacken. Warum hat der Bundesrat darauf verzichtet?
Die Vernehmlassung über die Vorlage hat ein klares Bild ergeben. Die Mehrheit der Vernehmlassungsteilnehmenden sprach sich gegen die Regulierung der urheberrechtlichen Aspekte von künstlicher Intelligenz im Zusammenhang mit einem Leistungsschutzrecht für Medienunternehmen aus. Der Zeitpunkt wurde als verfrüht erachtet.
Was ist Ihre persönliche Einschätzung dazu?
Ich glaube auch, dass es keine gute Idee gewesen wäre, Leistungsschutzrecht und KI zum jetzigen Zeitpunkt zusammenzufassen. Es gibt gewisse Ähnlichkeiten. Aber ich bin mir nicht sicher, ob man es genau gleich machen kann. Da fehlen uns schon noch gewisse Bausteine.
Vom Leistungsschutzrecht erhoffen sich Verlagsunternehmen viel Geld, das ihnen dann die Plattformkonzerne für die Darstellung von Medieninhalten zahlen müssten. Kann dieses Gesetz überhaupt jene Wirkung zeitigen, die seine Promoter davon erwarten?
Ob das Gesetz jene Wirkung zeitigt, wie sie etwa der Verband Schweizer Medien erwartet, weiss ich nicht. Die Befürworter der Regelung haben eine Studie vorgelegt, die um einiges optimistischer ist als eine andere Studie, die die Bundesverwaltung in Auftrag gegeben hat. Aber grundsätzlich geht die Bundesverwaltung davon aus, dass die Regelung eine Wirkung haben wird.
In der Vernehmlassung gab es viele kritische Stimmen, die den Nutzen einer solchen Gesetzgebung stark infrage stellten. Warum hat man die Übung nicht abgebrochen?
Ganz so klar war die Vernehmlassung nicht. Neben den kritischen Stimmen gab es eine ganze Reihe von Kantonen sowie mehrere Parteien und Verbände, welche die Vorlage befürworteten. Es ist deshalb korrekt, das Parlament darüber entscheiden zu lassen.
«Wenn es um Sprache oder Bildmaterial geht, denken alle immer an das Urheberrecht»
Welche Erkenntnisse nehmen Sie aus der Beschäftigung mit dem Leistungsschutzrecht mit im Hinblick auf Regulierungen im Bereich der künstlichen Intelligenz?
Wenn es um Sprache oder Bildmaterial geht, denken alle immer an das Urheberrecht. Je länger ich mich aber mit Plattformwirtschaft und mit KI beschäftige, desto mehr vermute ich, dass man auch andere Rechtsgebiete anschauen muss. Ich erwarte, dass die erwähnte Auslegeordnung des Bakom hierzu grössere Klarheit schafft. Und wir führen ja mit CLTR 2024 selbst eine grosse öffentliche Veranstaltung durch zum kreativen Schaffen, zu Plattformen und zu KI und ich bin schon sehr gespannt auf die Ergebnisse der Veranstaltung.
Künstliche Intelligenz stellt die Medienbranche und die Kreativwirtschaft vor existenzielle Herausforderungen. Stehen wir an einer Epochenschwelle, wie bei der Erfindung des Buchdrucks oder des World Wide Web?
Vermutlich schon. Aber ich glaube nicht, dass wir schon heute wirklich abschätzen können, welche Auswirkungen KI letztlich haben wird. Ich denke dabei an das aktuelle «Jahrbuch Qualität der Medien». Demnach besteht in der Bevölkerung eine grosse Skepsis gegenüber KI. Auffallend wenige Menschen sind bereit, für KI-generierte Inhalte zu bezahlen. Das Publikum scheint einem von Menschen gestalteten Journalismus einen höheren Wert beizumessen. Wir werden sehen, in welchem Umfang der Mensch durch KI ersetzt werden kann.
KOMMENTARE
05.11.2024 07:46 Uhr