18.06.2024

Deepfakes

Die Schweiz muss sich besser schützen

Laut einem Bericht ist die Schweiz unzureichend gegen mit Künstlicher Intelligenz manipulierte Videos gewappnet.
Deepfakes: Die Schweiz muss sich besser schützen
Dieses gefälschte Bild vom Papst ging letztes Jahr viral. (Bild: Keystone/AP/Phil Holm)

Eine Kombination verschiedener Massnahmen ist notwendig, um schädliche Auswirkungen der sogenannten Deepfake-Technologie in der Schweiz zu begrenzen, findet ein Bericht der Stiftung für Technologiefolgen-Abschätzung (TA-Swiss). «Es ist über die Jahre zunehmend einfacher geworden, Deepfakes zu erstellen», sagte der an der Studie beteiligte Murat Karaboga vom Frauenhofer-Institut am Dienstag vor den Medien in Bern. Es gebe zahlreiche Programme, um mit Künstlicher Intelligenz (KI) Tonaufnahmen, aber auch Bilder und Videos zu erstellen oder zu manipulieren.

Damit können Inhalte erschaffen werden, in denen eine Person etwas tut oder sagt, was sie nie getan oder gesagt hat. Genutzt werden solche Inhalte unter anderem von Kriminellen, die für Schock- und Erpressungsanrufe Stimmen von Privatpersonen kopieren. Auch Identitätsdiebstahl, Rufschädigung, Verbreitung von Falschinformationen und pornografische Inszenierungen ohne Einwilligung der betroffenen Person sind Risiken von Deepfakes, wie es im über 400 Seiten starken Bericht heisst.

Erkennung kaum möglich

Menschen sind dem Bericht zufolge kaum in der Lage, Deepfake-Videos als Fälschungen zu entlarven. In einem Experiment gelang es Teilnehmerinnen und Teilnehmern nicht, gut gefälschte Videos zu erkennen. Auch nicht, nachdem ihnen eine Anleitung gegeben wurde, wie solche Videos besser erkannt werden könnten. Einzig Menschen mit einer Affinität zu neuen Medien schnitten im Experiment etwas besser ab.

Detektor-Programme, auf die laut den Forschenden mitunter viel Hoffnung für die Erkennung von Deepfakes gesetzt wird, schnitten auch nicht viel besser ab. «Wir kamen zum Schluss, das Detektoren-Programme weder zuverlässig noch zugänglich sind», sagte Karaboga.

Wie kann man solche gefälschten Videos also erkennen? Einerseits gebe es einige optischen Erkennungsmerkmale. Etwa Haare, die in gefälschten Videos oft nicht natürlich aussehen, oder Bewegungen, die etwas hölzern wirken. Mit der stetigen Verbesserung dieser Technologien werde dies aber irgendwann nicht mehr möglich sein. Um Deepfakes zu erkennen, brauche es vor allem ein gewissen Gespür, sagte Karaboga. Man müsse sich fragen. Kann es wirklich sein, dass dieser Inhalt echt ist?

Massnahmen notwendig

Um gegen schädliche Auswirkungen von Deepfakes anzukämpfen, schlagen die Forschenden eine Reihe von Massnahmen vor. Einige Rechtsgrundlagen existieren zwar, sind aber teilweise nur schwer durchsetzbar, da sich die grossen Onlineplattformen, auf denen Deepfakes kursieren, im Ausland befinden und die Verantwortlichen für Vergehen nicht immer identifizierbar sind, wie Nula Frei von der Fernuni Schweiz erklärte.

Laut TA-Swiss sollte der Staat gegenüber Online-Plattformen durchsetzen, dass für Personen schädliche Deepfakes gelöscht werden. Ausserdem empfehlen die Forschenden im Bericht die Einrichtung von Opferberatungsstellen.

Weiter seien auch Weiterbildungen zur Medien- und Informationskompetenz oder die Nutzung fortschrittlicher Authentifizierungsverfahren mögliche Massnahmen gegen schädliche Auswirkungen von Deepfakes.

Zudem wird eine Selbstregulierung der PR- und Werbebrache empfohlen. Auch Journalistinnen und Journalisten seien gefordert: So empfehlen die Forschenden die Förderung forensischer Verifikationsmethoden in den Redaktionen.

Deepfakes bieten auch Chancen

Ein Verbot dieser Technologie kommt für die Forschenden jedoch nicht in Frage. Deepfakes bieten laut TA-Swiss auch zahlreiche Chancen.

Gerade im Bereich der Unterhaltungsindustrie würden Deepfakes vielfältige positive Möglichkeiten bieten, hiess es im Bericht. Beispielsweise für Synchronfassungen von Filmen. Mit Unterstützung von KI lassen sich die Lippenbewegungen der Schauspielerinnen und Schauspieler an die jeweilige Sprache anpassen.

Ausserdem erhoffen sich Polizei und Strafverfolgungsbehörden von Deepfakes neue Möglichkeiten bei der Verbrechensbekämpfung, etwa zur Rekonstruktion von Tatorten oder Tathergängen.

TA-Swiss hat den Auftrag, die Zukunftsfähigkeit neuer Technologien abzuschätzen. Sie führen zusammen mit Schweizer Universitäten und Institutionen Studien zur Technologieentwicklung durch, um für Parlament, Bundesrat, Verwaltung und Bevölkerung Informationen bereitzustellen. (sda/spo)


Kommentar wird gesendet...

KOMMENTARE

Kommentarfunktion wurde geschlossen

Diese Artikel könnten Sie auch interessieren