Der Facebook-Konzern Meta wird künftig bei Werbung mit politischen Inhalten eine Kennzeichnung von Fotos und Videos verlangen, die mit Hilfe künstlicher Intelligenz verändert wurden. Dabei gehe es zum Beispiel um Fälle, in denen fälschlicherweise der Eindruck erweckt werde, dass eine reale Personen etwas gesagt oder getan habe, erläuterte Meta in einem Blogeintrag am Mittwoch. Auch gelte das für Situationen, in denen Aufnahmen von echten Ereignissen verändert oder gar erst künstlich erzeugt würden.
Software auf Basis künstlicher Intelligenz kann realistische Bilder zum Teil allein aus sprachlichen Beschreibungen generieren. Das macht es einfacher, Fotos – und bald auch Videos – mit Falschinformationen zu erstellen. Zuletzt gerieten Onlineplattformen wie Metas Facebook und Instagram, Elons Musks X (ehemals Twitter) sowie TikTok nach Berichten über gefälschte Aufnahmen zum Gaza-Krieg ins Blickfeld der EU-Kommission.
Wenn Werbekunden den relevanten Einsatz von KI in ihren Bildern und Videos nicht auszeichnen, werde Meta die Anzeige ablehnen, hiess es weiter. Bei wiederholten Verstössen könne der Werbekunde bestraft werden. Kleinere KI-Veränderungen wie Anpassungen der Bildgrösse oder der Farben müssten nicht deklariert werden, solange sie keinen Einfluss auf den Inhalt der Anzeige hätten. (sda/dpa/cbe)