28.12.2022

Kommunikation

Sprachsimulation und ihre Grenzen

Die Entwicklung künstlicher Intelligenz schreitet voran – auch im Bereich der Sprache. Wo liegen die Grenzen und wo bliebt die Moral?

Die digitalen Techniken entwickeln sich rasend schnell. Künstliche Intelligenz hat inzwischen eine erstaunliche Sprachkompetenz erlangt. Doch wir sollten uns nicht täuschen lassen. KI simuliert bloss natürliches Sprechen und kreatives Schreiben.

«Der nächste heisse Job im Silicon Valley ist für Dichter» titelte 2016 die Washington Post. Gesucht seien Experten und Expertinnen für Sprache und Rollenspiele, die mithelfen, virtuelle Assistenten, Chatbots, künstliche Intelligenz (KI) schlauer, besser, witziger, persönlicher zu machen. Dafür müssen sie intensiv trainiert werden. Genau darin besteht die Aufgabe von Autorinnen und Autoren.

Der Turing-Test

1950 entwickelte der Mathematiker Alan Turing einen Test für das maschinelle «Denkvermögen». Ein Mensch stellt per Tastatur Fragen an zwei unsichtbare Partner, wovon einer ein Mensch, einer eine Maschine ist. Letztere besteht den Test, wenn der Fragesteller die beiden nicht mehr zweifelsfrei auseinanderhalten kann. Dieser Turing-Test hat die Entwicklung von intelligenten Computerprogrammen geprägt und ist bis heute eine Referenz dafür geblieben, wozu Computer, Bots oder virtuelle Assistenten tatsächlich fähig sind.

Solchen Sprachassistenten wird eine grosse Zukunft vorausgesagt. Klangen sie 2011, als Siri und Alexa erstmals auftauchten, noch steif und nüchtern, kommunizieren sie heute variabler und differenzierter.

Einen grossen Entwicklungsschritt demonstrierte 2019 das KI-System Google Duplex. Es gelang ihm, autonom per Telefon einen Coiffeurtermin und einen Tisch im Restaurant zu reservieren. Auffallend daran war insbesondere, dass Duplex auch kleine kommunikative Details beherrschte: Sprechpausen und Füllwörter wie «ähm» oder «hmm». Menschliche Kommunikation weiss solche intuitiv richtig zu setzen.

Simulation von Sprache

Inzwischen gibt es zahlreiche Anwendungen, die oft unbemerkt automatisiert ablaufen. Börsen-, Wetter oder Sportberichte werden aus Tabellen und Protokollen generiert. 2019 erschien erstmals auch ein 600-seitiges Forschungsbuch, das ganz maschinell generiert war. Bei alledem handelt es sich immer um standardisierte Formate, die explizit nicht originell sein sollen.

Offenkundige Fortschritte haben die Übersetzungsprogramme gemacht. Deepl, abgeleitet von Deep Learning, beispielsweise liefert verblüffend gute, differenzierte Resultate. Mittlerweile nutzen selbst professionelle Übersetzer das Hilfsmittel. Doch auch hier liegt die Tücke im Detail und ist Kontrolle angeraten. So wird der Satz «Sie fuhr das Hindernis um» mit «She drove around the obstacle» übersetzt, was gerade nicht stimmt.

Bei Mehrdeutigkeit, Ironie und Metaphern zeigen alle Textgeneratoren Mängel. Dies gilt auch für den aktuell gehypten GPT-3 (siehe Kasten). Mit diesem lassen sich verschiedenste Textformen herstellen: Chats, Gedichte oder Reden wie beispielsweise jene, die Bundesrat Cassis an den Swiss Digital Days 2022 gehalten hat.

Und natürlich kann der GPT-3 auch Fake News. Das weist auf eine elementare Gefahr solcher Systeme hin. Diese erstaunlichen Textoberflächen verführen selbst da, wo sie Wissen nur simulieren und reinen Quatsch erzählen. Bei genauem Hinsehen mangelt es dem GPT-3 noch immer an Kohärenz, Originalität und intentionaler Kreativität.

Wo bleibt die Moral?

Der Roboter schadet nie einem Menschen, formulierte Asimov sein erstes Robot-Gesetz. In diesem Rahmen interessant ist ein Text, den GPT-3 2020 für die ZeitungGuardian verfasst hat. «Ich bin kein Mensch, ich bin ein Roboter», beginnt er beschwichtigend, um dann zu ergänzen, dass er «als Folge menschlicher Handlungen böse werden» könnte.

Das eröffnet Fragen: Ist die Maschine gut, bloss der Mensch böse, und geht bei einer KI die Gefahr allein vom Training mit den Menschen aus? Wohin letzteres führen kann, demonstrierte 2016 der Tay-Bot. Innert 16 Stunden machte ihn die Twitter-Gemeinde, die ihn trainieren sollte, zum üblen Rassisten und Hassredner, sodass Microsoft ihn vom Netz nehmen musste.

Textgeneratoren haben keine Moral. Ihr Erfahrungshorizont besteht aus Gigabytes von Texten, aber sie verfügen weder über Welterfahrung noch über «Common sense», mit dem die Welt überhaupt erst zu verstehen sei, so die KI-Forscherin Margaret Mitchell. Selbst Sam Altmann, der CEO des Projekts Open AI, das den GPT-3 entwickelt, warnte unlängst vor dessen «unglaublich limitierter» Vertrauenswürdigkeit.

Bezüglich Vertrauen, Witz und Empathie behält die Literatur weiterhin die Oberhand. Deshalb wird sie als Trainingspartnerin herangezogen. Noch wichtiger aber lehrt Literatur auch kritisch hinzusehen, denn die fast schon perfekten Simulationen der Sprach-KI lassen sich nicht mehr aus der Welt zaubern. (sda/mj)

Von Beat Mazenauer, Keystone-SDA 



Kommentar wird gesendet...

Kommentare

Kommentarfunktion wurde geschlossen

Diese Artikel könnten Sie auch interessieren:

Zum Seitenanfang20230129