BLOG

Die Probleme der KI

Marcus Knill

Mehr und mehr wird mit künstlicher Intelligenz (KI) geschrieben. Wie bei Bildmanipulationen stellt sich die Frage, wie man die Qualität testen kann, wie man die Quellen finden kann und wie man sehen kann, wie viel vom Text einfach Spekulation und Extrapolation (Halluzination) ist. KI hat viele Probleme.

Datenklau

Ein Hauptproblem von KI ist, dass die Quellen nicht angegeben sind. Viel Inhalt wird heute ganz einfach geklaut, ohne dass der Autor angegeben wird. Grosse Sprachmodelle wie ChatGPT sollen schon Hunderttausende von Büchern gelesen haben. Andere Textquellen müssen in die Millionen Dokumente gehen. Die grösste Bibliothek der Welt (Library of Congress) besteht aus 39 Millionen Büchern. ChatGPT hat also erst ein Hundertstel davon «absorbiert», doch das könnte sich bald vergrössern. Schon gibt es Klagen wegen Datenklau.

Halluzination

KI interpoliert oft und sagt mit autoritärer Stimme Dinge, von denen sie keine Ahnung hat. Der offizielle Name ist Halluzination. Ein Artikel auf The Register meint sogar, dass KI schädlich ist und zerstört werden sollte. Warum? ChatGPT hat sogar Quellen frei erfunden. Der Register-Journalist hatte einen Test gemacht und sich für seine eigene Person interessiert. Die KI behauptete, dass er tot sei. Er fragte nach Quellen. Die Maschine hat sogar URLs erfunden, um die Behauptung zu unterstützen.

Wie kann man KI entdecken

Wie kann man entdecken, ob ein Text von einer Maschine oder einem Menschen geschrieben worden ist? Das wird immer schwieriger. Lehrer, Professoren und Herausgeber müssen sich schon heute damit rumschlagen. Schrieb ein Schüler den Aufsatz selbst oder hat er den Aufsatz einfach schreiben lassen? Das neue Tool könnte zu einer Renaissance zu «Persönlichen Interviews» als Test führen. In Onlinekursen könnten schon heute viele Studenten Hilfe vom «KI-Bruder» kriegen. Ein Stanford Tool soll mit einer Wahrscheinlichkeit von 95 Prozent fähig sein, einen KI-generierten Report zu entdecken. Das Problem ist, dass man der KI heute schon auch angeben kann, in welchem Stil man schreiben will. Man kann der Maschine zum Beispiel eigene Texte eingeben und dann im gleichen Stil weiterschreiben lassen. Studenten können natürlich auch den schon geschriebenen Text in eigenen Worten umschreiben. Deshalb werden Prüfungen immer mehr mündlich gemacht.

Verseuchung und Kulturzerfall

Ein weiteres Problem der KI ist die Verseuchung durch Texte, die nicht klar recherchiert sind. Die Maschinen lernen unweigerlich mehr und mehr auch von der eigenen Kloake, die sie generiert haben. Man kann sich vorstellen, dass die Maschinen in der Zukunft sogar von KI generierten Inhalt vorziehen und die «Menschen diskriminieren». Es wäre eine wahrlich ironische Entwicklung, wenn unsere Kultur langsam zu einer unscharfen Masse von Unsinn zerfällt. Sowohl Kunst als auch Literatur und Wissenschaft könnten davon betroffen sein. Die Menschen werden nicht nur wegrationalisiert, auch frühere Erkenntnisse werden neu geschrieben. Historiker werden noch mehr Schwierigkeiten haben zu sehen, wer zuerst eine Idee oder eine Technik entdeckt hat.

Der folgende Text ist von einer KI generiert worden und gibt eine Antwort auf die Frage, was die vier Hauptprobleme von KI sind. Interessanterweise hat die KI keine der obigen Probleme angesprochen. Wir haben oben «Geistige Eigentumsrechte», «Verifikation der Quellen», «Entdeckung des Gebrauchs von KI» und «Kulturzerfall» angesprochen. Die KI gibt «Kontext», «Datenschutz», «Arbeitsplatzvernichtung» und «Voreingenommenheit» an.

«Das erste grosse Problem mit KI ist ihr Mangel an Verständnis für Kontext und gesunden Menschenverstand. Trotz bedeutender Fortschritte im maschinellen Lernen hat die KI immer noch Schwierigkeiten, die Feinheiten menschlicher Kommunikation, Kultur und allgemeines Weltwissen zu begreifen. Sie arbeitet ausschliesslich auf der Basis ihrer Trainingsdaten und kann nicht ‹denken› oder ‹verstehen›, wie Menschen es tun.

Das zweite Problem ist Datenschutz und -sicherheit. KI-Systeme benötigen oft grosse Datenmengen für das Training, was potenziell die Privatsphäre von Einzelpersonen verletzen könnte. Wenn diese Systeme nicht sicher sind, könnten die von ihnen gehaltenen Daten von böswilligen Parteien ausgenutzt werden.

Das dritte Problem ist das Risiko der Arbeitsplatzverdrängung. Mit der Weiterentwicklung der KI können immer mehr Aufgaben automatisiert werden, was bestimmte Arbeitsplätze möglicherweise überflüssig macht. Dies könnte zu erheblichen gesellschaftlichen Veränderungen und wirtschaftlicher Instabilität führen.

Schliesslich gibt es das Problem der Voreingenommenheit in der KI. Wenn die zur Ausbildung eines KI-Systems verwendeten Daten voreingenommen sind, können auch die Entscheidungen der KI voreingenommen sein. Dies kann bestehende gesellschaftliche Vorurteile verstärken und zu ungerechten Ergebnissen in Bereichen wie Einstellungsverfahren, Kreditvergabe und Strafrecht führen.»



Marcus Knill ist Experte für Medienrhetorik, Berater und Autor von rhetorik.ch.

Unsere Kolumnistinnen und Kolumnisten vertreten ihre eigene Meinung. Sie deckt sich nicht in jedem Fall mit derjenigen der Redaktion.

Kommentar wird gesendet...

Kommentare

Kommentarfunktion wurde geschlossen

Die neuesten Blogs

21.09.2023 - Pierre Rothschild

Hat das Modell Filmfestival ausgedient?

In Zukunft wird bei den Festivals der Schwerpunkt dort liegen, wo man einander begegnen kann.

Zum Seitenanfang20230921
persönlich Exemplar