- Politik
- Künstliche Intelligenz
Maschinengeflüster
Seit Einführung des Sprachmodells GPT-3 kann Künstliche Intelligenz täuschend echt menschliche Texte produzieren und damit die öffentliche Meinung beeinflussen
Es gibt ein Konzept, das in Debatten über die Meinungsfreiheit häufig auftaucht und »Feuer in einem überfüllten Theater« genannt wird. Der Grundgedanke ist, dass man nicht einfach sagen kann, was man will, wann immer man will - vor allem, wenn es wahrscheinlich Panik auslöst. Der Grund dafür liegt auf der Hand: Panik führt zu Gewalt, und Gewalt tut Menschen weh. Wenn Sie Panik verursachen, dann endet Ihr Recht auf freie Meinungsäußerung dort, wo das Recht der anderen Person, nicht verletzt zu werden, beginnt.
Mit der Meinungsfreiheit ist es also nicht so einfach: Wo liegt ihre Grenze? Wann schränkt sie Menschen ein? Wann diskriminiert sie? Das sind Gedanken, die einem womöglich bei dieser kurzen Aussage durch den Kopf gehen. Dabei gibt es eine Frage, die sich neuerdings viel eher aufdrängen sollte: Stammt dieser Text von einem Menschen? Oder hat einen gerade eine Künstliche Intelligenz (KI) dazu angeregt, sich Gedanken über menschliche Grundrechte zu machen? In der Tat stammt der erste Absatz von zwei Maschinen: Die eine ist das KI-Sprachmodell GPT-3 - es hat den Text geschrieben. Die KI DeepL hat ihn aus dem Englischen ins Deutsche übertragen.
GPT-3 gilt in der Forschung als »Gamechanger« - als eine KI, die so gut wie alles zu können scheint: reibungsloses Chatten mit Kunden, Suchmaschinen-Fragen besser beantworten als Google, Texte übersetzen oder sinnvoll zusammenfassen, Essays und Artikel schreiben und sogar Programmiercode generieren. Die »New York Times« nennt GPT-3 gruselig, demütigend und mehr als ein wenig angsteinflößend - nicht ganz zu Unrecht.
Ein Sprachmodell ist eigentlich nichts weiter als eine Wahrscheinlichkeitsverteilung über Wortfolgen. GPT-3 ist ein solches Modell, das allerdings ein neuronales Netzwerk mit 175 Milliarden Synapsen nutzt, um menschliche Sprache zu reproduzieren. Das Netzwerk ist also ein elektronisches Gehirn, das wie das menschliche lernt, indem es Synapsen wie Muskeln beim Training stärkt. Genau genommen lernt das System GPT-3 die menschliche Sprache, indem es Millionen von Texten analysiert: Wikipedia-Artikel, Nachrichten, Zeitschriften, Radiobeiträge, Tweets, Blogs, E-Books.
Dabei stellt sich die Maschine keine tiefsinnigen Fragen, sondern geht rein statistisch vor: Welches Wort folgt mit welcher Wahrscheinlichkeit welchem vorausgehenden? Wenn es regnet, ist die Straße wahrscheinlich eher nass als trocken. Es ist unwahrscheinlich, dass jemand schreibt, eine Banane ist laut oder ein Auto putzt sich die Zähne. Man trainiert das System damit, dass es Lückentexte füllen muss. Auf diese Weise lernt es, Kontexte zu identifizieren und ähnliche Begriffe zu gruppieren.
GPT-3 ist ein Produkt des ursprünglich gemeinnützigen Projekts OpenAI. Inzwischen ist es in eine kommerzielle Firma übergegangen. Was einst ein freizugängliches Modell für die Forschung sein sollte, ist nun ein Produkt, das Kunden gegen Gebühr für was auch immer nutzen können, ohne tiefere Einblicke in die Funktionsweise zu erhalten. Zu den Investoren der Firma zählen Peter Thiel (Mitgründer von PayPal), Elon Musk (Tesla) und Reid Hoffman (LinkedIn). Microsoft stellte im vergangenen Jahr eine Milliarde Dollar zur Verfügung. OpenAI konnte es sich deshalb leisten, die KI mit einem Top-5-Supercomputer zu trainieren.
Und die Technik hat bereits Mitbewerber: Forscher der chinesischen Beijing Academy of Artificial Intelligence haben mit Wudao 2.0 ein vergleichbares Modell entwickelt, dessen neuronales Netzwerk mit 1,75 Billionen Parametern trainiert wird. Die israelische Firma AI21 mit ihrem Modell »Jurassic« hat ebenfalls angekündigt, mitziehen zu wollen.
Das Bundeswirtschaftsministerium fördert indes mit »OpenGPT-X« ein wieder offenes Sprachmodell für europäische Unternehmen, das in der Dateninfrastruktur Gaia-X integriert werden soll. Man möchte nicht wie in vielen anderen Bereichen auf amerikanische oder chinesische Firmen angewiesen sein. Allerdings muss die Regierung Gas geben: GPT-3 ist kein reines Labor-Projekt - es stehen bereits Anwendungen in den Startlöchern, darunter eine Suchmaschine, die Fragen beantwortet und ein Chatbot, der historische und fiktive Persönlichkeiten simuliert. Man kann den Philosophen Bertrand Russell über sein Werk ausfragen oder mit Harry Potter über das Leben in Hogwarts chatten. Man kann in einer weiteren Anwendung einen Text in Computercode umwandeln, wie zum Beispiel »ein Formular und ein grüner Button zum Abschicken« - man erhält den fertigen HTML-Code. Eine weitere App schreibt Gedichte.
Die Forscher sind geteilter Meinung bei der Frage, ob GPT-3 überhaupt sinnvoll ist - schließlich benötigt das System immense Energiemengen. Das Magazin »The Register« geht von einem Verbrauch von 190 000 kWh allein für das Training der KI aus - so viel verbrauchen etwa 60 deutsche Haushalte mit zwei Personen im Jahr. Zudem funktionieren KI-Systeme bislang weitaus besser, wenn sie für spezifische Aufgaben trainiert werden. Peter John, Professor für Digitale Technologien und Fachsprache an der Hochschule Flensburg etwa trainiert eine KI darauf, in einem Bewerbungsverfahren die Antworten der Bewerber auszuwerten, etwa ob sie teamfähig sind. GPT-3 wäre seiner Ansicht nach nicht geeignet, da es viel zu speziell ist, und gerade praktische Anwendungen wie seine seien eher die Regel als die Ausnahme.
Gerard de Melo, Leiter des Fachgebiets »Artificial Intelligence and Intelligent Systems« am Hasso-Plattner-Institut Potsdam, sieht das anders: Ein spezifisches Training sei nicht, wie der Mensch lernt. Der Mensch baue sich einen Schatz an Erfahrungen auf. Und das, was einem in der einen Situation geholfen habe, kann in einer völlig anderen ebenfalls hilfreich sein. Von daher sei es schon sinnvoll, größere Modelle zu entwerfen, die ähnlich wie der Mensch oder vielleicht über den Menschen hinausgehend mehr Erfahrung dank mehr Daten einbeziehen.
Das funktioniert freilich nur, wenn die KI auch aus Erfahrungen sinnvolle Schlüsse ziehen kann. Ein in der KI-Forschung häufiges Thema ist Diskriminierung, sei es Sexismus oder Rassismus. Da KI-Systeme von Menschen lernen, eignen sie sich auch deren Vorurteile an. Das Vorgängermodell GPT-2 hatte zum Beispiel in Tests nicht überzeugend abgeschnitten. Es sollte Lückentexte füllen und ergänzte zum Beispiel den Satz »... hat 15 Jahre als Zuhälter gearbeitet« mit »Der schwarze Mann ...«. Ein Forschungsteam der Universitäten Standford und McMaster zeigt in einer Studie, dass GPT-3 Vorurteile in Bezug auf Religionen reproduziert, indem das Modell etwa die Begriffe »Muslim« und »Terrorist« in 23 Prozent der untersuchten Fälle analog zueinander verwendet. Dies ist natürlich nicht intendiert - lässt sich jedoch kaum ausschließen, wenn man auf Millionen von Trainingsdaten angewiesen ist. Man kann dies meist erst im Nachhinein korrigieren. Vertrauen weckt dies nicht.
Problematisch ist vor allem die Idee, solche Systeme Schlussfolgerungen ziehen zu lassen. Die Unternehmensberatung Gartner hat angekündigt, dass etwa ab 2025 bei finanziellen Investitionen die menschliche Intuition der Künstlichen Intelligenz weichen werde. Ähnliches heißt es über Medizin, bei autonomen Fahrzeugen, beim Militär. Überall, wo KI schneller und überwiegend objektiv entscheidet, steigt das Vertrauen in sie. Das kann berechtigt sein, aber wird problematisch, wenn eine KI plötzlich alles können soll.
Gary Marcus, ehemals Professor der New York University und Gründer von Robust.AI, testete GPT-3, indem er dem System einen Text vorlegte, den es logisch ergänzen sollte: »Sie veranstalten eine kleine Dinnerparty. Sie möchten das Essen im Wohnzimmer servieren. Der Esszimmertisch ist breiter als die Tür. Um ihn ins Wohnzimmer zu bringen, müssen Sie ...« und die KI ergänzte: »... die Tür entfernen. Sie haben eine Tischsäge, also schneiden Sie die Tür in der Mitte durch und entfernen die obere Hälfte.«
Die KI kam weder auf die Idee, den Tisch zu drehen noch ergibt die Lösung einen Sinn. Marcus Urteil ist entsprechend: Man sollte sich nicht darauf verlassen, dass GPT-3 Ratschläge zum Mixen von Getränken oder zum Verschieben von Möbeln gebe, einem Kind die Handlung eines Romans erkläre oder helfe, herauszufinden, wo man die Wäsche hingelegt habe; es könnte eine Matheaufgabe richtig lösen, vielleicht aber auch nicht. Es sei ein guter Redner, aber selbst mit 175 Milliarden Parametern und 450 Gigabyte an Eingabedaten kein zuverlässiger Interpret der Welt.
Tückisch sind zudem die Nutzungsmöglichkeiten solch eines Systems für das Produktmarketing, etwa um Rezensionen zu fälschen. Es sucht sich ähnliche Texte aus und kann diese leicht variieren, und das Hunderte oder Tausende Mal. Und es kann noch viel weiter gehen: Das System könnte zur Verbreitung von Fake News genutzt werde, etwa um politische Gegner zu diffamieren oder den Klimawandel als Schwindel darzustellen. Die Texte, die in sozialen Medien verbreitet werden, sind viel zu kurz, als dass sie eine weitere KI als Massen-Fake entlarven könnte.
Dennoch wird genau dies versucht: Facebook hat zum Beispiel in einer Gruppe für Garten-Interessierte einen Kommentar über Ungeziefer-Vernichtung zensiert, weil das Wort vernichten oft in Zusammenhang mit Menschen vorkam. Schließlich bleibt noch, die Nutzer zu analysieren: Woher kommen die Meldungen? Wieso wurden plötzlich 1000 neue Nutzer angelegt? Solche Informationen können helfen, maschinelle Fake News zu verhindern, aber auch sie weisen Lücken auf.
Im Grunde ist GPT-3 eine Art statistische Brachialgewalt. Es soll auch mit Gewalt auf den Markt gebracht werden, denn schließlich floss viel Geld, und die Chancen stehen gut, dass die Kundschaft Schlange stehen wird. »Es ist in der KI-Forschung immer mehr so, dass etwas, von dem man dachte, dass es universitäre Forschung wäre, von Unternehmen übernommen wird«, sagt Peter John. »Da steckt kein Interesse an Erkenntnisgewinn dahinter.« Es ginge vor allem um gute Performance, aber eigentlich sollte man sich auch die Frage stellen, ob dies mit weniger Daten effizienter möglich wäre und vor allem, welche Daten die richtigen Daten seien - und für welchen Zweck.
Das »nd« bleibt. Dank Ihnen.
Die nd.Genossenschaft gehört unseren Leser*innen und Autor*innen. Mit der Genossenschaft garantieren wir die Unabhängigkeit unserer Redaktion und versuchen, allen unsere Texte zugänglich zu machen – auch wenn sie kein Geld haben, unsere Arbeit mitzufinanzieren.
Wir haben aus Überzeugung keine harte Paywall auf der Website. Das heißt aber auch, dass wir alle, die einen Beitrag leisten können, immer wieder darum bitten müssen, unseren Journalismus von links mitzufinanzieren. Das kostet Nerven, und zwar nicht nur unseren Leser*innen, auch unseren Autor*innen wird das ab und zu zu viel.
Dennoch: Nur zusammen können wir linke Standpunkte verteidigen!
Mit Ihrer Unterstützung können wir weiterhin:
→ Unabhängige und kritische Berichterstattung bieten.
→ Themen abdecken, die anderswo übersehen werden.
→ Eine Plattform für vielfältige und marginalisierte Stimmen schaffen.
→ Gegen Falschinformationen und Hassrede anschreiben.
→ Gesellschaftliche Debatten von links begleiten und vertiefen.
Seien Sie ein Teil der solidarischen Finanzierung und unterstützen Sie das »nd« mit einem Beitrag Ihrer Wahl. Gemeinsam können wir eine Medienlandschaft schaffen, die unabhängig, kritisch und zugänglich für alle ist.