Mythos KI

Künstliche Intelligenz birgt Chancen und Risiken. Um ihr Potenzial zu erfassen, braucht es vor allem ein Verständnis der Technik

Lange vorbei sind die Zeiten, in denen künstliche Intelligenz (KI) ausschließlich in der Welt der Science-Fiction eine Rolle spielte. Unsere Vorstellungen von ihr sind trotzdem noch immer stark von diesen Bildern geprägt.
Lange vorbei sind die Zeiten, in denen künstliche Intelligenz (KI) ausschließlich in der Welt der Science-Fiction eine Rolle spielte. Unsere Vorstellungen von ihr sind trotzdem noch immer stark von diesen Bildern geprägt.

Ein Raunen ging durch die Welt, als kürzlich das amerikanische Unternehmen OpenAI die neueste Version seines Sprachmodells ChatGPT vorstellte. Machten sich wenige Monate zuvor Nutzer*innen im Netz noch über die hohe Quote falscher Antworten lustig, die der Prototyp ausspuckte, ist die künstliche Intelligenz (KI) nun in der Lage, nicht mehr nur Geschichten zu erzählen und Wissensfragen zu beantworten, sondern ebenfalls in Sekundenschnelle Bilder aus Text zu generieren, Homepages zu basteln oder Programmcodes zu schreiben. Durch das Vorpreschen von OpenAI massiv unter Druck gesetzt, ziehen mittlerweile weitere Größen der Technikbranche wie Google, Microsoft oder Meta nach, kündigen ebenfalls entsprechende Programme an und steigen ein in den Wettkampf um das erste marktreife Sprachmodell.

Die nun aufkeimende Diskussion über Ethik, Moral und Zukunft der Technologie zeigt, wie sehr das Thema die zukünftige Ausgestaltung von Arbeit und Leben prägen wird. In Vergessenheit gerät dabei schnell, dass künstliche Intelligenz bereits heute aus dem Alltag nicht mehr wegzudenken ist. Vom Navigationssystem übers Übersetzungsprogramm bis hin zur Geschwindigkeitsregulierung der S-Bahn kommt die Technologie in unzähligen Bereichen des gesellschaftlichen Lebens längst zum Einsatz. Wie selbstverständlich sie im persönlichen Nahbereich ist, zeigt der Blick aufs eigene Smartphone. Immerhin flutet ein Großteil der damit geschossenen Fotos die sozialen Medien nicht, weil deren Urheber*innen so begnadete Fotograf*innen sind. Sondern weil eine künstliche Intelligenz im Hintergrund arbeitet und dem Menschen technische Entscheidungen abnimmt, wie genau die Kamera einzustellen ist.

Überhöhte Erwartungen

Im besten Fall stellt künstliche Intelligenz also eine Unterstützung dar. In diese Richtung geht auch die Definition von Katharina Anna Zweig, Leiterin des Algorithm Accountability Lab an der TU Kaiserslautern. Sie sagt, »als KI bezeichnet man eine Software, mit deren Hilfe ein Computer eine kognitive Tätigkeit ausführt, die normalerweise Menschen erledigen«. Und dennoch scheiden sich weiterhin die Geister, seit Programme wie ChatGPT oder Dall-E auch für die breite Masse zugänglich sind. Während die einen enthusiastisch von einem neuen Dampfmaschinen-Moment reden, der die Welt radikal verändern wird, befürchten andere, die Büchse der Pandora sei damit geöffnet worden und ganze Branchen seien perspektivisch dem Untergang geweiht.

Dass die Diskussion über KI hierzulande noch immer bestimmt ist durch eine Mischung aus Faszination und Ungläubigkeit, Ablehnung und Überhöhung, liegt auch an mangelndem Wissen darüber, worum es sich genau handelt – und wie die dahinterstehende Technik funktioniert. »Jede hinreichend fortschrittliche Technologie ist von Magie nicht zu unterscheiden«, schrieb einst der Science-Fiction-Autor Arthur C. Clarke. Der aktuelle Hype um KI-Programme erscheint wie eine Bestätigung dieser Aussage. Um dieser Mystifizierung entgegenzuwirken, bedarf es der Aufklärung. »In dem Moment, wo die Technik von Menschen hinterfragt und verstanden werden kann, gilt diese Technik als weniger magisch und damit weniger intelligent und gegebenenfalls weniger angsteinflößend«, meint Ira Diethelm von der Gesellschaft für Informatik.

Programme wie ChatGPT können zwar auf nahezu jede Frage eine Antwort liefern, selbst komplexe Sachverhalte erläutern, Schreibstile imitieren und dennoch handelt es sich bei ihnen um eine sogenannte schwache KI. Eine Unterhaltung mit dem Programm wirkt, als würde dieses verstehen, was es tut und worum es geht. Doch die Antworten des Chatbots beruhen stets auf einem mathematischen Modell. Kurz und knapp: Trotz beeindruckender Ergebnisse ist das Programm weit davon entfernt, selbst denken zu können. Zwar merkt es sich Muster und Struktur unserer Sprache, aber letztendlich wird immer nur die Wahrscheinlichkeit des nächsten Wortes errechnet. Was der Nutzer*in als vermeintliche Intelligenz erscheint, ist in Wahrheit von einem Algorithmus simuliert. Den Begriff der künstlichen Intelligenz hält Jeanette Hofmann vom Wissenschaftszentrum Berlin insofern auch für irreführend, als er »durch seinen Verweis auf die menschliche Intelligenz Erwartungen erzeugt, die die aktuelle Datenanalytik auch in Zukunft nicht einlösen kann«. Ernsthafte Bedrohungen durch eine starke und selbstständig denkende KI, wie sie in Filmen wie »Matrix« oder »2001: Odyssee im Weltraum« vorkommen, scheinen somit weiterhin in den Bereich der Science-Fiction zu gehören.

Schattenseiten der Technik

Zumindest vorerst. Ein kurzer Blick in die Überwachungs- und Rüstungsindustrie genügt, um zu verstehen, dass die allmähliche Verstetigung künstlicher Intelligenz weit mehr als eine harmlose Vereinfachung des Alltags mit sich bringt. Das Ende der Fahnenstange werden wohl kaum autonome Fahrzeuge im Straßenverkehr sein. Schon heute reicht die Spannbreite der repressiven Verwendung der Technologie von automatisierter Gesichtserkennung im öffentlichen Raum über das aus China bekannte Social-Scoring-System bis hin zu autonomen Waffensystemen. Und selbst das unschuldig daherkommende ChatGPT birgt so seine Schattenseiten. Recherchen des US-Magazines »Times« geben einen Einblick, wie die Optimierung der KI funktioniert. So berichtet das Magazin von Arbeiter*innen in Kenia, die unzählige Gewalt darstellende, rassistische und weitere menschenverachtende Inhalte sichten mussten, um damit das Programm zu trainieren. Während sich das Wissen des Vorgängerprogramms noch aus frei abrufbaren Inhalten aus dem Netz speiste, führt die Tätigkeit der sogenannten Clickarbeiter*innen dazu, dass die neueste Version von ChatGPT ethisch daherkommt. Damit die aktuelle Version des Sprachprogramms keine diskriminierenden Inhalte mehr ausgibt, bedurfte es zuvor entsprechender Trainings. Dafür werden riesige Mengen an Datensätzen von Menschen gesichtet, sortiert und mit entsprechenden Etiketten versehen. Erst dadurch beginnt die Maschine zu lernen, mit welchem Inhalt sie es zu tun hat. Wenig überraschend, dass dieser wenig glamouröse Teil des Projekts nicht mehr zum Aufgabenbereich der Entwickler*innen im Silicon Valley gehört, sondern in Billiglohnländer auf dem gesamten Globus ausgelagert wird.

Außer Frage steht, dass es ein Zurück hinter den jetzigen Stand der Technik nicht geben und künstliche Intelligenz die Zukunft bestimmen wird. Gegenwärtig beobachten wir lediglich den zaghaften Beginn dessen, was einmal möglich sein wird. Zu Beginn der Woche veröffentlichte Bill Gates unter dem Titel »Das Zeitalter der KI hat begonnen« einen siebenseitigen Brief. Darin bezeichnet er die Entwicklung der Technologie als »so grundlegend wie die Erfindung des Mikroprozessors, des Personal Computers, des Internets und des Mobiltelefons«. Neben kritischen Abwägungen über die Gefahren durch Missbrauch überwiegen beim Microsoft-Mitbegründer positive Visionen. So könne KI sowohl ein potenzielles Werkzeug zur Verbesserung der Produktivität der Menschheit sein als auch dazu beitragen, globale Ungleichheiten abzubauen. Etwa durch den Einsatz der Technologie im Gesundheits- und Bildungswesen oder auch in der Landwirtschaft. Angesichts zunehmender Wetterextreme infolge des Klimawandels könne sie ebenfalls dabei behilflich sein, auf lokale Klimabedingungen zugeschnittenes Saatgut und Impfstoffe für die Viehzucht zu entwickeln. Hehre Ideale, die der viertreichste Mensch der Welt vor sich herträgt. Inwiefern die Technik eines Tages tatsächlich zum Wohle der gesamten Menschheit zum Einsatz kommt, wird auch davon abhängen, in wessen Händen sie sich befindet.

Das »nd« bleibt. Dank Ihnen.

Die nd.Genossenschaft gehört unseren Leser*innen und Autor*innen. Mit der Genossenschaft garantieren wir die Unabhängigkeit unserer Redaktion und versuchen, allen unsere Texte zugänglich zu machen – auch wenn sie kein Geld haben, unsere Arbeit mitzufinanzieren.

Wir haben aus Überzeugung keine harte Paywall auf der Website. Das heißt aber auch, dass wir alle, die einen Beitrag leisten können, immer wieder darum bitten müssen, unseren Journalismus von links mitzufinanzieren. Das kostet Nerven, und zwar nicht nur unseren Leser*innen, auch unseren Autor*innen wird das ab und zu zu viel.

Dennoch: Nur zusammen können wir linke Standpunkte verteidigen!

Mit Ihrer Unterstützung können wir weiterhin:


→ Unabhängige und kritische Berichterstattung bieten.
→ Themen abdecken, die anderswo übersehen werden.
→ Eine Plattform für vielfältige und marginalisierte Stimmen schaffen.
→ Gegen Falschinformationen und Hassrede anschreiben.
→ Gesellschaftliche Debatten von links begleiten und vertiefen.

Seien Sie ein Teil der solidarischen Finanzierung und unterstützen Sie das »nd« mit einem Beitrag Ihrer Wahl. Gemeinsam können wir eine Medienlandschaft schaffen, die unabhängig, kritisch und zugänglich für alle ist.