- Politik
- KI
Ethikrat sieht Künstliche Intelligenz als Werkzeug mit Gefahrenpotenzial
Gremium bezieht zum Einsatz moderner Computersysteme umfassend Stellung
Es wirkt wie das Klassenzimmer aus einer fernen Zukunft: Schüler*innen lösen ihnen gestellte Aufgaben – etwa Gleichungen im Mathematikunterricht – über ein Tablet oder einen Laptop. Im Hintergrund analysiert Software, welche Fehler einzelne Schüler*inen machen, das Programm passt daraufhin automatisiert weitere Schulaufgaben an den individuellen Lernerfolg an und berücksichtigt jeweilige Stärken als auch Schwächen der Lernenden. Alle Informationen laufen zentral beim Lehrpersonal zusammen, Lehrer*innen erhalten durch automatisch aufbereitete Statistiken eine maschinelle Unterstützung, um schulische Leistungen ihrer Schüler*innen besser bewerten zu können.
Technologisch ist dieses Szenario längst realisierbar, die Umsetzung scheitert aber – wie so oft – am eher träge organisierten deutschen Bildungssystem. Somit bleibt es erst einmal nur eine Zukunftsvision, die der Deutsche Ethikrat in seiner Stellungnahme zum Umgang mit künstlicher Intelligenz (KI) entwirft – zumindest auf die Bundesrepublik bezogen.
Vielleicht ist es aber auch gut so, dass das eingangs beschriebene Beispiel noch kein Alltag an deutschen Schulen ist. Denn auch wenn der Ethikrat in seinem am Montag in Berlin vorgestellten 287 Seiten umfassenden Positionspapier der technologischen Entwicklung grundsätzlich positiv gegenübersteht, mahnt er klare Vorgaben für den Einsatz von KI an. »Der Einsatz von KI muss menschliche Entfaltung erweitern und darf sie nicht vermindern. KI darf den Menschen nicht ersetzen. Das sind grundlegende Regeln für die ethische Bewertung«, betont Alena Buyx, Vorsitzende des Deutschen Ethikrats. Das klingt leichter, als es in der Umsetzung ist. Das war auch der Arbeitsgruppe »Mensch und Maschine« bewusst. Zweieinhalb Jahre ließ sich der Ethikrat für sein Positionspapier Zeit. Im Oktober 2020 hatte das Gremium vom damaligen Präsidenten des Bundestages, Wolfgang Schäuble, den Auftrag dafür erhalten.
Einerseits enthält die nun vorgelegte Stellungnahme grundsätzliche Vorstellungen zum Umgang mit KI, gleichzeitig aber auch sehr spezifische Handlungsempfehlungen. »Wenn menschliche Tätigkeiten an Maschinen delegiert werden, kann dies für verschiedene Personengruppen, Akteure und Betroffene ganz unterschiedliche Auswirkungen haben«, erklärt Judith Simon, Sprecherin der Arbeitsgruppe beim Ethikrat. Beispielhaft setzt sich das Gremium in seiner Stellungnahme deshalb mit vier Anwendungsbereichen auseinander: Medizin, schulische Bildung, öffentliche Kommunikation und Meinungsbildung sowie öffentliche Verwaltung. Denn der Einsatz von KI kann auf jedem einzelnen Gebiet nützlich sein, aber ebenso auch enorme gesellschaftliche Probleme bedeuten.
Beispiel Bildung: »Der Einsatz von KI kann das Eingehen auf individuelle Bedingungen und
Neigungen der Lernenden fördern und zudem den Unterrichtenden wichtige Informationen zum Lerngeschehen bereitstellen«, lobt der Philosoph Julian Nida-Rümelin, Vizevorsitzender des Ethikrats. Allerdings müsse die Datenerfassung und -bereitstellung dem Lernprozess dienen und dürfe nicht »zur Überwachung und zur Stigmatisierung von Lernenden missbraucht« werden. Als negatives Szenario führt Nida-Rümelin die Methode von sogenannten Classroom Analytics an, wie sie China umfangreich erprobt.
KI kann mehr als Hausaufgaben: SPD in Schleswig-Holstein lässt Antrag von Künstlicher Intelligenz formulieren
Diese Form des Einsatzes von KI im Klassenzimmer geht weit über das eingangs skizzierte Beispiel hinaus, bei dem intelligente Software die Lösung von Schulaufgaben analysiert. Peking lässt seit einigen Jahren KI-Systeme testen, bei denen Kameras und Sensoren das komplette Geschehen in einem Klassenraum filmen, messen und die gesammelten Informationen von einer Software in Echtzeit analysiert werden. Die Technik kann dabei durch Gesichts- und Bewegungserkennung beispielsweise feststellen, ob Schüler*innen gerade dem Unterricht folgen, abgelenkt sind oder ihre Aufgaben lösen. Durch Mikrofone lässt sich aufzeichnen und auswerten, wie hoch der Gesprächsanteil von Lehrer*innen und Schüler*innen im Unterricht ist und noch wichtiger: was diese sagen. Es gibt sogar Versuche, den Gemütszustand von Lernenden zu analysieren. Nida-Rümelin lehnt ein solches Szenario für Deutschland ab: »Eine Unterstützung der Lehrkräfte durch kontinuierliches Feedback kann die Unterrichtsergebnisse zwar erheblich verbessern, ein umfassendes Kontrollregime im Unterricht ist jedoch nicht wünschenswert.« Die Formulierung stellt einen Kompromiss dar. Manche Mitglieder des Ethikrats lehnen den Einsatz von KI in der Schule grundsätzlich ab.
Zivil-militärische Gefechtswolken: Rechenzentren für die Kriegführung werden auch von privaten Dienstleistern betrieben
Solche drastischen Beispiele für KI-Anwendungen finden sich für alle Bereiche, mit denen sich der Ethikrat eingehender beschäftigte. Mehrfach mussten sich etwa Gerichte bereits damit auseinandersetzen, ob die Nutzung von intelligenter Software durch Behörden nicht jetzt schon zu weit geht, vor allem bei Polizei, Justiz und Geheimdiensten. Erst Mitte Februar entschied das Bundesverfassungsgericht, dass der Einsatz einer neuen Datenanalyse-Software, die helfen sollte, schwere Straftaten zu verhindern, durch die Sicherheitsbehörden in Hessen und Hamburg in ihrer bisherigen Form verfassungswidrig ist. »Auch wenn eine Software vorhersagt, dass eine Person zu 99 Prozent straffällig wird, so können wir eben niemals wissen, ob die Person vor uns nicht genau das eine Prozent ist«, mahnt Judith Simon. Gerade in staatlichen Kontexten und mit Blick auf Entscheidungen, »die eine hohe Tragweite haben oder besonders vulnerable Gruppen betreffen, müssen hier hohe und verbindliche Anforderungen an Genauigkeit, Diskriminierungsvermeidung und Nachvollziehbarkeit gestellt werden«.
Oft ist es nur ein schmaler Grat, wann KI nutzt oder ihr Einsatz Schaden anrichten kann.
Wir behalten den Überblick!
Mit unserem Digital-Aktionsabo kannst Du alle Ausgaben von »nd« digital (nd.App oder nd.Epaper) für wenig Geld zu Hause oder unterwegs lesen.
Jetzt abonnieren!
Das »nd« bleibt gefährdet
Mit deiner Hilfe hat sich das »nd« zukunftsfähig aufgestellt. Dafür sagen wir danke. Und trotzdem haben wir schlechte Nachrichten. In Zeiten wie diesen bleibt eine linke Zeitung wie unsere gefährdet. Auch wenn die wirtschaftliche Entwicklung nach oben zeigt, besteht eine niedrige, sechsstellige Lücke zum Jahresende. Dein Beitrag ermöglicht uns zu recherchieren, zu schreiben und zu publizieren. Zusammen können wir linke Standpunkte verteidigen!
Mit deiner Unterstützung können wir weiterhin:
→ Unabhängige und kritische Berichterstattung bieten.
→ Themen abdecken, die anderswo übersehen werden.
→ Eine Plattform für vielfältige und marginalisierte Stimmen schaffen.
→ Gegen Falschinformationen und Hassrede anschreiben.
→ Gesellschaftliche Debatten von links begleiten und vertiefen.
Sei Teil der solidarischen Finanzierung und unterstütze das »nd« mit einem Beitrag deiner Wahl. Gemeinsam können wir eine Medienlandschaft schaffen, die unabhängig, kritisch und zugänglich für alle ist.