Ethikrat sieht Künstliche Intelligenz als Werkzeug mit Gefahrenpotenzial

Gremium bezieht zum Einsatz moderner Computersysteme umfassend Stellung

  • Robert D. Meyer
  • Lesedauer: 5 Min.

Es wirkt wie das Klassenzimmer aus einer fernen Zukunft: Schüler*innen lösen ihnen gestellte Aufgaben – etwa Gleichungen im Mathematikunterricht – über ein Tablet oder einen Laptop. Im Hintergrund analysiert Software, welche Fehler einzelne Schüler*inen machen, das Programm passt daraufhin automatisiert weitere Schulaufgaben an den individuellen Lernerfolg an und berücksichtigt jeweilige Stärken als auch Schwächen der Lernenden. Alle Informationen laufen zentral beim Lehrpersonal zusammen, Lehrer*innen erhalten durch automatisch aufbereitete Statistiken eine maschinelle Unterstützung, um schulische Leistungen ihrer Schüler*innen besser bewerten zu können.

Technologisch ist dieses Szenario längst realisierbar, die Umsetzung scheitert aber – wie so oft – am eher träge organisierten deutschen Bildungssystem. Somit bleibt es erst einmal nur eine Zukunftsvision, die der Deutsche Ethikrat in seiner Stellungnahme zum Umgang mit künstlicher Intelligenz (KI) entwirft – zumindest auf die Bundesrepublik bezogen.

Vielleicht ist es aber auch gut so, dass das eingangs beschriebene Beispiel noch kein Alltag an deutschen Schulen ist. Denn auch wenn der Ethikrat in seinem am Montag in Berlin vorgestellten 287 Seiten umfassenden Positionspapier der technologischen Entwicklung grundsätzlich positiv gegenübersteht, mahnt er klare Vorgaben für den Einsatz von KI an. »Der Einsatz von KI muss menschliche Entfaltung erweitern und darf sie nicht vermindern. KI darf den Menschen nicht ersetzen. Das sind grundlegende Regeln für die ethische Bewertung«, betont Alena Buyx, Vorsitzende des Deutschen Ethikrats. Das klingt leichter, als es in der Umsetzung ist. Das war auch der Arbeitsgruppe »Mensch und Maschine« bewusst. Zweieinhalb Jahre ließ sich der Ethikrat für sein Positionspapier Zeit. Im Oktober 2020 hatte das Gremium vom damaligen Präsidenten des Bundestages, Wolfgang Schäuble, den Auftrag dafür erhalten.

Einerseits enthält die nun vorgelegte Stellungnahme grundsätzliche Vorstellungen zum Umgang mit KI, gleichzeitig aber auch sehr spezifische Handlungsempfehlungen. »Wenn menschliche Tätigkeiten an Maschinen delegiert werden, kann dies für verschiedene Personengruppen, Akteure und Betroffene ganz unterschiedliche Auswirkungen haben«, erklärt Judith Simon, Sprecherin der Arbeitsgruppe beim Ethikrat. Beispielhaft setzt sich das Gremium in seiner Stellungnahme deshalb mit vier Anwendungsbereichen auseinander: Medizin, schulische Bildung, öffentliche Kommunikation und Meinungsbildung sowie öffentliche Verwaltung. Denn der Einsatz von KI kann auf jedem einzelnen Gebiet nützlich sein, aber ebenso auch enorme gesellschaftliche Probleme bedeuten.

Beispiel Bildung: »Der Einsatz von KI kann das Eingehen auf individuelle Bedingungen und
Neigungen der Lernenden fördern und zudem den Unterrichtenden wichtige Informationen zum Lerngeschehen bereitstellen«, lobt der Philosoph Julian Nida-Rümelin, Vizevorsitzender des Ethikrats. Allerdings müsse die Datenerfassung und -bereitstellung dem Lernprozess dienen und dürfe nicht »zur Überwachung und zur Stigmatisierung von Lernenden missbraucht« werden. Als negatives Szenario führt Nida-Rümelin die Methode von sogenannten Classroom Analytics an, wie sie China umfangreich erprobt.

KI kann mehr als Hausaufgaben: SPD in Schleswig-Holstein lässt Antrag von Künstlicher Intelligenz formulieren

Diese Form des Einsatzes von KI im Klassenzimmer geht weit über das eingangs skizzierte Beispiel hinaus, bei dem intelligente Software die Lösung von Schulaufgaben analysiert. Peking lässt seit einigen Jahren KI-Systeme testen, bei denen Kameras und Sensoren das komplette Geschehen in einem Klassenraum filmen, messen und die gesammelten Informationen von einer Software in Echtzeit analysiert werden. Die Technik kann dabei durch Gesichts- und Bewegungserkennung beispielsweise feststellen, ob Schüler*innen gerade dem Unterricht folgen, abgelenkt sind oder ihre Aufgaben lösen. Durch Mikrofone lässt sich aufzeichnen und auswerten, wie hoch der Gesprächsanteil von Lehrer*innen und Schüler*innen im Unterricht ist und noch wichtiger: was diese sagen. Es gibt sogar Versuche, den Gemütszustand von Lernenden zu analysieren. Nida-Rümelin lehnt ein solches Szenario für Deutschland ab: »Eine Unterstützung der Lehrkräfte durch kontinuierliches Feedback kann die Unterrichtsergebnisse zwar erheblich verbessern, ein umfassendes Kontrollregime im Unterricht ist jedoch nicht wünschenswert.« Die Formulierung stellt einen Kompromiss dar. Manche Mitglieder des Ethikrats lehnen den Einsatz von KI in der Schule grundsätzlich ab.

Zivil-militärische Gefechtswolken: Rechenzentren für die Kriegführung werden auch von privaten Dienstleistern betrieben

Solche drastischen Beispiele für KI-Anwendungen finden sich für alle Bereiche, mit denen sich der Ethikrat eingehender beschäftigte. Mehrfach mussten sich etwa Gerichte bereits damit auseinandersetzen, ob die Nutzung von intelligenter Software durch Behörden nicht jetzt schon zu weit geht, vor allem bei Polizei, Justiz und Geheimdiensten. Erst Mitte Februar entschied das Bundesverfassungsgericht, dass der Einsatz einer neuen Datenanalyse-Software, die helfen sollte, schwere Straftaten zu verhindern, durch die Sicherheitsbehörden in Hessen und Hamburg in ihrer bisherigen Form verfassungswidrig ist. »Auch wenn eine Software vorhersagt, dass eine Person zu 99 Prozent straffällig wird, so können wir eben niemals wissen, ob die Person vor uns nicht genau das eine Prozent ist«, mahnt Judith Simon. Gerade in staatlichen Kontexten und mit Blick auf Entscheidungen, »die eine hohe Tragweite haben oder besonders vulnerable Gruppen betreffen, müssen hier hohe und verbindliche Anforderungen an Genauigkeit, Diskriminierungsvermeidung und Nachvollziehbarkeit gestellt werden«.

Oft ist es nur ein schmaler Grat, wann KI nutzt oder ihr Einsatz Schaden anrichten kann.

Wir-schenken-uns-nichts
Unsere Weihnachtsaktion bringt nicht nur Lesefreude, sondern auch Wärme und Festlichkeit ins Haus. Zum dreimonatigen Probeabo gibt es ein Paar linke Socken von Socken mit Haltung und eine Flasche prickelnden Sekko Soziale – perfekt für eine entspannte Winterzeit. Ein Geschenk, das informiert, wärmt und das Aussteiger-Programm von EXIT-Deutschland unterstützt. Jetzt ein Wir-schenken-uns-nichts-Geschenk bestellen.
- Anzeige -

Das »nd« bleibt. Dank Ihnen.

Die nd.Genossenschaft gehört unseren Leser*innen und Autor*innen. Mit der Genossenschaft garantieren wir die Unabhängigkeit unserer Redaktion und versuchen, allen unsere Texte zugänglich zu machen – auch wenn sie kein Geld haben, unsere Arbeit mitzufinanzieren.

Wir haben aus Überzeugung keine harte Paywall auf der Website. Das heißt aber auch, dass wir alle, die einen Beitrag leisten können, immer wieder darum bitten müssen, unseren Journalismus von links mitzufinanzieren. Das kostet Nerven, und zwar nicht nur unseren Leser*innen, auch unseren Autor*innen wird das ab und zu zu viel.

Dennoch: Nur zusammen können wir linke Standpunkte verteidigen!

Mit Ihrer Unterstützung können wir weiterhin:


→ Unabhängige und kritische Berichterstattung bieten.
→ Themen abdecken, die anderswo übersehen werden.
→ Eine Plattform für vielfältige und marginalisierte Stimmen schaffen.
→ Gegen Falschinformationen und Hassrede anschreiben.
→ Gesellschaftliche Debatten von links begleiten und vertiefen.

Seien Sie ein Teil der solidarischen Finanzierung und unterstützen Sie das »nd« mit einem Beitrag Ihrer Wahl. Gemeinsam können wir eine Medienlandschaft schaffen, die unabhängig, kritisch und zugänglich für alle ist.