- Berlin
- Künstliche Intelligenz
KI in Berliner Verwaltung: Wenn der Computer das Sagen hat
Berliner Behörden nutzen künstliche Intelligenz – das entlastet die Mitarbeitenden, birgt aber auch Gefahren
Bobbi, Krim Pro und Intelligent Zoning Engine – so heißen drei der 15 mehr oder weniger intelligenten Computersysteme, die derzeit in der Berliner Verwaltung zum Einsatz kommen. Anlässlich einer schriftlichen Anfrage aus der AfD-Fraktion im Abgeordnetenhaus gibt Martina Klement, Staatssekretärin für Digitalisierung und Verwaltungsmodernisierung, Einblick in die Nutzung von automatisierten Programmen und KI-Systemen. Denn anders als so manches Vorurteil über die Behörden der Hauptstadt vermuten lässt, unterstützen smarte Maschinen bereits den öffentlichen Dienst.
Analysieren und chatten
Laut Klement geht es um drei Einsatzfelder, in denen Systeme, »die künstliche Intelligenz verwenden oder Prozesse automatisieren«, die Arbeit erleichtern sollen: So können die Programme erstens Verwaltungsbeschäftigte bei »repetitiven Aufgaben und Prozessen unterstützen«, zweitens Entscheidungsfindungen erleichtern, indem sie »große Datenmengen analysieren und Muster erkennen«, und drittens in Form von sogenannten Chatbots die Anfragen von Bürger*innen beantworten.
Eine typische repetitive Aufgabe: die Steuerprüfung. Hier nutzt die Finanzbehörde ein Risikomanagementsystem, das vor der individuellen Prüfung unplausible Steuererklärungen auswählt. Dadurch können sich die Mitarbeiter*innen auf Risikofälle konzentrieren und dadurch mit höherer Wahrscheinlichkeit Steuerhinterziehungen aufdecken.
Ein intelligentes Computerprogramm hilft dabei, Grundschuleinzugsgebiete zuzuschneiden. Jedes Jahr werden Erstklässer*innen abhängig von ihrer Wohnadresse einer konkreten Schule zugeordnet. Laut Klement nutzt die Intelligent Zoning Engine neben Informationen über Schulkapazitäten und Wohnorte zusätzlich demografische Daten, um möglichst kurze Schulwege für die jeweiligen Einzugsgebiete zu gewährleisten.
Der Chatbot Bobbi schließlich fungiert im dritten Einsatzfeld als »virtueller Bürger-Service-Assistent«. Eigener Testung zufolge lässt die Intelligenz dieses Systems allerdings zu wünschen übrig.
Stellenkürzungen in Aussicht?
Entlastung mit gleichzeitiger Effizienzsteigerung – blicken Berlins Behörden also bald massiven Stellenkürzungen entgegen? Klement vermeidet in ihrer Antwort eine Prognose. Tobias Schulze, digitalpolitische Sprecher der Linksfraktion im Abgeordnetenhaus, hält die Sorge jedoch für unberechtigt. »Wir haben ja im Moment das umgekehrte Problem, dass wir die offenen Arbeitsplätze nicht besetzen können. Es wäre sinnvoll, wenn man dem Fachkräftemangel damit etwas entgegensetzt.«
Bis künstliche Intelligenz flächendeckend Arbeit abnehmen könne, müsse allerdings erst einmal eine breite Digitalisierung stattfinden. »Wir müssen erst die Pflichtaufgaben erfüllen«, sagt Schulze »nd« und meint damit die Digitalisierung von Verwaltungsprozessen, die nach wie vor auf Papier stattfinden.
Für Mitarbeiter*innen sieht Schulze vielmehr die Gefahr, ihre Entscheidungsmacht an den Computer zu verlieren. »Wenn Sie nur noch Multiple Choice machen, ist Ihre Handlungsfähigkeit eingeschränkt. Das macht unzufrieden und entfremdet von der Arbeit«, sagt Schulze. KI-Systeme für die Verwaltung müssten deshalb so gestaltet werden, dass am Ende die Entscheidungshoheit bei den Beschäftigten liege.
Auf andere Risiken geht die Staatssekretärin ausführlicher ein: So könnten etwa KI-Systeme Diskriminierungen reproduzieren, die sie anhand der eingespeisten Daten erlernt hätten. Eine Gefahr, die es insbesondere in sensiblen Bereichen wie Strafjustiz oder Sozialdiensten zu vermeiden gelte.
Philipp Krüger, Experte für Polizei und Menschenrechte bei Amnesty International in Deutschland, blickt deshalb skeptisch auf den Einsatz künstlicher Intelligenz innerhalb der Sicherheitsbehörden. Gerade zur Vorhersage von Kriminalität habe die Nutzung von KI-Systemen in den vergangenen Jahren deutlich zugenommen. »Wir von Amnesty sehen hier eine Gefahr in Bezug auf die Menschenrechte, weil solche Systeme Diskriminierungen erlernen können.« Ein Beispiel: Wenn die Daten der Polizei als Grundlage dienen, um Verbrechen zu prognostizieren, beeinflussen Racial Profiling und andere vorurteilsbehaftete Polizeimethoden die Wahrscheinlichkeitsrechnung der KI.
Die »Blackbox« als Glaskugel
nd.Muckefuck ist unser Newsletter für Berlin am Morgen. Wir gehen wach durch die Stadt, sind vor Ort bei Entscheidungen zu Stadtpolitik - aber immer auch bei den Menschen, die diese betreffen. Muckefuck ist eine Kaffeelänge Berlin - ungefiltert und links. Jetzt anmelden und immer wissen, worum gestritten werden muss.
Auch die Berliner Polizei nutzt mit »Krim Pro« eine Technik, die Wohnungseinbrüche vorhersagen soll und dementsprechend Streifen in die auserkorenen Risikogebiete schickt – und das schon seit 2016. Die Zahlen deuten jedoch nicht wirklich auf Erfolg hin: 2015 verzeichnete die Berliner Polizei 6100 Wohnungseinbrüche, 2016 waren es 6690, und 2022, sechs Jahre nach der Einführung von »Krim Pro«, registrierte sie 6887 Fälle.
Während sich der tatsächliche Nutzen von Präventionsmaßnahmen schwer bemessen lässt, steigen die Risiken, je intelligenter das KI-System wird. Neben der Diskriminierungsgefahr weisen Fachleute auf das »Blackbox«-Problem hin: Wie genau ein KI-System zu einem Ergebnis kommt, lässt sich nicht nachvollziehen. Denn das neuronale Netzwerk findet eigene Lösungswege. »Dies kann die Transparenz der Verwaltung und die Rechenschaftspflicht beeinträchtigen«, gibt selbst die Staatssekretärin für Digitalisierung zu.
Linke-Politiker Schulze fordert deshalb eine frühe Implementierung der EU-Richtlinie zu künstlicher Intelligenz, die derzeit erarbeitet wird. »Wir müssen uns überlegen, wie wir das im Verwaltungsrecht umsetzen.« Denn wenn KI erst einmal im großen Maßstab angewendet werde, könne man die Programme nur noch schwer zu Transparenz verpflichten. »Aber die Verwaltung muss demokratisch und transparent nachvollziehbar sein, für alle Bürger*innen.«
Neben dem demokratischen Problem fehlender Transparenz im öffentlichen Dienst entsteht durch die rasante Weiterentwicklung von KI ein noch grundsätzlicheres Risiko: Schon jetzt können KI-Systeme zielgerichtet und mit eigener Initiative agieren, ohne dass die Funktionsweise im »Inneren« zu durchschauen ist. Expert*innen fordern deshalb eine starke Regulierung von Basismodellen wie GPT4, um schon am Ursprung zu verhindern, dass die Programme zu schädlichem Agieren fähig sind. Sollte es nicht gelingen, die Entwicklung zu regulieren, könnten KI-Systeme, die zur kritischen Infrastruktur des öffentlichen Dienstes gehören, großen Schaden anrichten. Allerdings kann davon bei Bobbi und Krim Pro noch keine Rede sei.
Wir behalten den Überblick!
Mit unserem Digital-Aktionsabo kannst Du alle Ausgaben von »nd« digital (nd.App oder nd.Epaper) für wenig Geld zu Hause oder unterwegs lesen.
Jetzt abonnieren!
Das »nd« bleibt gefährdet
Mit deiner Hilfe hat sich das »nd« zukunftsfähig aufgestellt. Dafür sagen wir danke. Und trotzdem haben wir schlechte Nachrichten. In Zeiten wie diesen bleibt eine linke Zeitung wie unsere gefährdet. Auch wenn die wirtschaftliche Entwicklung nach oben zeigt, besteht eine niedrige, sechsstellige Lücke zum Jahresende. Dein Beitrag ermöglicht uns zu recherchieren, zu schreiben und zu publizieren. Zusammen können wir linke Standpunkte verteidigen!
Mit deiner Unterstützung können wir weiterhin:
→ Unabhängige und kritische Berichterstattung bieten.
→ Themen abdecken, die anderswo übersehen werden.
→ Eine Plattform für vielfältige und marginalisierte Stimmen schaffen.
→ Gegen Falschinformationen und Hassrede anschreiben.
→ Gesellschaftliche Debatten von links begleiten und vertiefen.
Sei Teil der solidarischen Finanzierung und unterstütze das »nd« mit einem Beitrag deiner Wahl. Gemeinsam können wir eine Medienlandschaft schaffen, die unabhängig, kritisch und zugänglich für alle ist.