• Berlin
  • Künstliche Intelligenz

KI in Berliner Verwaltung: Wenn der Computer das Sagen hat

Berliner Behörden nutzen künstliche Intelligenz – das entlastet die Mitarbeitenden, birgt aber auch Gefahren

  • Nora Noll
  • Lesedauer: 5 Min.

Bobbi, Krim Pro und Intelligent Zoning Engine – so heißen drei der 15 mehr oder weniger intelligenten Computersysteme, die derzeit in der Berliner Verwaltung zum Einsatz kommen. Anlässlich einer schriftlichen Anfrage aus der AfD-Fraktion im Abgeordnetenhaus gibt Martina Klement, Staatssekretärin für Digitalisierung und Verwaltungsmodernisierung, Einblick in die Nutzung von automatisierten Programmen und KI-Systemen. Denn anders als so manches Vorurteil über die Behörden der Hauptstadt vermuten lässt, unterstützen smarte Maschinen bereits den öffentlichen Dienst.

Analysieren und chatten

Laut Klement geht es um drei Einsatzfelder, in denen Systeme, »die künstliche Intelligenz verwenden oder Prozesse automatisieren«, die Arbeit erleichtern sollen: So können die Programme erstens Verwaltungsbeschäftigte bei »repetitiven Aufgaben und Prozessen unterstützen«, zweitens Entscheidungsfindungen erleichtern, indem sie »große Datenmengen analysieren und Muster erkennen«, und drittens in Form von sogenannten Chatbots die Anfragen von Bürger*innen beantworten.

Eine typische repetitive Aufgabe: die Steuerprüfung. Hier nutzt die Finanzbehörde ein Risikomanagementsystem, das vor der individuellen Prüfung unplausible Steuererklärungen auswählt. Dadurch können sich die Mitarbeiter*innen auf Risikofälle konzentrieren und dadurch mit höherer Wahrscheinlichkeit Steuerhinterziehungen aufdecken.

Ein intelligentes Computerprogramm hilft dabei, Grundschuleinzugsgebiete zuzuschneiden. Jedes Jahr werden Erstklässer*innen abhängig von ihrer Wohnadresse einer konkreten Schule zugeordnet. Laut Klement nutzt die Intelligent Zoning Engine neben Informationen über Schulkapazitäten und Wohnorte zusätzlich demografische Daten, um möglichst kurze Schulwege für die jeweiligen Einzugsgebiete zu gewährleisten.

Der Chatbot Bobbi schließlich fungiert im dritten Einsatzfeld als »virtueller Bürger-Service-Assistent«. Eigener Testung zufolge lässt die Intelligenz dieses Systems allerdings zu wünschen übrig.

Stellenkürzungen in Aussicht?

Entlastung mit gleichzeitiger Effizienzsteigerung – blicken Berlins Behörden also bald massiven Stellenkürzungen entgegen? Klement vermeidet in ihrer Antwort eine Prognose. Tobias Schulze, digitalpolitische Sprecher der Linksfraktion im Abgeordnetenhaus, hält die Sorge jedoch für unberechtigt. »Wir haben ja im Moment das umgekehrte Problem, dass wir die offenen Arbeitsplätze nicht besetzen können. Es wäre sinnvoll, wenn man dem Fachkräftemangel damit etwas entgegensetzt.«

Bis künstliche Intelligenz flächendeckend Arbeit abnehmen könne, müsse allerdings erst einmal eine breite Digitalisierung stattfinden. »Wir müssen erst die Pflichtaufgaben erfüllen«, sagt Schulze »nd« und meint damit die Digitalisierung von Verwaltungsprozessen, die nach wie vor auf Papier stattfinden.

Für Mitarbeiter*innen sieht Schulze vielmehr die Gefahr, ihre Entscheidungsmacht an den Computer zu verlieren. »Wenn Sie nur noch Multiple Choice machen, ist Ihre Handlungsfähigkeit eingeschränkt. Das macht unzufrieden und entfremdet von der Arbeit«, sagt Schulze. KI-Systeme für die Verwaltung müssten deshalb so gestaltet werden, dass am Ende die Entscheidungshoheit bei den Beschäftigten liege.

Auf andere Risiken geht die Staatssekretärin ausführlicher ein: So könnten etwa KI-Systeme Diskriminierungen reproduzieren, die sie anhand der eingespeisten Daten erlernt hätten. Eine Gefahr, die es insbesondere in sensiblen Bereichen wie Strafjustiz oder Sozialdiensten zu vermeiden gelte.

Philipp Krüger, Experte für Polizei und Menschenrechte bei Amnesty International in Deutschland, blickt deshalb skeptisch auf den Einsatz künstlicher Intelligenz innerhalb der Sicherheitsbehörden. Gerade zur Vorhersage von Kriminalität habe die Nutzung von KI-Systemen in den vergangenen Jahren deutlich zugenommen. »Wir von Amnesty sehen hier eine Gefahr in Bezug auf die Menschenrechte, weil solche Systeme Diskriminierungen erlernen können.« Ein Beispiel: Wenn die Daten der Polizei als Grundlage dienen, um Verbrechen zu prognostizieren, beeinflussen Racial Profiling und andere vorurteilsbehaftete Polizeimethoden die Wahrscheinlichkeitsrechnung der KI.

Die »Blackbox« als Glaskugel

Muckefuck: morgens, ungefiltert, links

nd.Muckefuck ist unser Newsletter für Berlin am Morgen. Wir gehen wach durch die Stadt, sind vor Ort bei Entscheidungen zu Stadtpolitik - aber immer auch bei den Menschen, die diese betreffen. Muckefuck ist eine Kaffeelänge Berlin - ungefiltert und links. Jetzt anmelden und immer wissen, worum gestritten werden muss.

Auch die Berliner Polizei nutzt mit »Krim Pro« eine Technik, die Wohnungseinbrüche vorhersagen soll und dementsprechend Streifen in die auserkorenen Risikogebiete schickt – und das schon seit 2016. Die Zahlen deuten jedoch nicht wirklich auf Erfolg hin: 2015 verzeichnete die Berliner Polizei 6100 Wohnungseinbrüche, 2016 waren es 6690, und 2022, sechs Jahre nach der Einführung von »Krim Pro«, registrierte sie 6887 Fälle.

Während sich der tatsächliche Nutzen von Präventionsmaßnahmen schwer bemessen lässt, steigen die Risiken, je intelligenter das KI-System wird. Neben der Diskriminierungsgefahr weisen Fachleute auf das »Blackbox«-Problem hin: Wie genau ein KI-System zu einem Ergebnis kommt, lässt sich nicht nachvollziehen. Denn das neuronale Netzwerk findet eigene Lösungswege. »Dies kann die Transparenz der Verwaltung und die Rechenschaftspflicht beeinträchtigen«, gibt selbst die Staatssekretärin für Digitalisierung zu.

Linke-Politiker Schulze fordert deshalb eine frühe Implementierung der EU-Richtlinie zu künstlicher Intelligenz, die derzeit erarbeitet wird. »Wir müssen uns überlegen, wie wir das im Verwaltungsrecht umsetzen.« Denn wenn KI erst einmal im großen Maßstab angewendet werde, könne man die Programme nur noch schwer zu Transparenz verpflichten. »Aber die Verwaltung muss demokratisch und transparent nachvollziehbar sein, für alle Bürger*innen.«

Neben dem demokratischen Problem fehlender Transparenz im öffentlichen Dienst entsteht durch die rasante Weiterentwicklung von KI ein noch grundsätzlicheres Risiko: Schon jetzt können KI-Systeme zielgerichtet und mit eigener Initiative agieren, ohne dass die Funktionsweise im »Inneren« zu durchschauen ist. Expert*innen fordern deshalb eine starke Regulierung von Basismodellen wie GPT4, um schon am Ursprung zu verhindern, dass die Programme zu schädlichem Agieren fähig sind. Sollte es nicht gelingen, die Entwicklung zu regulieren, könnten KI-Systeme, die zur kritischen Infrastruktur des öffentlichen Dienstes gehören, großen Schaden anrichten. Allerdings kann davon bei Bobbi und Krim Pro noch keine Rede sei.

Wir-schenken-uns-nichts
Unsere Weihnachtsaktion bringt nicht nur Lesefreude, sondern auch Wärme und Festlichkeit ins Haus. Zum dreimonatigen Probeabo gibt es ein Paar linke Socken von Socken mit Haltung und eine Flasche prickelnden Sekko Soziale – perfekt für eine entspannte Winterzeit. Ein Geschenk, das informiert, wärmt und das Aussteiger-Programm von EXIT-Deutschland unterstützt. Jetzt ein Wir-schenken-uns-nichts-Geschenk bestellen.

Das »nd« bleibt. Dank Ihnen.

Die nd.Genossenschaft gehört unseren Leser*innen und Autor*innen. Mit der Genossenschaft garantieren wir die Unabhängigkeit unserer Redaktion und versuchen, allen unsere Texte zugänglich zu machen – auch wenn sie kein Geld haben, unsere Arbeit mitzufinanzieren.

Wir haben aus Überzeugung keine harte Paywall auf der Website. Das heißt aber auch, dass wir alle, die einen Beitrag leisten können, immer wieder darum bitten müssen, unseren Journalismus von links mitzufinanzieren. Das kostet Nerven, und zwar nicht nur unseren Leser*innen, auch unseren Autor*innen wird das ab und zu zu viel.

Dennoch: Nur zusammen können wir linke Standpunkte verteidigen!

Mit Ihrer Unterstützung können wir weiterhin:


→ Unabhängige und kritische Berichterstattung bieten.
→ Themen abdecken, die anderswo übersehen werden.
→ Eine Plattform für vielfältige und marginalisierte Stimmen schaffen.
→ Gegen Falschinformationen und Hassrede anschreiben.
→ Gesellschaftliche Debatten von links begleiten und vertiefen.

Seien Sie ein Teil der solidarischen Finanzierung und unterstützen Sie das »nd« mit einem Beitrag Ihrer Wahl. Gemeinsam können wir eine Medienlandschaft schaffen, die unabhängig, kritisch und zugänglich für alle ist.