Frau Roboter putzt anders

Algorithmische Diskriminierung kennt man in den USA. Wie sieht es auf dem deutschen Arbeitsmarkt aus?

In den USA rücken digitale Mechanismen der Lohndiskriminierung in weiblich dominierte Berufe wie die Gebäudereinigung vor. In Deutschland hinkt das Gleichstellungsgesetz hinterher.
In den USA rücken digitale Mechanismen der Lohndiskriminierung in weiblich dominierte Berufe wie die Gebäudereinigung vor. In Deutschland hinkt das Gleichstellungsgesetz hinterher.

Maria, 26 und fiktiv, bewirbt sich um eine Stelle als Reinigungskraft. Ihr Arbeitgeber hat Informationen über ihre bisherigen Gehälter, darüber, wann und wie lange sie arbeitet und noch viel mehr. Damit kann er sich ausrechnen: Maria würde wohl einen deutlich geringeren Lohn als ihr Kollege Martin akzeptieren. Blöd wäre der Arbeitgeber, würde er nicht Marias Lohn drücken, oder?

So funktioniert, laut der US-amerikanischen Rechtswissenschaftlerin Veena Dubal, algorithmische Lohndiskriminierung. Im Grunde sei das Konzept einfach. Große Unternehmen in den Vereinigten Staaten hätten inzwischen riesige Datensätze über die Beschäftigten angelegt. Damit berechne Künstliche Intelligenz (KI) individuelle Stundenlöhne und Arbeitnehmende würden für gleiche Arbeit ungleich bezahlt. Die digitalisierte Maria putzt billiger.

Dubal verortet den Mechanismus vor allem in der Plattformindustrie – also in jenem informellen Arbeitsmarkt, in dem zeitlich befristete Aufträge flexibel und kurzfristig an Arbeitssuchende, Freelancer oder geringfügig Beschäftigte über Onlineplattformen vergeben werden. Ein klassisches Beispiel dafür ist die Taxibranche. Inzwischen habe algorithmische Diskriminierung aber auch weiblich dominierte Berufe wie Pflege oder Gebäudereinigung erreicht. »Wird diese Praxis nicht adressiert, wird sie künftig in weiteren Arbeitssektoren normalisiert«, warnt Dubal.

Frauenkampftag

Feministischer Kampftag

Zu KI gibt es diverse Definitionen, schließlich hat sie viele Facetten. Grundsätzlich ist sie die Fähigkeit von Maschinen, Aufgaben basierend auf Algorithmen auszuführen und dabei die Problemlösungs- und Entscheidungsfähigkeiten des menschlichen Verstandes nachzuahmen. In Kombination mit ethischen Ansätzen kann sie dem Menschen lästige Aufgaben abnehmen und Diskriminierung sogar mindern. Unreguliert kann sie diese aber auch fördern. Das kann zum Teil unbeabsichtigt passieren, zum Beispiel wenn die genutzten Daten bereits auf diskriminierenden Inhalten basieren. Hier kommt es zu einem sogenannten Bias, einer Ergebnisverzerrung.

Ein bekanntes Beispiel dafür ist ein Programm aus den USA, das bei Bewerbungen um Medizinstudienplätze ethnische Minderheiten und Frauen aussortierte – es hatte auf Basis früherer Zulassungen agiert. Ähnliches kann bei der Lohnberechnung passieren, wenn beispielsweise die Lohnlücke zwischen Frauen und Männern bei gleicher Tätigkeit, so wie aktuell in Deutschland, sechs Prozent beträgt und der Algorithmus mit diesen Daten gefüttert wird. Oder, wie es die Rechtswissenschaftlerin Sandra Mayson beschreibt: »Die Zukunft unter den Bedingungen des Status Quo vorherzusagen bedeutet, die Geschichte vorwärts zu produzieren.«

Ein Schwenk weg von den unreglementierten Weiten des US-amerikanischen Arbeitsmarkts nach Deutschland. Auch hierzulande wird KI inzwischen vielfältig eingesetzt. So nutzt sie die Bundesagentur für Arbeit (BA), um interne Arbeitsprozesse zu erleichtern. Die KI erstellt beispielsweise Stellenangebotsvorschläge, die Mitarbeitende übernehmen oder anpassen, oder sie unterstützt die Datenerfassung bei der Bearbeitung von Kindergeldansprüchen. Um Diskriminierung durch einen Bias vorzubeugen, hat die BA einen Prozess der datenethischen Begleitung etabliert.

»Aufgrund rechtlicher Rahmenvorgaben werden KI-Lösungen derzeit grundsätzlich als Empfehlungssysteme konzipiert. Somit obliegen Entscheidungen über Leistungen und Dienstleistungen weiterhin den Mitarbeitenden der BA«, erklärt eine Sprecherin gegenüber »nd«. Soll heißen: So versucht die BA, der Benachteiligung durch den Algorithmus vorzubeugen.

101010101001010111111000001111100001110000000011111100101010101

Ein Algorithmus?

Es sind jene rechtlichen Rahmenvorgaben – neben dem Mindestlohn –, die algorithmische Diskriminierung in Deutschland verunmöglichen, zeigt sich Britta Matthes, Leiterin der Forschungsgruppe Berufe in der Transformation des Instituts für Arbeitsmarkt- und Berufsforschung (IAB) im Gespräch mit »nd« überzeugt.

Das allgemeine Gleichbehandlungsgesetz (AGG) soll Arbeitnehmende vor Diskriminierung schützen – auch unabhängig von KI. Ob es aber auf die neuen technologischen Entwicklungen hinreichend abgestimmt ist, ist fraglich. »KI ist nicht nur diskriminierungsanfällig, sondern macht es zusätzlich schwer, Fehler im Nachhinein aufzudecken«, beschreibt es der Rechtswissenschaftler Bernd Waas von der Goethe-Universität Frankfurt am Main bereits 2022 in einem Bericht zu Künstlicher Intelligenz und Arbeitsrecht.

Es fehle aufgrund der wenig nachvollziehbaren Arbeitsweise von Algorithmen an Indizien und Beweislast für Benachteiligung. »Im Vergleich zu traditionellen Formen der Diskriminierung ist die automatisierte Diskriminierung abstrakter und nicht intuitiv, subtil, nicht greifbar und schwer zu erkennen«, so Waas. Er empfiehlt einen grundlegenden Umbau des AGGs. Im Herbst 2024 sprachen sich auch die Beauftragten für Antidiskriminierung explizit für eine Überarbeitung des AGGs in Bezug auf digitale Diskriminierung aus.

Darüber hinaus hat sich aber auf europäischer Ebene zuletzt einiges getan. Im Oktober 2024 beschloss der Europäische Rat die Richtlinie für Plattformarbeit, die die Arbeitsverhältnisse in der Sparte verbessern soll. So muss das Personal digitaler Arbeitsplattformen künftig umfassend über Algorithmen informiert werden, die zur Personalverwaltung genutzt werden.

Zudem dürfen Informationen über den emotionalen Zustand, private Gespräche, gewerkschaftliche Aktivitäten, ethnische Herkunft, politische Meinungen, religiöse Überzeugungen oder den Gesundheitsstatus nicht mehr verarbeitet werden. Deutschland hat zwei Jahre Zeit, diese Vorgaben im nationalen Recht umzusetzen. Der EU-AI-Act wiederum ist das erste weltweite Gesetz zu Künstlicher Intelligenz. Es ordnet KI nach Risikofaktoren ein. Weil der Bereich Beschäftigung als Hochrisikofaktor definiert wird, muss derlei Künstliche Intelligenz künftig eine Reihe von Anforderungen erfüllen, um zugelassen zu werden.

Dennoch ist es bisher schwierig, Fälle algorithmischer Diskriminierung in Deutschland nachzuweisen. »Das Problem ist, dass meist einzelne Personen anonymen Systemen gegenüberstehen«, sagt Clara Helming von der NGO AlgorithmWatch zu »nd«. Die erwähnten Gesetze böten eine gute Grundlage, es mangele aber noch an ihrer Implementierung. Von Lohndiskriminierung bedroht sind deswegen, so Helming, insbesondere Arbeitnehmer*innen ohne Betriebsräte, die sich für die Durchsetzung des Rechts einsetzen. Das sehe man unter anderem in der Fahrtenvermittlungsbranche, wo Unternehmen bereits versuchen würden, eigene algorithmische Preismodelle umzusetzen, die das Lohnniveau drücken.

Über die rechtliche Ebene hinaus gibt es noch einen anderen Ansatz, algorithmischer Diskriminierung vorzubeugen. Britta Matthes vom IAB arbeitete 2021 am letzten Gleichstellungsbericht der Ampel-Regierung mit. Dieser drehte sich um die Frage, wie Digitalisierung gerechter gestaltet werden könne, und empfahl unter anderem, den damals bei 16 Prozent liegenden Frauenanteil in der Digitalisierungsbranche zu heben und die Medienkompetenz von Kindern und Jugendlichen zu fördern. Seitdem sei zu wenig zu langsam passiert, kritisiert Matthes.

Wenn man sich mit der Technologie auseinandersetze, könnte man auch den Bias der Algorithmen kontrollieren – dazu brauche es aber mehr Fachkenntnisse und weniger Angst vor der Künstlichen Intelligenz. »Gesellschaft reproduziert sich, wenn man nicht gegensteuert«, stellt sie fest. »Nur wenn wir die Mechanismen kennen, können wir Modelle schaffen, die keine Diskriminierung hervorbringen.« Wissen ist Macht – das ist demnach das Credo, nach dem Maria und Martin irgendwann gleich viel verdienen könnten.

Das »nd« bleibt. Dank Ihnen.

Die nd.Genossenschaft gehört unseren Leser*innen und Autor*innen. Mit der Genossenschaft garantieren wir die Unabhängigkeit unserer Redaktion und versuchen, allen unsere Texte zugänglich zu machen – auch wenn sie kein Geld haben, unsere Arbeit mitzufinanzieren.

Wir haben aus Überzeugung keine harte Paywall auf der Website. Das heißt aber auch, dass wir alle, die einen Beitrag leisten können, immer wieder darum bitten müssen, unseren Journalismus von links mitzufinanzieren. Das kostet Nerven, und zwar nicht nur unseren Leser*innen, auch unseren Autor*innen wird das ab und zu zu viel.

Dennoch: Nur zusammen können wir linke Standpunkte verteidigen!

Mit Ihrer Unterstützung können wir weiterhin:


→ Unabhängige und kritische Berichterstattung bieten.
→ Themen abdecken, die anderswo übersehen werden.
→ Eine Plattform für vielfältige und marginalisierte Stimmen schaffen.
→ Gegen Falschinformationen und Hassrede anschreiben.
→ Gesellschaftliche Debatten von links begleiten und vertiefen.

Seien Sie ein Teil der solidarischen Finanzierung und unterstützen Sie das »nd« mit einem Beitrag Ihrer Wahl. Gemeinsam können wir eine Medienlandschaft schaffen, die unabhängig, kritisch und zugänglich für alle ist.

- Anzeige -
- Anzeige -