Durchmarsch mit Videoüberwachung

Der Gesichtserkennung beim G20-Gipfel in Hamburg folgt die Verhaltensanalyse auf dem Hansaplatz

Das Oberverwaltungsgericht (OVG) in Hamburg hat ein Verfahren zum Einsatz einer Software zur automatisierten Gesichtserkennung nach dem G20-Gipfel eingestellt. Die Entscheidung erfolgte bereits am 17. Mai, bekannt gemacht hat sie die Datenschutzbehörde der Hansestadt Ende vergangener Woche.

Das Gericht wollte jedoch nicht darüber entscheiden, ob die Polizei die Software in den Jahren nach dem Gipfelprotest von 2017 überhaupt nutzen durfte. Vielmehr ging es um die Frage, wer die Kosten eines Verfahrens vor dem Verwaltungsgericht zu tragen habe. Darin hatte der damalige Datenschutzbeauftragte Johannes Caspar die Löschung einer Datei mit Gesichtsbildern von Gipfeldemonstranten und Passanten verfügt. Dagegen legte die hamburgische Innenbehörde Berufung ein. Nach Abschluss der Ermittlungen zum G20-Gipfel hat die Polizei die Datei jedoch von selbst gelöscht. Damit war die Berufung gegenstandslos, deshalb muss der Senat die Kosten tragen.

Zur Identifizierung mutmaßlicher Straftäter hatte eine »Sonderkommission Schwarzer Block« in Hamburg polizeieigenes Bild- und Videomaterial in ein »System Gesichtserkennungssoftware« eingespielt. Weitere Dateien stammten aus einem Hinweisportal, das vom Bundeskriminalamt (BKA) für den freiwilligen Upload eingerichtet wurde. Insgesamt soll das System mehr als 15 000 Videos und 16 000 Bilder mit einem Umfang von 100Terabyte enthalten haben.

Die Technik stammt von der deutschen Firma Videmo. Ihre Software analysiert die eingespielten Daten mithilfe von Augen- und Ohrabständen, der Nasenform, des Mundwinkels und des Haaransatzes. Jedes derart verarbeitete Gesicht wird anschließend in einer weiteren Datenbank gespeichert. Auf diese sogenannte Template-Datei bezog sich die Anordnung zur Löschung des Datenschutzbeauftragten.

Die Polizei hat die Gesichtsbilder automatisiert mit vorhandenem Bildmaterial abgeglichen, um Personen weitere Straftaten zuordnen zu können. Zur Identifizierung wurden ihre Gesichter szenekundigen Beamten vorgelegt. Blieb dies erfolglos, zog die Sonderkommission Fotos aus erkennungsdienstlichen Maßnahmen von Festnahmen beim G20-Gipfel hinzu.

Die Gesichter weiterhin unbekannter Personen haben die Ermittler anschließend mit dem Auskunftssystem der Hamburger Polizei sowie der Inpol-Datei beim BKA abgeglichen. Dort sind derzeit Fingerabdrücke und Gesichtsbilder von 3,6 Millionen Personen gespeichert. Jedoch verzeichnete die Maßnahme nur mäßigen Erfolg: Nach Auskunft des Senats wurden mit den Abfragen in der Inpol-Datei drei »Personentreffer« erzielt.

Caspar bezeichnete Gesichtserkennung als »neue Dimension staatlicher Ermittlungs- und Kontrolloptionen«. Das im öffentlichen Raum verdachtslos eingesammelte Bildmaterial erlaube »Schlüsse auf Verhaltensmuster und Präferenzen des Einzelnen«. Die biometrische Erfassung betreffe »massenhaft Personen, die nicht tatverdächtig sind und dies zu keinem Zeitpunkt waren«.

Mit dem Spruch des OVG endet die juristische Auseinandersetzung um die Gesichtserkennung beim G20-Gipfel. Die Auswertung erfolgte damals »retrograd«, bezog sich also auf früher aufgenommene Daten. Ab Mitte Juli will die hamburgische Polizei auf dem Hansaplatz im Stadtteil St. Georg die biometrische Videoüberwachung auch in Echtzeit erproben – jedoch ohne Gesichtserkennung. Die selbstlernende Software stammt von einem Fraunhofer-Institut in Karlsruhe und der Polizei in Mannheim, wo sie bereits seit 2018 erprobt wird und sich laut einem Fraunhofer-Mitarbeiter im Stadium der »Grundschule« befindet.

Vier der schon jetzt zahlreichen Kameras auf dem Hansaplatz sollen drei Monate lang »atypische Bewegungsabläufe« vorbeilaufender Personen erkennen. Der Senat nennt hierzu »Liegen, Fallen, Taumeln, Treten, Schlagen, Schubsen, Anrempeln, aggressive Körperhaltung und defensive Körperhaltung«. Bemerkt die Software das programmierte Verhalten, werden Beamte benachrichtigt. Deshalb gilt die Technik als »Assistenzsystem«. Bei den Tests sollen Polizisten helfen und das beschriebene Verhalten nachstellen, darunter also auch Prügeleien oder aggressives Auftreten.

Die Linksfraktion der Hamburger Bürgerschaft sieht das Vorhaben kritisch und hat einen Antrag an den Senat eingebracht, darauf zu verzichten. Es handele sich um eine Massenüberwachung, von der zunächst alle Menschen im öffentlichen Raum betroffen sind. »Denn welches Verhalten als verdächtig gilt und eine polizeiliche Intervention nach sich zieht, ist für Betroffene nicht transparent«, heißt es in dem Antrag. Die Entscheidung über die Abweichung von einem »Normverhalten« werde überdies einem Algorithmus überlassen.

Die Hamburger Datenschutzbehörde unter der Leitung des neuen Beauftragten Thomas Fuchs hat wenig Probleme mit der selbstlernenden Technik auf dem Hansaplatz. Es würden keine Daten neu verknüpft oder mehrstufigen Analysen unterzogen, so eine Sprecherin zu »nd«. Zudem treffe der Mensch auch weiterhin die »Letztentscheidung« über die Alarmierung von Einsatzkräften. Zusammengefasst stelle die Software den Versuch dar, »einen ablenkungsfreieren Beobachter als den Menschen zu schaffen«.

Jedoch ist die Behörde generell kritisch gegenüber der Videoüberwachung von öffentlichen Plätzen. »Eine dauerhafte Videoüberwachung greift tief in das Persönlichkeitsrecht vieler Unbeteiligter ein und sollte daher nur in Ausnahmefällen eingesetzt werden«, so die Sprecherin.

Wir-schenken-uns-nichts
Unsere Weihnachtsaktion bringt nicht nur Lesefreude, sondern auch Wärme und Festlichkeit ins Haus. Zum dreimonatigen Probeabo gibt es ein Paar linke Socken von Socken mit Haltung und eine Flasche prickelnden Sekko Soziale – perfekt für eine entspannte Winterzeit. Ein Geschenk, das informiert, wärmt und das Aussteiger-Programm von EXIT-Deutschland unterstützt. Jetzt ein Wir-schenken-uns-nichts-Geschenk bestellen.

Das »nd« bleibt. Dank Ihnen.

Die nd.Genossenschaft gehört unseren Leser*innen und Autor*innen. Mit der Genossenschaft garantieren wir die Unabhängigkeit unserer Redaktion und versuchen, allen unsere Texte zugänglich zu machen – auch wenn sie kein Geld haben, unsere Arbeit mitzufinanzieren.

Wir haben aus Überzeugung keine harte Paywall auf der Website. Das heißt aber auch, dass wir alle, die einen Beitrag leisten können, immer wieder darum bitten müssen, unseren Journalismus von links mitzufinanzieren. Das kostet Nerven, und zwar nicht nur unseren Leser*innen, auch unseren Autor*innen wird das ab und zu zu viel.

Dennoch: Nur zusammen können wir linke Standpunkte verteidigen!

Mit Ihrer Unterstützung können wir weiterhin:


→ Unabhängige und kritische Berichterstattung bieten.
→ Themen abdecken, die anderswo übersehen werden.
→ Eine Plattform für vielfältige und marginalisierte Stimmen schaffen.
→ Gegen Falschinformationen und Hassrede anschreiben.
→ Gesellschaftliche Debatten von links begleiten und vertiefen.

Seien Sie ein Teil der solidarischen Finanzierung und unterstützen Sie das »nd« mit einem Beitrag Ihrer Wahl. Gemeinsam können wir eine Medienlandschaft schaffen, die unabhängig, kritisch und zugänglich für alle ist.