Gesichts­er­kennung am Berliner Südkreuz

| Fabian Hecker

Seit August 2017 durch­fors­tetet spezielle Software die Bilder von drei der ca. 80 Kameras im Berliner Bahnhof Südkreuz. Bei dem zunächst bis Januar 2018 laufenden Test wurden vorab eigens angefer­tigte Bilder von rund 300 freiwil­ligen Testper­sonen in guter Qualität in einer Datenbank gespei­chert. Die von drei Video­ka­meras aufge­nom­menen Bilder wurden von automa­ti­sierten Gesichts­er­ken­nungs­sys­temen unter­schied­licher Hersteller ausge­wertet. Ziel sollte es sein zu erkennen, wann diese Personen im Bahnhof auftauchten. Parallel zu den einge­speisten Aufnahmen trugen die freiwil­ligen Testper­sonen einen Sender, der ihre Anwesenheit am Bahnhof Südkreuz verifi­zierte. Diese Maßnahme war deshalb nötig, um die Erken­nungsrate bzw. Falschrate der Software anhand der tatsäch­lichen Werte der Sender zu ermitteln.

Ex-Bundes­in­nen­mi­nister Thomas de Maizière (CDU) sprach im Dezember bei einer ersten Bilanz von einer Erken­nungs­quote von mehr als 70 Prozent. Die Rate der Falscher­ken­nungen (False Positives) lag nach Angaben des Bundes­in­nen­mi­nis­te­riums bei “unter einem Prozent”: „Diese neue Technik kann in der Zukunft von enormem polizei­lichen Nutzen sein und damit einen erheb­lichen Sicher­heits­gewinn für die Bürge­rinnen und Bürger unseres Landes darstellen”, so Ex-Innen­mi­nister Thomas de Maizère weiter (vgl. www.bmi.bund.de, Kurzlink https://bit.ly/2wFncKv). In den Gesichts­er­ken­nungs­be­reichen der drei getes­teten Video­ka­meras halten sich täglich ca. 4.000 Menschen auf.

Geht man von einer Falschrate von einem Prozent aus, sind ca. 40 Menschen betroffen, welche daraufhin pauschal verdächtigt werden. Wem diese Zahl als noch hinnehmbar erscheint, der sollte folgendes Rechen­ex­empel annehmen: Täglich sind es knapp 100.000 Personen, die sich im gesamten Bahnhof Südkreuz aufhalten. Geht man davon aus, dass die Video­bilder aller Kameras am Bahnhof Südkreuz für Gesichts­er­ken­nungen genutzt werden, wären es schon ca. 1.000 Personen, die fälsch­li­cher­weise verdächtigt wären (und das an einem Bahnhof in Deutschland).

Die Rechen­bei­spiele zeigen, dass die Technik noch nicht ausge­reift ist und sowohl für die Bürger als auch für die Justiz­be­hörden eine nicht zu akzep­tie­rende Anzahl an falschen Verdäch­tigen liefert. Ob die Ergeb­nisse wirklich einen „erheb­lichen Sicher­heits­gewinn“ darstellen, darf zu diesem Zeitpunkt mehr als angezweifelt werden.

Der ursprünglich für sechs Monate geplante Versuch wurde auf zwölf Monate verlängert. Um noch präziser einschätzen zu können, wie erfolg­reich ein solches System wirklich ist, wurde der Test modifi­ziert und noch praxis­näher gestaltet, nämlich mit Vergleichs­bildern schlech­terer Qualität für den Abgleich mit der Datenbank. Trotz inten­siver Recherche sind derzeit keine konkreten Ergeb­nisse des Tests zu finden. Über Zahlen, Daten, Fakten, kann daher leider nur gemutmaßt werden. Wann und in welcher Form die Ergeb­nisse des einjäh­rigen Projekts veröf­fent­licht werden sollen, steht noch nicht fest. Die Verant­wort­lichen halten sich sogar bei offizi­ellen Anträgen mit der Bitte auf Einblick in die Unter­lagen auffällig bedeckt (Quelle: https://netzpolitik.org, Kurzlink: https://bit.ly/2Jo5j7r).

Nun geht das Projekt in eine neuen Phase. Zusammen mit dem Bundes­mi­nis­terium des Innern, für Bau und Heimat, dem Bundes­kri­mi­nalamt und der Bundes­po­lizei testet die Deutsche Bahn den Einsatz von Technik zur Erkennung und Inter­vention bei auffäl­ligem Verhalten. (Quelle: https://netzpolitik.org, Kurzlink https://bit.ly/2wwJwq8)

Es geht um sechs kritische oder aus Sicht der Bahn ungewöhn­liche Situa­tionen. Hinzu kommen noch Anfor­de­rungen an eine „retro­grade“ Auswertung der bereits aufge­zeich­neten Video­bilder. Dazu listet das Innen­mi­nis­terium im Wortlaut folgende Szenarien auf, die von intel­li­genter Video­analyse erkannt werden und die Video­bilder den Beobachtern automa­ti­siert anzeigen sollen (vgl. Druck­sache 19/3592 des Deutschen Bundes­tages, S. 21f. Kurzlink https://bit.ly/2ooHELS ):

  • „Abgestellte Gegen­stände“: Durch die Systeme sollen Gegen­stände erkannt werden, die im Bahnhof für einen bestimmten Zeitraum allein stehen­ge­lassen wurden.
  • „Betreten festge­legter Bereiche“: Bestimmte Bahnhofs­be­reiche, etwa Gleise oder der Eingang zu einem Tunnel, werden vorde­fi­niert.
  • Liegende (hilfs­be­dürftige) Person: Liegt ein Mensch auf dem Bahnsteig oder einer Treppe, soll dies ebenfalls automa­ti­siert erkannt und durch die Systeme gemeldet und die Video­bilder dem Beobachter aufge­schaltet werden.
  • „Personenströme/Ansammlungen“: Läuft eine größere Menschen­masse schnell ausein­ander oder strömen Menschen schnell zu einer bestimmten Stelle, kann das Anzeichen für eine Gefah­ren­si­tuation sein.
  • „Nachvoll­ziehen der Position von einzelnen Personen/Gegenständen in Bahnhöfen“: Die Systeme sollen nach Markierung einer bestimmten Person oder eines bestimmten Gegen­standes nachvoll­ziehen können, ob und wo sich diese Person bzw. dieser Gegen­stand im Bahnhof befindet bzw. befand.
  • „Perso­nen­zählung (insb. Bahnsteig­über­füllung)“: Die ungefähre Anzahl der sich im Bahnhof und insbe­sondere auch auf einem Bahnsteig befind­lichen Personen soll durch die Systeme erkannt werden.
  • „Retro­grade Auswertung von Video­daten“: Es sollen die gleichen, unter 1. bis 6. genannten Funktio­na­li­täten der Liveanalyse anhand der am Bahnhof aufge­zeich­neten Video­daten retrograd erkannt und ausge­wertet werden.

Weil diese zahllosen Bilder nicht live von Leitstel­len­per­sonal oder der Polizei beobachtet werden können, hoffen die Fern- und Nahver­kehrs­un­ter­nehmen sowie die Sicher­heits­be­hörden auf die video­ge­stützte Video­analyse. Melden die Überwa­chungs­systeme zuver­lässig, wenn es eine Schlä­gerei gibt, einen Überfall mit flüch­tenden Tätern oder ein verdäch­tiges Paket, könne man viel gezielter eingreifen – so die Vorstellung.

Ihre Hoffnung setzen die Experten dabei auch auf Künst­liche Intel­ligenz (KI). Die Compu­ter­pro­gramme sollen also lernfähig sein, sodass ihre Analysen im Lauf der Zeit immer präziser werden. Die Daten­schutz­be­auf­tragten der Länder und teilweise auch Bürger sehen das Ganze kritisch und warnen vor flächen­de­ckender Überwa­chung. Zudem sind die Zahlen der ersten Bilanz des Versuchs am Bahnhof Südkreuz vom Dezember 2017 nicht zufrie­den­stellend. Es bleibt abzuwarten, welche Ergeb­nisse der Abschluss­be­richt des Pilot­pro­jekts liefert.

Was möglich ist, wenn Daten­schutz­aspekte keine Rolle spielen, zeigen Beispiele in China. Dort wird in größeren Städten bereits flächen­de­ckende und automa­ti­sie­rende Gesichts­er­kennung mittels Video­technik einge­setzt. Die Ergeb­nisse zeigen dort, dass die Technik durchaus erfolg­reich und zuver­lässig funktio­niert.

Veröf­fent­li­chung in Sicher­heits-Berater, 18/2018