Seit August 2017 durchforstetet spezielle Software die Bilder von drei der ca. 80 Kameras im Berliner Bahnhof Südkreuz. Bei dem zunächst bis Januar 2018 laufenden Test wurden vorab eigens angefertigte Bilder von rund 300 freiwilligen Testpersonen in guter Qualität in einer Datenbank gespeichert. Die von drei Videokameras aufgenommenen Bilder wurden von automatisierten Gesichtserkennungssystemen unterschiedlicher Hersteller ausgewertet. Ziel sollte es sein zu erkennen, wann diese Personen im Bahnhof auftauchten. Parallel zu den eingespeisten Aufnahmen trugen die freiwilligen Testpersonen einen Sender, der ihre Anwesenheit am Bahnhof Südkreuz verifizierte. Diese Maßnahme war deshalb nötig, um die Erkennungsrate bzw. Falschrate der Software anhand der tatsächlichen Werte der Sender zu ermitteln.
Ex-Bundesinnenminister Thomas de Maizière (CDU) sprach im Dezember bei einer ersten Bilanz von einer Erkennungsquote von mehr als 70 Prozent. Die Rate der Falscherkennungen (False Positives) lag nach Angaben des Bundesinnenministeriums bei “unter einem Prozent”: „Diese neue Technik kann in der Zukunft von enormem polizeilichen Nutzen sein und damit einen erheblichen Sicherheitsgewinn für die Bürgerinnen und Bürger unseres Landes darstellen”, so Ex-Innenminister Thomas de Maizère weiter (vgl. www.bmi.bund.de, Kurzlink https://bit.ly/2wFncKv). In den Gesichtserkennungsbereichen der drei getesteten Videokameras halten sich täglich ca. 4.000 Menschen auf.
Geht man von einer Falschrate von einem Prozent aus, sind ca. 40 Menschen betroffen, welche daraufhin pauschal verdächtigt werden. Wem diese Zahl als noch hinnehmbar erscheint, der sollte folgendes Rechenexempel annehmen: Täglich sind es knapp 100.000 Personen, die sich im gesamten Bahnhof Südkreuz aufhalten. Geht man davon aus, dass die Videobilder aller Kameras am Bahnhof Südkreuz für Gesichtserkennungen genutzt werden, wären es schon ca. 1.000 Personen, die fälschlicherweise verdächtigt wären (und das an einem Bahnhof in Deutschland).
Die Rechenbeispiele zeigen, dass die Technik noch nicht ausgereift ist und sowohl für die Bürger als auch für die Justizbehörden eine nicht zu akzeptierende Anzahl an falschen Verdächtigen liefert. Ob die Ergebnisse wirklich einen „erheblichen Sicherheitsgewinn“ darstellen, darf zu diesem Zeitpunkt mehr als angezweifelt werden.
Der ursprünglich für sechs Monate geplante Versuch wurde auf zwölf Monate verlängert. Um noch präziser einschätzen zu können, wie erfolgreich ein solches System wirklich ist, wurde der Test modifiziert und noch praxisnäher gestaltet, nämlich mit Vergleichsbildern schlechterer Qualität für den Abgleich mit der Datenbank. Trotz intensiver Recherche sind derzeit keine konkreten Ergebnisse des Tests zu finden. Über Zahlen, Daten, Fakten, kann daher leider nur gemutmaßt werden. Wann und in welcher Form die Ergebnisse des einjährigen Projekts veröffentlicht werden sollen, steht noch nicht fest. Die Verantwortlichen halten sich sogar bei offiziellen Anträgen mit der Bitte auf Einblick in die Unterlagen auffällig bedeckt (Quelle: https://netzpolitik.org, Kurzlink: https://bit.ly/2Jo5j7r).
Nun geht das Projekt in eine neuen Phase. Zusammen mit dem Bundesministerium des Innern, für Bau und Heimat, dem Bundeskriminalamt und der Bundespolizei testet die Deutsche Bahn den Einsatz von Technik zur Erkennung und Intervention bei auffälligem Verhalten. (Quelle: https://netzpolitik.org, Kurzlink https://bit.ly/2wwJwq8)
Es geht um sechs kritische oder aus Sicht der Bahn ungewöhnliche Situationen. Hinzu kommen noch Anforderungen an eine „retrograde“ Auswertung der bereits aufgezeichneten Videobilder. Dazu listet das Innenministerium im Wortlaut folgende Szenarien auf, die von intelligenter Videoanalyse erkannt werden und die Videobilder den Beobachtern automatisiert anzeigen sollen (vgl. Drucksache 19/3592 des Deutschen Bundestages, S. 21f. Kurzlink https://bit.ly/2ooHELS ):
Weil diese zahllosen Bilder nicht live von Leitstellenpersonal oder der Polizei beobachtet werden können, hoffen die Fern- und Nahverkehrsunternehmen sowie die Sicherheitsbehörden auf die videogestützte Videoanalyse. Melden die Überwachungssysteme zuverlässig, wenn es eine Schlägerei gibt, einen Überfall mit flüchtenden Tätern oder ein verdächtiges Paket, könne man viel gezielter eingreifen – so die Vorstellung.
Ihre Hoffnung setzen die Experten dabei auch auf Künstliche Intelligenz (KI). Die Computerprogramme sollen also lernfähig sein, sodass ihre Analysen im Lauf der Zeit immer präziser werden. Die Datenschutzbeauftragten der Länder und teilweise auch Bürger sehen das Ganze kritisch und warnen vor flächendeckender Überwachung. Zudem sind die Zahlen der ersten Bilanz des Versuchs am Bahnhof Südkreuz vom Dezember 2017 nicht zufriedenstellend. Es bleibt abzuwarten, welche Ergebnisse der Abschlussbericht des Pilotprojekts liefert.
Was möglich ist, wenn Datenschutzaspekte keine Rolle spielen, zeigen Beispiele in China. Dort wird in größeren Städten bereits flächendeckende und automatisierende Gesichtserkennung mittels Videotechnik eingesetzt. Die Ergebnisse zeigen dort, dass die Technik durchaus erfolgreich und zuverlässig funktioniert.
Veröffentlichung in Sicherheits-Berater, 18/2018
© VON ZUR MÜHLEN'SCHE GmbH - . Alle Rechte vorbehalten.