Deutsche Bahn stoppt neuen Überwachungstest am Berliner Südkreuz

Eine abgestellte Lampe auf einem Bahnsteig am Bahnhof Südkreuz. Mit der Mustererkennung sollten auch herrenlose Gegenstände aufgespürt werden. CC-BY-NC 2.0 huhuguy / Bearbeitung: netzpolitik.org Die Deutsche Bahn hat einen angekündigten Test zur Verhaltens- und Mustererkennung am Berliner Bahnhof Südkreuz gestoppt und auf unbestimmte Zeit verschoben. Der Bahnhof Südkreuz ist bekannt als Testfeld für neue Überwachungstechnologien. So hatten Bahn, Bundesinnenministerium und die Bundespolizei in einem umstrittenen Pilotversuch ab 2017 auf dem Bahnhof Systeme zur automatischen Gesichtserkennung getestet.

Laut einem Bericht der WirtschaftsWoche wollte die Bahn im Februar eigene Versuche zum Einsatz von Software zur Überwachung des Bahnhofs starten. Im Vordergrund steht dabei die Verhaltens- und Mustererkennung, bei der „intelligente Videosysteme“ in Echtzeit erkennen sollen, ob gerade eine Gefahr besteht. Dabei geht es laut Bundesinnenministerium um unterschiedliche Szenarien wie abgestellte Gegenstände, Betreten festgelegter Bereiche, die Zählung von Personen sowie die Nachverfolgung von Personen.

Der Bahnvorstand hat diesen Versuch nun unmittelbar vor dem Start gestoppt. Gegenüber der WirtschaftsWoche sagte ein Konzernsprecher, man konzentriere sich darauf, drängendere Baustellen abzuarbeiten. Die Deutsche Bahn steckt derzeit in einer Krise , sie hat zu wenig Geld in ihre Grundinfrastruktur und Personal gesteckt, Störungen und Verspätungen sind die Folge. Dem stehen hohe Investitionen für Ausbau und Betrieb von Überwachungssystemen an Bahnhöfen entgegen – Schätzungen gehen von mehr als einer Milliarde Euro aus .

Einen großangelegten Test mit Verhaltensscannern gibt es auch in der baden-württembergischen Stadt Mannheim. Mit 76 Kameras werden seit Dezember 2018 die Menschen auf zentralen Plätzen und Straßen in der Innenstadt überwacht und ihr Verhalten gescannt. Der Einsatz von Verhaltensscannern, also Videoüberwachung mit Bewegungsmustererkennung, ist grundrechtlich bedenklich, weil er einen starken Konformitätsdruck ausübt und gleichzeitig viele Fehlalarme zu erwarten sind. Nicht transparent ist dabei auch, auf welche „unnatürlichen Bewegungen“ die Algorithmen eingestellt sind. So könnten auch nicht rechtswidrige Verhaltensmuster, wie längere Aufenthalte an einem Ort, als Verdachtsmomente in die Algorithmen einfließen.

Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.


Erstellt am:14. Februar 2019