#brodnig: Du bist's!
Es klingt spektakulär: Die Polizei will noch heuer Gesichtserkennung einsetzen. Der "Kurier" berichtete als Erster von einer Software, mit der die Ermittler Videos von privaten Einrichtungen wie Tankstellen, Banken oder Supermärkten auswerten können. Das erinnert im ersten Moment an den Film "Minority Report". Tom Cruise ist darin als (zu Unrecht) Verdächtigter auf der Flucht - überall muss er Videoüberwachung befürchten, überall kontrollieren Kameras die Identität von Personen. Gleich vorweg: Die geplante Videoauswertung der Polizei ist anscheinend nicht so umfassend oder dystopisch wie manch eine Science-Fiction-Szene. Trotzdem gibt es offene und relevante Fragen.
Die Polizei plant Folgendes: Wenn etwa ein Raub in einer Tankstelle passiert, dürfen die Ermittler bereits Videos davon verwenden. Künftig wollen sie zusätzlich eine Software nutzen, die Menschen auf Videos identifizieren kann. "Das Programm gleicht unsere Fotos von früheren Verdächtigen mit den Aufnahmen in der Tankstelle ab. Natürlich haben wir nicht von allen Bürgern solche Bilder, sondern nur von Personen, die in der Vergangenheit erkennungsdienstlich behandelt wurden", sagt Vincenz Kriegs-Au, Sprecher des Bundeskriminalamts.
Im Anlassfall sollen also Gesichter auf Videos erkannt werden, was durchaus Fragen des Datenschutzes aufwirft. Zentrale Informationen liefern die Ermittler bisher nicht: Wie viel Geld fließt für das Programm und wer ist der Anbieter? "Wir wollen keine Werbung für den Anbieter machen", so Kriegs-Au. Die Exekutive sagt nur, dass es ein größerer Betreiber sei. Das Stillschweigen sorgt für Kritik - die NEOS brachten eine parlamentarische Anfrage ein. Völlig richtig. Die Öffentlichkeit soll erfahren, wer die Software betreibt. Denn es gibt besonders umstrittene Anbieter. In den USA stellt Amazon Gesichtserkennung für Polizei-Einheiten zur Verfügung (Amazon ist nicht nur ein Shop, sondern auch ein Software-Dienstleister). Forscher warnen vor der Software, weil sie bei Frauen - speziell bei dunkelhäutigen - oft falsch liegt. Schlimmstenfalls bringt fehlerhafte Gesichtserkennung falsche Verdächtige hervor. Wir sollten wissen, welche Software die Polizei nutzt, um gesellschaftliche Risiken dieser Programme abschätzen zu können.