Christiane Knoll: Im Bundesinnenministerium entsteht derzeit der Entwurf für eine Polizeireform, die automatische Gesichtserkennung an den großen deutschen Bahnhöfen und Flughäfen vorsieht. Vielen geht das zu weit. Geht es nach Horst Seehofer, dann soll die Bundespolizei mehr Befugnisse bekommen – und technische Unterstützung. Der Entwurf sieht die automatische Gesichtserkennung an 135 Bahnhöfen und Flughäfen vor. Nur: Wäre das überhaupt eine Unterstützung? Ein Pilotversuch am Berliner Südkreuz war eher ernüchternd verlaufen, weil zu viele Menschen nicht oder fälschlicherweise erkannt wurden. Damit ist niemandem gedient.
Die Videoüberwachung ist auf vielen Ebenen umstritten. Wer gerät da ins Netz der Fahnder, was passiert mit den erfassten Daten, und was mit dem öffentlichen Raum? Vor allem aber: Was kann die Technik überhaupt? Wenn wir schon politische und gesellschaftliche Risiken eingehen, steht dann auf der Haben-Seite wenigstens ein ordentlicher Gewinn und ein Mehr an Sicherheit?
Florian Kirchbuchner befasst sich am Fraunhofer-Institut für Graphische Datenverarbeitung mit der Entwicklung solcher Gesichtserkennungssysteme, mit ihm habe ich gesprochen.
Herr Kirchbuchner, während wir in Deutschland demnächst vielleicht die automatische Gesichtserkennung im öffentlichen Raum einführen, hat die IT-Hochburg San Francisco sie schon wieder abgeschafft und verboten. Warum?
Florian Kirchbuchner: In San Francisco wurde die biometrische Gesichtsüberwachung abgeschafft für den städtischen Bereich, in Straßen und an öffentlichen Plätzen. Hier gab es vermehrt Fehlalarme und falsche Bewertungen der Situation. Entsprechend kam es unter anderem auch zu Polizeieinsätzen, die leider über das normale Maß hinausliefen. Sie wurde allerdings nicht abgeschafft für die Bereiche der Bundespolizei – im Bereich der Flughäfen oder in den öffentlichen Bahnhöfen. Dort ist die Bundespolizei verantwortlich, und deswegen konnte sie durch den Stadtrat auch nicht verboten werden.
Knoll: So was kann in Deutschland nicht passieren?
Kirchbuchner: Ich denke, dass die deutsche Polizei dafür bekannt ist, dass sie meistens verhältnismäßig vorgeht und deutlich vorsichtiger in Einsätze schreitet als Polizeibehörden in anderen Ländern.
"Noch keinen Quantensprung erreicht"
Knoll: An diesem Beispiel sieht man schon, dass da einige Fallstricke lauern, fangen wir aber mal an der Basis an: Vor zwei Jahren hat ein Pilotversuch am Berliner Südkreuz Erkennungsraten dieser automatischen Bilderkennungssysteme von 80 Prozent geliefert und jeden hundertsten Passanten falsch identifiziert. Um wie viel besser sind denn die Systeme heute?
Kirchbuchner: Die Systeme sind besser geworden, sie werden ständig weiterentwickelt, allerdings haben wir auch hier in diesen zwei Jahren keinen Quantensprung erreicht. Wir bewegen uns also immer noch in ähnlichen vergleichbaren Erkennungsraten.
Knoll: Jetzt kann man sich vorstellen, dass es leichter ist, die unbescholtenen Bürger zu erkennen – wer kriminell ist oder auf der Terrorfahndungsliste steht, der zieht sich ja vielleicht doch schnell mal eine Kappe auf und entgeht den Systemen. Da kann der beste Algorithmus nichts mehr ausrichten. Oder sehen Sie das anders?
"Eine einfache Verdeckung kann das System erkennen"
Kirchbuchner: Eine einfache Verdeckung, dass man eine Brille aufsetzt oder einen Schnurrbart aufklebt, das kann das System noch erkennen. Allerdings ist es tatsächlich möglich, die Systeme zu umgehen, indem ich mir eine Vollgesichtsmaske aufsetze, indem ich einen Hut aufsetze, eine Baseballkappe mit dem Schild tief ins Gesicht gezogen und den Kopf von der Kamera wegdrehe, und schon kann ich nicht erkannt werden. Das ist tatsächlich der Fall.
Knoll: Das heißt, eigentlich sind die Erkennungsraten dieser Systeme immer noch sehr schlecht und gerade eben für die Zielgruppe besonders schlecht.
Kirchbuchner: Sie sind immer noch schlecht und müssen weiterhin verbessert werden, und dazu müssen sie aber auch getestet werden, auch in großflächigem Einsatz. Es gibt die Möglichkeit, verschiedene Sensorsysteme zu kombinieren. Verschiedene Anbieter haben unterschiedliche Lösungen, und die Ergebnisse kann ich zusammenführen, fusionieren und daraus eine bessere Erkennungsrate erreichen. Das ist zum Teil auch in Hamburg schon geschehen.
Die weitere Möglichkeit oder Optimierungsmöglichkeiten sind die Anbringung der Kameras, sodass ich mehr oder weniger gezwungen bin, in die Kamera zu blicken. Alternative wäre aber auch noch, richtige Gates einzuführen oder Schleusen einzuführen, durch die Passanten treten müssen, wenn sie einen Flughafen oder auch den Bahnhof betreten wollen. Es ist sogar bewiesen, dass hier die Gesichtserkennung durch die biometrischen Systeme zuverlässiger erfolgt als durch den Menschen.
Knoll: Womit wird abgeglichen, was wäre die Datenbank?
Kirchbuchner: Im Hintergrund müsste eine Datenbank sein, in der die vermissten oder die gesuchten Personen erfasst sind. Was nicht sein dürfte, ist eine Datenbank, in der jeder Bundesbürger automatisch erfasst wird.
"Hier muss der Mensch entscheiden"
Knoll: Wenn jetzt eine Person entdeckt wird durch den Abgleich mit der Datenbank, wie würde das Ganze weitergehen?
Kirchbuchner: In diesem Fall müsste dann an einem Computerbildschirm der Fund signalisiert werden, und eine Person müsste dann entscheiden, wie weiter vorzugehen ist. Man sollte diese Kontrolle niemals dem System alleine überlassen.
Knoll: Das heißt, es wäre der Mensch, der dann letztendlich entscheidet, ob diese Person angesprochen wird, attackiert wird möglicherweise?
Kirchbuchner: Ja. Hier muss der Mensch entscheiden. Ich sehe auch kein Szenario, dass eine Hundertschaft Polizisten in Bereitschaft steht am Bahnhof und darauf wartet, dass der Computer ein Gesicht erkennt. Meistens ist, wenn die Erkennung erfolgt ist, die Person schon in den Zug eingestiegen, in die nächste Bahn, und auch schon wieder weitergefahren. Aber man kann zumindest hier dann auch den Weg nachvollziehen.
Ethnische Diskriminierung
Knoll: Es gibt ja ein gewichtiges Argument der Kritiker: Die Algorithmen erkennen am besten weiße Männer, weil sie damit trainiert wurden. Darüber hinaus gibt es aber auch Ethnien, die wegen ihrer Gesichtszüge prinzipiell nicht so leicht zu unterscheiden sind. Die sind gefährdeter, zu Unrecht kontrolliert und im schlimmsten Fall eben auch rausgegriffen, herausgepickt zu werden. Wie sollte man das denn verhindern?
Kirchbuchner: Das ist tatsächlich ein Problem. Es liegt zum einen, wie Sie schon gesagt haben, daran, dass die Algorithmen besser auf kaukasische Gesichter trainiert sind. Allerdings gibt es auch physiognomische Eigenschaften unterschiedlicher Ethnien, die eine Erkennung, selbst wenn man sie besser trainieren würde, verhindern. Also hier wird es schwierig bleiben mit der vorhandenen Technik.
Knoll: Ja, und Sie sagen ja selbst, dass ein Polizist nach einem Alarm das Gesicht am Bildschirm kontrollieren würde, aber auch der ist ja in der Regel nicht besser bei Gesichtern, die ihm nicht so vertraut sind.
Kirchbuchner: Es ist schwierig, also er wäre das Korrektiv. Wir haben auch hier – die Systeme geben nur einen Wahrscheinlichkeitswert, dass hier eine bestimmte Ähnlichkeit besteht, sie sagen ja nicht, dass man hier ein Verbrecher ist. Natürlich würde es aber dazu führen, dass diese Personengruppen vermehrt kontrolliert werden würden.
"Systeme großflächig testen"
Knoll: Das bedeutet aber, dass die Bilderkennungssysteme erstens Mal noch nicht besonders gut sind und zweitens doch eine Menge von Verzerrungen in sich bergen, die auch prinzipieller Natur sind. Netzaktivisten fordern deswegen ein Verbot. Wie ist Ihre Einschätzung, sollte die automatische Bilderkennung an Bahnhöfen und Flughäfen tatsächlich kommen?
Kirchbuchner: Also ein Verbot ist insofern nicht notwendig, weil unser Datenschutz verbietet momentan den Einsatz. Wir können diese Systeme großflächig gar nicht testen, ohne Gesetzesänderungen durchzuführen.
Knoll: Ja, aber die sind ja jetzt gerade in Arbeit, es ist ja geplant.
Kirchbuchner: Ja. Ich bin dafür, dass man das wirklich erlaubt, um die Systeme auch großflächig zu testen. Erst dann können wir sagen, wie gut sie funktionieren.
Knoll: Und Sie glauben, dass sie zum Beispiel für die in den Systemen angelegte Diskriminierung eine Lösung finden können?
Kirchbuchner: Daran forschen wir aktiv. Wir entwickeln hier bei unserem Institut auch Methoden, um Biometriesysteme, Gesichtserkennungssysteme so zu trainieren, dass sie neutral gegenüber Ethnien und Geschlechtern sind.
Äußerungen unserer Gesprächspartner geben deren eigene Auffassungen wieder. Der Deutschlandfunk macht sich Äußerungen seiner Gesprächspartner in Interviews und Diskussionen nicht zu eigen.