Sandra Schulz: Wenn das mal keine attraktiven Prämien sind: SmartWatches, Fitness-Armbänder und Unterwasserkameras hat die Bundespolizei als Gewinne oder Prämien ausgelobt für die Teilnehmer bei dem Pilotprojekt zur Gesichtserkennung, das seit einigen Wochen ja am Berliner Bahnhof Südkreuz läuft und über das jetzt wieder gestritten wird. Ausgelobt waren die Gewinne für die freiwilligen Teilnehmer, um das noch dazu zu sagen, die am häufigsten bei dem Testlauf auch tatsächlich erkannt werden. Das ist aber nicht der Grund, warum das Testprojekt jetzt in der Kritik steht. Datenschützer hatten rausgefunden, dass viel mehr Daten erfasst werden können als gedacht und kommuniziert und übrigens auch von Dritten ausgelesen werden können. Bundesdatenschutzbeauftragte Voßhoff forderte eine vorläufige Aussetzung. Bundesinnenminister de Maizière hat die Pläne gestern aber verteidigt.
Darüber können wir in den kommenden Minuten sprechen. Am Telefon ist Sebastian Fiedler, stellvertretender Bundesvorsitzender des Bundes deutscher Kriminalbeamter. Schönen guten Morgen.
Sebastian Fiedler: Guten Morgen, Frau Schulz!
"Die Polizei forscht nach neuen Techniken zur Sicherheitsgewinnung"
Schulz: Was ist jetzt Ihre Zwischenbilanz? Das Projekt läuft seit einigen Wochen. Wir haben nun diese Diskussion seit gestern, eine Bundesdatenschutzbeauftragte, die die vorläufige Aussetzung beantragt oder verlangt. Was ist Ihr Eindruck, wie läuft das?
Fiedler: Ich reibe mir ein bisschen verwundert die Augen und bin nicht ganz sicher. Da es die Datenschutzbeauftragte ist, kann ich es nicht unbedingt dem Wahlkampf zuschreiben. Aber einige der Stimmen, die nun laut werden, sind sicherlich dem Wahlkampf geschuldet. Weil ich glaube, wir müssen dort die Diskussion mal ein bisschen nüchtern sortieren.
Hier geht es doch ausnahmslos um einen Testlauf. Die Polizei untersucht jetzt einmal forschend, welche neue Technik uns Sicherheitsgewinne bringen könnte. Eine ganz andere Debatte ist doch, ob wann wie unter welchen rechtlichen Rahmenbedingungen wir eine solche Technik, wenn sie denn funktioniert, in der Folge gesetzlich verankert auch einsetzen können. Und eine dritte Debatte, die spielt unausgesprochen immer mit: Welche Polizei wollen wir denn eigentlich haben in der Zukunft und wie sind wir denn in die Gesellschaft eingebunden? Die müssen wir, glaube ich, voneinander trennen, die Debatten.
Schulz: Das probieren wir jetzt mal abzuarbeiten, so weit wie wir kommen. Wie aussagekräftig kann denn so ein Testlauf sein, wenn den Testpersonen, die am häufigsten erkannt werden, wenn denen Prämien, wenn denen Gewinne versprochen werden?
Fiedler: Ehrlich gesagt, das ist aus meiner Sicht für den Testlauf nicht besonders relevant, sondern da geht es ja darum, dort Leute zu gewinnen, die mitmachen bei dem Test. Hier geht es doch darum herauszukriegen, wie die Systeme arbeiten. Das heißt, ob ein System jemanden erkennt.
Schulz: Wenn ich das kurz nachfragen darf, Herr Fiedler? Ist es dann nicht vollkommen klar, dass die Testpersonen da auch schön deutlich in die Kamera gucken, so wie es in der Realität dann nie sein wird, was ja den Eindruck nahelegt, dass dieser Test jetzt unbedingt erfolgreich sein soll, damit er hinterher dann auch kommen kann?
Fiedler: Bei aller Liebe: Damit untergraben Sie jetzt ein bisschen die Kompetenz derjenigen, die jetzt diesen Versuchsaufbau gemacht haben. Die werden sich schon angucken, ob und inwieweit die Person bei welchen Lichtverhältnissen, unter welchen Winkeln die da jetzt durchgelaufen ist. Da vertraue ich jetzt nun mal wirklich grundsätzlich in die Kompetenz derjenigen, die das jetzt untersuchen.
Schulz: Die ist jetzt aber gerade dadurch in die Diskussion geraten, dass wir diese Erkenntnisse darüber haben, dass hier viel mehr Daten erfasst werden können, als überhaupt den Teilnehmern kommuniziert, und dass die übrigens auch nicht nur von speziellen Geräten ausgelesen werden können, sondern quasi von Jedermann. Wenn wir jetzt so eine Versuchsanordnung haben, zu der sich mehrere hundert Freiwillige melden, die die Sache positiv sehen, die dem positiv gegenüberstehen. Wenn es dann noch nicht mal klappt, die Versuchsanordnung so hinzubekommen, wie es kommuniziert wurde, wie können denn Bürger dann bei einem echten Verfahren von Gesichtserkennung davon ausgehen, dass das datenschutzrechtlich dann alles schon sein Richtiges hat?
Fiedler: Auch hier müssen wir, glaube ich, wieder trennen, Frau Schulz. Es geht hier um die Frage, was diese Transponder, die sozusagen als notwendiges Hilfsmittel dafür von den Personen mitgetragen werden, um die Software selber testen zu können - das hat mit der Software selber überhaupt rein gar nichts zu tun, sondern es geht nach allem, was ich jetzt lese, darum, ob man die entsprechenden Codierungen von anonymisierten Leuten, die sich irgendwo da herumbewegen, mit einem Handy auslesen kann. Ob und inwieweit das den Kandidaten mitgeteilt worden ist, weiß ich nicht. Ich weiß nur, dass die ganzen übrigen Funktionen dieser Transponder, die in der Diskussion standen, schlicht und ergreifend abgeschaltet worden sind. Das hat mit dem Thema Gesichtserkennung überhaupt rein gar nichts zu tun.
"Nur Gefährder sollen erkannt werden, niemand sonst"
Schulz: Wir haben jetzt ja die Situation, dass an vielen öffentlichen Plätzen wir schon Videoüberwachung haben. Wieso ist da sozusagen als noch einen drauf die Videoerkennung, diese Gesichtserkennung überhaupt so wichtig?
Fiedler: Das haben wir doch beispielsweise im Fall Amri und vielen anderen Fällen, die nicht so ganz das Licht der Öffentlichkeit erblickt haben, festgestellt. Die Videobeobachtung oder Videoüberwachung mit oder ohne Aufzeichnung, die wir bisher in Deutschland haben, ermöglicht ja keine Identifizierung von Personen, die automatisiert stattfindet. Sie ermöglicht in Teilen natürlich Speicherung von entsprechendem Videomaterial, aber deswegen wissen wir noch nicht, wer sich durch einen solchen Aufnahmeradius bewegt hat. Das ist doch jetzt gerade eben der Unterschied, das was Ihr Macbook, sollten Sie eins haben, nun heute schon längst mit Ihren Urlaubsfotos machen kann, nämlich zu erkennen, welche Personen anhand der Gesichter sich auf Ihren Fotos befinden - darum geht es jetzt, dass wir also bestimmte Schwerstkriminelle, bestimmte Gefährder, die wir vorher in eine Datenbank gegeben haben, dass die erkannt werden und im Übrigen niemand sonst. Und nur diejenigen sollen erkannt werden.
Die Polizei technisch auf die Höhe der Zeit bringen
Schulz: Da muss ich jetzt aber, Herr Fiedler, schon sagen, dass ich staune, dass Sie den Fall Amri da anführen. Da hatten wir ja nun gerade die Situation, dass den Behörden ausreichend Daten vorlagen, dass der Mann bekannt war, dass sogar seine Pendelei zwischen Berlin und NRW bekannt war. Welchen Unterschied hätte es gemacht, wenn der irgendwo auf einer Rolltreppe erkannt worden wäre, wenn er dann ohnehin trotzdem auch nicht festgenommen worden wäre?
Fiedler: Zum einen wissen Sie, dass das nicht so ganz richtig ist, denn er ist gerade eben nicht dauerhaft observiert worden über einen wesentlichen Zeitraum und gerade während des Anschlagszeitraums, und vor allen Dingen ist seine Flucht nicht erkannt worden, sondern erst im Nachhinein bekannt geworden. Noch mal: Worum es jetzt hier geht ist, dass wir uns die Frage stellen müssen, wollen wir die Polizei von einer technischen Entwicklung abkoppeln, oder wollen wir sie auf die Höhe der Zeit bringen, um es mal auf den Punkt zu bringen. Das ist das, was ich vorhin meinte mit gesellschaftlichen Debatten. Ich habe manchmal ein bisschen das Gefühl, wir müssen uns dafür schämen, dass wir versuchen wollen, unsere Arbeit auch technisch besser machen zu können. Da muss man sich jetzt natürlich fragen, welche Polizei wollen wir denn jetzt nun haben. Wollen wir sie im analogen Zeitalter belassen, das wir schon längst nicht mehr haben, oder wollen wir sie mit dem Stand der Technik ausrüsten.
Und hier geht es nur darum, dass diejenigen, die vorher als hoch gefährlich nach einem rechtsstaatlichen Verfahren in eine entsprechende Datenbank gebracht worden sind, dass die erkannt werden, wenn sie durch eine entsprechende Kamera laufen. Das ist ein vergleichsweises Hilfsmittel wie das der automatischen Kennzeichen-Lesesysteme, bei dem entsprechende Kennzeichen, die wir vorher in ein System gegeben haben, automatisch erkannt werden können. Das ist die tatsächliche Debatte. Es geht hier weder um eine massenhafte Überwachung Unbeteiligter, die tauchen überhaupt gar nicht auf bei einem solchen System, oder um einen Generalverdacht oder Ähnliches, sondern um spezifische Personen, die wir erkennen wollen, die wir wieder fassen wollen.
"Das wäre ein großer Sicherheitsgewinn"
Schulz: Herr Fiedler, sind die Grenzen da nicht auch fließend? Sie sagen, es geht nicht um eine massenhafte Überwachung von Unbeteiligten. Aber es geht schon um eine massenhafte Erfassung von Unbeteiligten. Ist es das wert?
Fiedler: Nein, geht es nicht! Es ändert sich im Prinzip, ehrlich gesagt, überhaupt gar nichts. Das hat der Bundesinnenminister auch gestern treffend dargestellt. Die Kameras gibt es doch jetzt schon längst. Sondern es geht darum, dass wir bei den entsprechenden Kameras erkennen wollen, wenn sich eine Person dort in diesem Kamerawinkel aufhält. Das ist die Diskussion. Deswegen bitte ich darum, die ein bisschen auseinanderzuhalten. Es wird kein Unbeteiligter hier identifiziert. Es geht darum, jemand, der durch einen solchen Kamerawinkel läuft, zu identifizieren, und zwar Straftäter und Gefährder zu identifizieren. Das wäre ein großer Sicherheitsgewinn, in der Tat.
Schulz: Sebastian Fiedler vom Bundesverband deutscher Kriminalbeamter heute Morgen hier bei uns im Deutschlandfunk im Interview. Ganz herzlichen Dank.
Fiedler: Sehr gerne!
Äußerungen unserer Gesprächspartner geben deren eigene Auffassungen wieder. Der Deutschlandfunk macht sich Äußerungen seiner Gesprächspartner in Interviews und Diskussionen nicht zu eigen.