Archiv

Analyseverfahren
Smart Data und seine Herausforderungen

IT-Journalist Peter Welchering im Gespräch mit Manfred Kloiber |
    Manfred Kloiber: Also Datennutzungskontrolle statt Datenzugangskontrolle – gibt es denn da schon Ansätze, wie so etwas technisch umgesetzt werden könnte, Peter Welchering?
    Peter Welchering: Ja, da wird mit einem Prinzip gearbeitet, das auch bei der Debatte um das "Vergessen im Internet" intensiv diskutiert wurde. Das basiert im wesentlichen auf Verschlüsselung der Daten, und wer die Daten nutzen will, kann das nur, indem er sie entschlüsselt. Und entschlüsseln kann er meine Daten nur, wenn er den Schlüssel zum Entschlüsseln hat. Diesen Schlüssel kann allein der Datenlieferant erteilen, quasi als die Erlaubnis zum Entschlüssen, und er soll in dieser Erlaubnis festlegen können, wer entschlüsseln darf und zu welchen Zwecken. So sieht das grobe theoretische Modell aus. Aber, ob das so umgesetzt werden kann, da gibt es noch viele Zweifel.
    Kloiber: Was steht denn der technischen Realisierung von solchen persönlichen Datennutzungslizenzen entgegen?
    Welchering: Zunächst einmal der politische Wille. Die Sicherheitsbehörden haben große Bedenken gegen ein solchen Zugriffsregime. In den USA noch stärker als bei uns in Deutschland. Zweites Problem: Wie kriegt man ein solches Zugriffsregime organisatorisch umgesetzt bei all den vielen Daten aus öffentlichen Quellen, Überwachungskameras etc. Das ist noch völlig offen. Und da wollen ja auch die Sicherheitsbehörden den Finger drauf haben, das steht solchen Lizenzen natürlich völlig entgegen.
    Kloiber: Auf der GI-Jahrestagung wurde ja auch sehr deutlich formuliert, dass wir verbindliche Qualitätsstandards für Big-Data-Verfahren, für die Verarbeitung von Daten im Big-Data-Umfeld brauchen. Wie werden solche Standards in der Politik diskutiert?
    Welchering: Weitgehend gar nicht. Die Politik verweist dann auf die bestehenden Datenschutzgesetze. Und die haben den drolligen Fall, dass die vorschrieben, dass die Erhebung und Verarbeitung von personenbezogenen Daten immer anlassbezogen sein muss. Nun sind Big-Data-Analysen gerade nicht anlassbezogen, sondern versucht der Analyst aus beliebigen vorliegenden großen Datenmengen Muster und Korrelationen zu erkennen, kann also den Anlass vor der Analyse gar nicht sagen. Es gibt natürlich ein paar wissenschaftliche Standards, aber die spielen in der politischen Diskussion bisher so gut wie keine Rolle, die versteht in der Politik auch niemand.
    Kloiber: Taugen diese wissenschaftlichen Standrads denn, um konkrete Big-Data-Analysen en detail und generell den Einsatz von Big-Data-Verfahren zu regulieren?
    Welchering: Die müssten angepasst werden, aber im Prinzip taugen sie dazu hervorragend. Qualitätssicherung – 1. Statistisch signifikante Muster und keine zufälligen Korrelationen, 2. Bloße Wahrscheinlichkeiten und keine kausalen Zusammenhänge, 3. Fehlerrechnungen, um die errechneten statistischen Korrelationen, die Wahrscheinlichkeiten noch einmal zu prüfen. Widerstand gegen diese qualitätssichernden Standards kommt mal wieder von den Sicherheitsbehörden. Viele Analyse-Algorithmen, wie sie beim EU-Überwachungsprogramm Indect oder in Deutschland bei predictive-crime-Projekten eingesetzt werden, genügen diesen Standrads nämlich nicht. Und was da im Augenblick in Bayern und in NRW an Projekten zur Kriminalitätsprognose durchgeführt wird, müsste dann vom Programmdesign her völlig neu gemacht werden.