Archiv

Künstliche Intelligenz
Auf der Suche nach klaren Regeln für KI

Für die Entwicklung der Künstlichen Intelligenz fordern Datenschützer in der "Hambacher Erklärung" klare Regeln. Der zentrale Gedanke dahinter: Der Mensch darf nicht zum Objekt technischer Vorgänge werden. Doch bislang wird die KI-Entwicklung politisch weder reguliert noch sinnvoll gesteuert.

Peter Welchering im Kollegengespräch mit Manfred Kloiber |
Ein Roboter streckt seine Hand aus, im Hintergrund eine Anmutung vom Universum.
Die Entscheidungsfreiheit darf nicht unreguliert in die Hände der Künstlichen Intelligenz gegeben werden - das fordern Datenschützer (imago / Science Photo Library)
"Wir können uns nicht einer Logik von Maschinen unterwerfen, die am Ende die Freiheitsrechte des Einzelnen ausblenden."
Manfred Kloiber: Stefan Brink sagt das. Er ist der Landesbeauftragte für Datenschutz und Informationsfreiheit in Baden-Württemberg, und er fasst so einen zentralen Gedanken der "Hambacher Erklärung zur Künstlichen Intelligenz", die auf der 97. Konferenz der Datenschützer von Bund und Ländern beschlossen wurde. Wenige Tage später stellte die Europäische Union ethische Leitlinien für vertrauenswürdige Künstliche Intelligenz vor. Die Bundesregierung will ihre im Dezember vergangenen Jahres vorgestellte KI-Strategie demnächst noch um ethische Erläuterungen erweitern. Was bringen uns alle diese Papiere mit ethischen Überlegungen zur Künstlichen Intelligenz, Peter Welchering?
Peter Welchering: Die meisten bringen keine neuen Erkenntnisse. Die politischen Forderungen bleiben oftmals wachsweich. Nicht selten haben diese Papiere zur Ethik der KI Alibi-Charakter. Mit ihnen soll demonstriert werden: Schaut mal, wir tun doch etwas. Wir machen uns sogar Gedanken. Wenn aus diesen Gedanken aber keine politischen Konsequenzen gezogen werden, wenn bei diesen Gedanken dann komplette Begriffsverwirrung, weil zwischen Heuristik, Algorithmik und Inferenzanalysen nicht sauber unterschieden wird, wenn gar nicht einmal klar ist, was eigentlich unter Methoden Künstlicher Intelligenz verstanden werden soll, dann wird es schwierig. Die Europäische Union hat eine Kommission ein paar Überlegungen anstellen lassen, aus denen keinerlei Gesetzesvorlagen erwachsen. Die Entwicklung im KI-Bereich wird weder reguliert noch gesteuert. Es bleibt bei Sonntagsreden. Und weil die Datenschützer in Bund und Ländern diese Ebene der Sonntagsreden verlassen haben, sogar sieben konkrete Anforderungen an Künstliche Intelligenz formuliert haben, ist deren Hambacher Erklärung der EU-Kommission und der Bundesregierung auch entsprechend vorgehalten worden: Zieht aus der Hambacher Erklärung Konsequenzen!
Freiheit des Menschen nicht den Entscheidungen der KI opfern
Kloiber: Und eine Anforderung an die KI aus der Hambacher Erklärung hat der baden-württembergische Datenschützer Stefan Brink ja eben schon zusammengefasst. KI darf den Menschen nicht zum Objekt machen. Das hat praktische Konsequenzen:
"Wir wollen insbesondere, dass der freiheitliche Aspekt stärker betont wird. Wir sind als Datenschützer natürlich auf einer bestimmten gedanklichen Linie festgelegt. Wir wollen, dass der Einzelne mit seinen persönlichen Daten nach eigenem Gusto umgehen kann, und wir wollen, dass er nicht zum Objekt, zum reinen Objekt von technischen Vorgängen wird."
So erläutert Stefan Brink den Grundgedanken der Hambacher Erklärung der Datenschützer. Werden die dort aufgestellten Anforderungen an Künstliche Intelligenz in Gesetzesform gegossen, hätte die Gesellschaft ein sehr wirkungsvolles Steuerungselement für die weitere Entwicklung in Sachen KI in der Hand. Die Freiheit des einzelnen Menschen zu wahren und eben nicht den Entscheidungen einer Künstlichen Intelligenz zu opfern, das ist der Hauptgedanke. Und aus dem folgt viel. Stefan Brink:
"Wir gehen davon aus, dass auch im Bereich der KI sehr genau Zwecksetzungen vorgenommen werden können, dass uns sehr genau erklärt werden kann, zunächst mal rein theoretisch, wie der technische Ablauf von bestimmten Ausgangsfaktoren zu bestimmten Ergebnissen kommt. Und das muss transparent sein. Das muss so sein, dass auch der Bürger, der damit konfrontiert wird, sich jedenfalls eine Vorstellung davon machen kann, wie KI funktioniert und wie er selbst Einfluss nehmen kann auf die Ergebnisse, die dabei erzielt werden."
Der Mensch darf die Kontrolle über Systeme, die mit Methoden künstlicher Intelligenz arbeiten, nicht aus der Hand geben. Verifikationsmethoden, Kontrollsysteme, mit denen genau nachvollzogen werden kann, wie ein KI-System welche Aufgabe oder Entscheidung gerechnet hat, müssen deshalb zum Standard werden. Eine Kontrolle der Trainingsdaten, der eingesetzten heuristischen und algorithmischen Verfahren ist ebenfalls unerlässlich. Solche Regelwerke fehlen aber noch. Es müssen aber schnell gesetzliche Vorgaben und klar definierte rote Linien her, die den Einsatz Künstlicher Intelligenz auch klar begrenzen. Es geht um die Selbstbestimmung eines jeden Menschen, auch um seine informationelle Selbstbestimmung. Der Einzelne muss entscheiden können, welche seiner persönlichen Daten er freigibt für den Einsatz in KI-Systemen und wie die berechnet und bearbeitet werden sollen. Die Datenschützer widersprechen deshalb sehr klar der Forderung, alle Daten für die Verwendung in KI-Systemen freizugeben. Deshalb steht ihre Hambacher Erklärung auch in einer gewissen Konkurrenz zur ethischen Leitlinie der EU. Stefan Brink:
"Jedenfalls in einer inhaltlichen Konkurrenz. Ganz deutlich: Wir haben als Datenschützer sehr stark den Freiheitsaspekt betont und müssen uns natürlich den Vorwurf gefallen lassen, den tragen wir auch mit Fassung, dass wir bestimmte wirtschaftliche Aspekte oder auch Aspekte der Forschungsfreiheit relativiert haben in unserer Erklärung."
Wichtig: Bezug auf ethische Prinzipien
Auch die Freiheit der Forschung über KI-Systeme darf nicht grenzenlos sein. Das sieht auch der Informatik-Professor Karsten Wendland vom Karlsruher Institut für Technologie so. Der Rückbezug auf ethische Prinzipien in der KI-Forschung ist für ihn ganz grundlegend.
"Das was sicherlich eine Hilfe sein kann in unserem Diskurs, ist dass das Thema der Ethik immer wieder auf den Tisch kommt. Also wenn wir über Bewusstsein sprechen, das wir der KI zuschreiben, sind wir letztlich immer wieder auf uns selbst zurückgeworfen, auf unser eigenes Bewusstsein, auf die Art und Weise wie wir mit den Maschinen umgehen, welche Zuschreibungen wir hineinlegen. Und wenn das dazu führt, dass in Projekten stärker die Frage des ethischen Umgangs mit künstlicher Intelligenz eine Rolle spielt, beispielsweise in Unternehmen, dann ist das ein Nebeneffekt unseres Projektes, den wir sehr begrüßen."
Die Hambacher Erklärung hat die Anforderungen dafür auf den Punkt gebracht. Jetzt muss der Gesetzgeber handeln.
EU-Richtlinie kommt der Wirtschaft zu weit entgegen
Kloiber: Was da an gesetzgeberischen Maßnahmen erforderlich ist, aber auch welches konkrete Regierungshandeln wir brauchen, das wird derzeit auf vielen Konferenzen und Kolloquien, in vielen Forschungsprojekten intensiv diskutiert. Gibt es da schon eine Art Grundkonsens, Peter Welchering?
Welchering: Ja, der scheint mir darin zu bestehen, dass Europa sich stark absetzen muss vom digitalen Überwachungskapitalismus des Silicon Valley, aber auch von der Überwachungsgesellschaft, wie sie derzeit in China eingeführt wird. In beiden Fällen wird der Einzelne von seinen Daten enteignet, und er wird Entscheidungen unterworfen, die auf Grundlage dieser enteigneten Daten von KI-Systemen getroffen wurden. Dass Europa das nicht will und darf, da besteht ein sehr, sehr grundsätzlicher Konsens.
Kloiber: Die Ethik-Leitlinie der EU wird ja kritisiert, sie sei den Interessen der Wirtschaft zu stark entgegengekommen. Worum geht es bei diesem Vorwurf genauer?
Welchering: In der Konsequenz stellt die EU-Leitlinie vor allen Dingen bei den Trainingsdatensätzen Daten sehr weitgehend zur Verfügung. Da setzt die Hambacher Erklärung einen deutlichen anderen Akzent. Sie geht von der Datenschutzgrundverordnung aus und fordert, dass der notwendige Umfang eines Trainingsdatensatzes im Vorhinein festgelegt und begründet werden muss. Außerdem gibt die Hambacher Erklärung vollständig Anonymen Daten den Vorzug bei der Verarbeitung in Trainingsdatensätzen.
Kloiber: Was würde das in der Praxis bedeuten?
Welchering: Das würde die Masse an persönlichen Daten, die wir bisher in der Mustererkennung einsetzen, deutlich reduzieren. Um etwa in der Kriminalitätsbekämpfung Verhaltensmuster zu trainieren, brauche ich keine persönlichen Daten. Da reichen sogenannte Verlaufsdaten. Vor allen Dingen die großen Internet-Konzerne sehen das nicht gern. Denn sie verdienen viel Geld mit dem Verkauf der Profildaten ihrer Nutzer. Und das sind überwiegend persönliche Daten.
Politik braucht Fachdiskussion - und saubere Begriffe
Kloiber: Nehmen wir mal das selbstfahrende Auto. Da weisen die Verkehrspolitiker darauf hin, dass hier enorme Mengen an Trainingsdaten aus realen Autofahrten nötig seien.
Welchering: Und die lassen sich oft nicht anonymisieren, weil aus den Fahrstrecken, dem Fahrverhalten und den ganzen technischen Angaben zu Fahrzeug und Straße die Identität des Fahrers sehr leicht ermittelt werden kann. Da würde aus der Hambacher Erklärung folgen, dass Daten, die aus Fahrsimulationen gewonnen wurden, als Trainingsdaten verwendet werden.
Kloiber: Wie werden die Diskussionen und die Vorschläge denn von den Mitgliedern der Enquetekommission "Künstliche Intelligenz" im Deutschen Bundestag aufgenommen?
Welchering: Individuell gesehen sehr unterschiedlich, und ich habe da wirklich mit vielen Abgeordneten gesprochen. Institutionell noch gar nicht. Und das bedeutet, dass wir so schnell auch noch nicht mit gesetzlichen Regelungen rechnen können. Das hat aber auch damit zu tun, dass wir in der Politik, nicht nur da, aber vor allen Dingen in der Politik, eine heillose Begriffsverwirrung in Sachen KI haben. Heuristische Verfahren werden den algorithmischen Methoden zugeschlagen. Reine Wahrscheinlichkeitsrechnungen werden schon als tolle KI-Anwendung ausgegeben. Da brauchen wir erst einmal eine fachliche Diskussion, um zu entmystifizieren, die reinen Marketingsprüche auszuscheiden und eine saubere Begrifflichkeit hinzukriegen.