Archiv

Datenschutz
Der umstrittene Umgang mit Gesundheitsdaten

Die kostengünstige Speicherung von großen Datenmengen in der Cloud von Anbietern wie zum Beispiel Google wird auch für Firmen aus sensiblen Bereichen wie dem Gesundheitswesen zunehmend normal. Doch der Schutz der Daten ist oft ungeklärt, weil viele Gesetze nicht mehr zeitgemäß sind.

Von Thomas Reintjes |
Digitale Patientenakte, Gesundheitskarte, Vivy-App (Symbolfoto)
Sensible persönliche Daten aus dem Gesundheitsbereich müssen besonders geschützt werden. Aber die entsprechenden Gesetze kommen dem technologischem Fortschritt nicht hinterher. (imago / Christian Ohde)
Man könnte die Zusammenarbeit des katholischen Gesundheitsdienstes Ascension mit Google als ganz normale Geschäftsbeziehung sehen. Das eine Unternehmen will seine IT modernisieren, das andere Unternehmen bietet die dazu passenden Cloud-Dienste an. Und dann liegen die Daten eben nicht mehr auf den eigenen Servern, sondern auf jenen des Dienstleisters. So in etwa stellen es auch Google und Ascension in ihren jeweiligen Stellungnahmen dar, die sie nach Veröffentlichung der Recherchen der Washington Post herausgegeben haben. Solche Partnerschaften sind üblich und verbreitet.
Gesetze entsprechen nicht mehr heutigen Anforderungen
Allerdings will Google die Daten von Ascension auch analysieren und Zitat: "Ärztinnen und Ärzten, Pflegerinnen und Pflegern Werkzeuge anbieten, um die Versorgung zu verbessern." Weiter stellt Google klar, dass die Daten für keinen anderen Zweck verwendet würden. Elizabeth Kaziunas vom AInow Institute an der New York University hat dennoch den Verdacht, dass mehr dahinter steckt.
"Ich glaube, das ist nur ein erster Schritt hin zu einer Datafizierung des Gesundheitswesens. Jetzt werden die Daten erstmal in die Cloud geladen, und Google bietet Dienstleistungen für Ascension an. Aber sie trainieren auch Algorithmen damit und entwickeln Modelle, die dann wiederum an Dritte verkauft werden könnten. Also, sie verkaufen nicht unbedingt die Trainingsdaten, aber die Modelle, die sie auf ihnen basieren. Diese Modelle könnten dann auf Daten angewendet werden, die nicht den HIPAA-Regularien unterliegen."
HIPAA ist das wichtigste US-Gesetz zum Schutz von Patientendaten. Aber es ist alt: Bill Clinton hat es 1996 unterschrieben. Heutige Datenmengen und der Umgang mit ihnen waren damals kaum vorherzusehen. Wenn Künstliche Intelligenz die Daten auswertet und Schlüsse daraus zieht, dann erfordere dass eine angepasste Regulierung, sagt Elizabeth Kaziunas. Und die Regulierung sollte ihrer Meinung nach ausgeweitet werden auf Daten, die nicht unbedingt beim Arzt oder im Krankenhaus anfallen, sondern im Alltag.
Nutzung sensibler Daten durch Dritte oft nicht reguliert
"Es gibt eine große Bandbreite persönlicher Daten aus Smart Home-Geräten wie Alexa oder Fitness-Trackern und solchen Dingen, die überhaupt nicht reguliert sind. Anhand dieser Daten kann man Einblicke in die Gesundheit von Personen gewinnen, sogar sehr sensible Einblicke. Etwa, ob jemand vielleicht schizophren ist oder depressiv. Und da gibt es überhaupt keinen Schutz, solche Daten werden offiziell noch nicht einmal als Gesundheitsdaten angesehen."
Forschende, die mit solchen Daten arbeiten wollen, hätten deshalb auch von Ethikkommissionen wenig Gegenwind zu erwarten. Die Studien würden generell nicht als Versuche mit Menschen klassifiziert. Wenn Patientinnen und Patienten und Menschen, die datensammelnde Geräte benutzen, gar nicht mehr gefragt werden, wie diese Daten verwendet werden dürfen, kann das das Vertrauen nicht nur in die beteiligten Unternehmen, sondern auch in Medizin und Forschung erschüttern, ist Elizabeth Kaziunas überzeugt.
Neue Ansätze zum Schutz persönlicher Daten
Dass sich Wissenschaftlerinnen und Wissenschaftler zunehmend verleitet sehen, mit Unternehmen zusammen zu arbeiten, verschärft das Problem.
"Das ist eine Herausforderung. Viele Leute, mit denen ich arbeite, haben nicht die Infrastruktur, um größere Datenmengen zu analysieren. Die sehen eine Zusammenarbeit mit Google oder Microsoft oder Amazon als eine Möglichkeit, Innovationen voranzutreiben und das Feld voran zu bringen. Aber da kommen dann eben ganz andere Mechanismen ins Spiel, was Studiendesign und die Nutzung von Daten angeht."
Es gibt aber durchaus auch technische Ansätze, sicherzustellen, dass sensible Daten nicht in falsche Hände geraten. Ein Forschungsteam am Londoner King's College und beim Grafikkarten-Hersteller Nvidia hat im Oktober ein System vorgestellt, bei dem die Daten nicht zentral vorliegen müssen. Eine Künstliche Intelligenz zur Erkennung von Hirntumoren wurde dabei mit Bildern aus verschiedenen Datenpools trainiert. Aus jedem der Pools wurden aber nicht die Bilder selbst übermittelt, sondern ein lokal erstelltes Modell, das dann in das zentrale Modell einfließen konnte.
Kulturelle Unterschiede in der Bewertung
Für die New Yorker Forscherin Elizabeth Kaziunas dürfte das noch nicht reichen. Sie mahnt an, dass bei Künstlicher Intelligenz in der Medizin gerade regionale Unterschiede mitbedacht werden müssen.
"Es gibt kulturelle Unterschiede, wie man in den Vereinigten Staaten oder im Vereinigten Königreich, in Deutschland, in Japan oder auf der Südhalbkugel mit Gesundheit umgeht, wie Leute mit Ärzten interagieren. Das spiegelt sich in den Daten wider, die gesammelt werden und auf deren Grundlage Entscheidungen getroffen werden. Das muss in der Forschung mitbedacht werden. Weil wir erst am Anfang stehen, haben wir jetzt die Chance, es richtig zu machen, und die sozialen und technischen Aspekte zusammenzubringen."
Die Menschen, um deren Daten es geht, müssten dabei aber beteiligt werden, betont Elizabeth Kaziunas. Sie sollten wissen, was mit ihren Daten geschieht und die Möglichkeit haben, ihre Daten für bestimmte Zwecke nicht zur Verfügung zu stellen. Soweit bekannt, fehlt diese Möglichkeit beim Projekt Nachtigall von Google und Ascension.