Bei manchen Aufgaben sind Computer derzeit auf dem besten Weg, menschlichen Ärzten Konkurrenz zu machen. Zum Beispiel wenn es darum geht, Bilder zu beurteilen. Dermatologen etwa müssen bei Hautveränderungen zwischen harmlosen Leberflecken und lebensgefährlichen Melanomen, also Hautkrebs, unterscheiden. Viele Studien haben inzwischen gezeigt: Künstliche Intelligenzen können das mitunter besser als ausgewiesene Experten.
"Ich habe mir diese Studien angeschaut. Und was mich daran beunruhigt hat, war folgendes: Die Bilder, die darin beurteilt wurden, zeigten fast alle Leberflecken und Tumore auf heller Haut. Menschen mit dunklerer Haut waren kaum vertreten."
Erzählt Ade Adamson, der als Dermatologe an der Universität von Texas forscht. Gemeinsam mit einem Informatiker hat er jüngst im Fachblatt "JAMA Dermatology" einen Artikel zu diesem Thema veröffentlicht. Der Hintergrund: Die Computersysteme lernen mit Beispielbildern von Leberflecken und Melanomen. Diese Bilder kommen unter anderem von der International Skin Imaging Collaboration, einer Open-Source-Datenbank. Doch die Fotos stammen überwiegend von Ärzten aus Europa, den Vereinigten Staaten und Australien. Sie zeigen fast nur helle Haut.
Erzählt Ade Adamson, der als Dermatologe an der Universität von Texas forscht. Gemeinsam mit einem Informatiker hat er jüngst im Fachblatt "JAMA Dermatology" einen Artikel zu diesem Thema veröffentlicht. Der Hintergrund: Die Computersysteme lernen mit Beispielbildern von Leberflecken und Melanomen. Diese Bilder kommen unter anderem von der International Skin Imaging Collaboration, einer Open-Source-Datenbank. Doch die Fotos stammen überwiegend von Ärzten aus Europa, den Vereinigten Staaten und Australien. Sie zeigen fast nur helle Haut.
Fotos zeigen fast nur helle Haut
"Dafür gibt es zwei Gründe. Erstens sind bösartige Melanome auf dunkler Haut viel seltener als auf heller. Und zweitens haben viele Menschen mit dunkler Haut keinen guten Zugang zum Gesundheitssystem, also werden deren Hautveränderungen einfach nicht fotografiert."
Weil die Systeme fast nur mit Bildern von Weißen trainiert werden, ist davon auszugehen, dass sie Veränderungen auf dunklerer Haut nicht richtig beurteilen können. Zwar gibt es noch keine Studie, die diese Schwäche belegen, aber verschiedene Experten gehen davon aus, dass es sie gibt. Die Folge:
"Also ich bin Afro-Amerikaner. Sagen wir, ich habe einen Leberfleck und mein Hautarzt nutzt ein solches System und es entscheidet fälschlicherweise, dass es wahrscheinlich nichts Bösartiges ist. Die richtige Diagnose bekomme ich dann viel zu spät und werde bis dahin in falscher Sicherheit gewogen."
Weil die Systeme fast nur mit Bildern von Weißen trainiert werden, ist davon auszugehen, dass sie Veränderungen auf dunklerer Haut nicht richtig beurteilen können. Zwar gibt es noch keine Studie, die diese Schwäche belegen, aber verschiedene Experten gehen davon aus, dass es sie gibt. Die Folge:
"Also ich bin Afro-Amerikaner. Sagen wir, ich habe einen Leberfleck und mein Hautarzt nutzt ein solches System und es entscheidet fälschlicherweise, dass es wahrscheinlich nichts Bösartiges ist. Die richtige Diagnose bekomme ich dann viel zu spät und werde bis dahin in falscher Sicherheit gewogen."
Hautkrankheiten könnten unentdeckt bleiben
Es gibt auch schon Apps für das Smartphone, die solche Diagnosen stellen. Obwohl man bei solchen Anwendungen sowieso vorsichtig sein sollte, könnten auch sie Menschen eine falsche Sicherheit vorspiegeln. Das größere Problem hinter dieser Schwäche der künstlichen Intelligenz wird erst deutlich, wenn man ein bisschen in die Zukunft denkt. Es könnte sein, dass sich Ärzte irgendwann auf die Computersysteme verlassen und ihre eigenen Diagnosefähigkeiten womöglich verkümmern. Dann könnten viele Hautkrankheiten bei Menschen, die zu Minderheiten gehören, tatsächlich unentdeckt bleiben.
"Bei Hautkrebs ist das vielleicht nicht so kritisch, weil Menschen mit dunkler Haut tatsächlich ein geringes Risiko haben. Aber diese Technologie wird reifen und an Einfluss gewinnen. Man wird sie etwa für Entzündungskrankheiten nutzen, die auf weißer Haut rot sind, auf dunkler Haut aber eher purpurfarben. Und wir müssen jetzt daran arbeiten, dass diese Werkzeuge diesen Unterschieden Rechnung tragen."
Dazu müssten die Entwickler die KI-Systeme so gestalten, dass sie mit allen Hauttypen klar kommen. Vor allem brauchen sie dafür massenhaft Beispielbilder von Menschen mit verschiedenen Hautfarben.
"Es muss was unternommen werden, um mehr Fotos von Leberflecken und Melanomen auf dunkler Haut aufzunehmen, etwa in Ländern, in denen ein großer Teil der Bevölkerung dunkle Haut hat. Das würde die Technologie zuverlässiger machen und sollte in alle Anwendungen einfließen. Es sollte nicht ein Programm für helle Haut und eines für dunkle geben. Wir sollten vielmehr mit einem System alle Hauttypen abdecken, das wäre am sinnvollsten."
"Bei Hautkrebs ist das vielleicht nicht so kritisch, weil Menschen mit dunkler Haut tatsächlich ein geringes Risiko haben. Aber diese Technologie wird reifen und an Einfluss gewinnen. Man wird sie etwa für Entzündungskrankheiten nutzen, die auf weißer Haut rot sind, auf dunkler Haut aber eher purpurfarben. Und wir müssen jetzt daran arbeiten, dass diese Werkzeuge diesen Unterschieden Rechnung tragen."
Dazu müssten die Entwickler die KI-Systeme so gestalten, dass sie mit allen Hauttypen klar kommen. Vor allem brauchen sie dafür massenhaft Beispielbilder von Menschen mit verschiedenen Hautfarben.
"Es muss was unternommen werden, um mehr Fotos von Leberflecken und Melanomen auf dunkler Haut aufzunehmen, etwa in Ländern, in denen ein großer Teil der Bevölkerung dunkle Haut hat. Das würde die Technologie zuverlässiger machen und sollte in alle Anwendungen einfließen. Es sollte nicht ein Programm für helle Haut und eines für dunkle geben. Wir sollten vielmehr mit einem System alle Hauttypen abdecken, das wäre am sinnvollsten."