Das Jahr 2023 war noch keine Woche alt, da gab es schon den ersten kleinen Technik-Skandal. Es ging um die Online-Plattform Koko - ein so genanntes Peer-Support-Netzwerk. Menschen mit mentalen Problemen - Stress auf der Arbeit, Angst in der Schule, Liebeskummer - können hier von ihren Sorgen berichten. Andere Mitglieder antworten.
KI an hilfesuchenden Menschen getestet
Aber für einige Zeit antworteten dort nicht nur Menschen. Wie der Gründer Anfang Januar auf Twitter offenbarte, hatten er und sein Team eine Funktion hinzugefügt: Eine Künstliche Intelligenz (KI), die den Antwortenden besonders empathische, einfühlsame Texte vorschlägt. Der Aufschrei kam prompt: Hier wurde eine KI auf hilfesuchende Menschen losgelassen, um ein technisches Feature zu testen. Eine Interviewanfrage vom Deutschlandfunk hat Koko abgelehnt.
Diese Woche erschient in Magazin "Nature Machine Intelligence" dann eine Studie, die im Grunde die gleiche Frage klärt wie das umstrittene Koko-Experiment, nämlich: "Kann Künstliche Intelligenz Menschen helfen, Empathie effektiver auszudrücken?“ Um diese Frage zu beantworten hat der Informatik-Professor von der University of Washington, Tim Althoff, eine ethisch vertretbarere Methode angewandt.
KI hilft empathischere Antworten zu geben
Er und sein Team ließen 300 Mitglieder einer anderen Peer-Support-Plattform Antworten auf typische Fragen verfassen. Die Hälfte bekam ein KI-Modell an die Seite gestellt. Es war darauf trainiert, die menschlichen Antworten empathischer zu gestalten. Ein Beispiel: Jemand schreibt: „Mein Job wird jeden Tag stressiger.“ Jetzt könnte jemand darauf antworten mit der Nachricht: „Keine Sorge - ich bin für Dich da!” Das ist nicht sehr empathisch, denn die Person macht sich bereits Sorgen.
„Wir haben unserem KI-Modell diese Antwort gegeben und es hat vorgeschlagen: Ersetze das ‚Keine Sorge‘ durch ‚Das muss echt schwer sein‘. Es bestätigt, dass die Person etwas durchmacht. Den Teil ‚Ich bin für Dich da‘, behält es und schlägt vor, hinzuzufügen: ‚Hast Du versucht, mit Deinem Chef zu sprechen?‘“ Wichtig ist: Das ganze wurde nicht auf hilfesuchende Menschen losgelassen. Andere Personen bewerteten die Antworten nach Empathie. Und tatsächlich: Die Antworten, bei denen die KI nachgeholfen hatte, waren empathischer.
Der Psychiater und Präsident der Deutschen Gesellschaft für Psychiatrie und Psychotherapie, Andreas Meyer-Lindenberg war an der Studie nicht beteiligt. Er sagt, dass die Methode, KI zu nutzen um die Antworten empathischer zu machen, durchaus hilfreich für solche Peer-Support-Angebote sein könnte: „Wenn ich als derjenige, der kommt, nicht den Eindruck habe, dass derjenige, der mich berät, mich versteht, dann ist die Wahrscheinlichkeit, dass das zum Erfolg führt, sehr viel geringer. Insofern macht schon Sinn zu sagen, wenn man da eine Verbesserung erzielen will, würde man durchaus da angreifen können.“
Eine Maschine kann nicht empathisch sein
Aber die Studie hat eine entscheidende Schwäche. Weil sie aus ethischen Gründen nicht die Reaktion echter Hilfesuchender misst, ist unklar, wie die KI-Unterstützung auf sie wirkt. Beim skandalträchtigen Koko-Experiment kam laut Gründer der Plattform nämlich heraus: Sobald die Hilfesuchenden wussten, das eine KI am Werk ist, funktionierte die Hilfe nicht mehr. Simulierte Empathie fühle sich „leer“ an: „Das kann man sich sehr gut vorstellen, dass so eine Reaktion es geben wird. Deswegen ist auch aus ethischen Gründen wirklich wichtig, dass man diese Programme so aufsetzt, dass sie eben nicht die tatsächliche menschliche Beziehung ersetzen, sondern die menschliche Beziehung ein Stück weit unterstützen.“
Das Experiment von Tim Althoff berührt eine der großen Fragen unserer Zeit: Wenn KI solche zutiefst menschlichen Eigenschaften wie Empathie zumindest unterstützten kann: Welche Aufgaben sollten Computer übernehmen und welche der Mensch? Tim Althoff hat eine Antwort gefunden: „Die zwischenmenschliche Verbindung sollte entscheidend bleiben. Wir wollten kein KI-Modell, das einfach alles ändert. Unser Modell gibt so wenig Feedback wie möglich, behält den Sinn der Nachricht bei, aber eben mit einem stärkeren Ausdruck von Empathie.“
Denn eine Maschine kann nicht selbst empathisch sein: Sie fühlt nicht, sie kann die Emotionen des Menschen nicht nachvollziehen. Das muss der Mensch machen. Die KI kann aber helfen, dabei die richtigen Worte zu finden.