Selten sorgt ein einzelner Satz für so viel Wirbel. Aber seit Dienstagabend berichten so gut wie alle Medien über 22 Wörter. Ins Deutsche übersetzt, lauten sie: "Das Risiko des Aussterbens durch künstliche Intelligenz zu mindern, sollte neben gesellschaftlichen Risiken wie Pandemien und Atomkrieg eine globale Priorität sein."
Die Warnung, dass künstliche Intelligenz ein existenzielles Risiko für die Menschheit darstellt, ist nicht neu. Neu ist aber die Tatsache, dass viele Größen aus der KI-Industrie selbst diese Warnung vertreten. Sie gehören zu den über 350 Unterzeichnern des Statements.
Und sie ziehen Kritik auf sich, wonach die Warnung zu vage gehalten ist. Klar sind die neuen KI-Systeme wie Chat-GPT gleichermaßen beeindruckend wie angsteinflößend, wenn sie zarte Liebesbriefe verfassen, Aufsätze schreiben, Witze erklären oder Menschen von etwas überzeugen, das unwahr ist. Aber wie wir jetzt von dem Szenario „Chat-GPT hilft mir bei den Hausaufgaben und schreibt meine E-Mails“ zum Ende der Menschheit kommen – das lässt das Statement offen. Die Kritik lautet also – um beim Vergleich mit dem Atomkrieg zu bleiben: Wenn wir uns schon in den KI-sicheren Bunker zurückziehen sollen, wüssten wir doch ganz gern, wovor genau wir uns verstecken: KIs, die sich in Virenlabore einhacken und die Sicherheitsschleusen öffnen? Durch Fehlinformationen angezettelte Kriege? Staubsaugerroboter, die einen Appetit auf menschliches Fleisch entwickeln?
Realistische Gefahren von KI
Manche Experten vermuten hinter dem Schreiben sogar ein gezieltes Ablenkungsmanöver: Die Macher der KIs lenken die Aufmerksamkeit auf ein hypothetisches Horrorszenario und damit weg von sich selbst und ihrer Verantwortung für die realistischen Gefahren von KI, die da wären: automatisierte Fake News, Jobverlust durch Automatisierung, Vertrauenserosion. Alles schlimm – aber wahrscheinlich nicht so vernichtend wie die Arsenale der Atommächte.
Aber immerhin – ein Argument könnte für ihren Appell sprechen. Es liegt in der Technologie begründet. Als die Macher der KIs ihren Systemen beibrachten, uns Menschen zu verstehen, gaben sie ihrerseits auf, ihre eignen Systeme zu verstehen. Die KIs sind derart komplex, dass selbst ihre Macher nicht wissen, wozu ihre Schöpfungen wirklich fähig sind. Sie sind da aufs Ausprobieren angewiesen. Die Warnung muss also vielleicht vage sein, um der Unsicherheit gerecht zu werden, die diese Systeme bedeuten.
Aber wenn es den Industriegrößen wirklich ernst ist mit ihrer Warnung, sollten sie den ersten Schritt tun und ihre Schöpfungen der Forschung öffnen. Nur so lassen sich die wahren Risiken einschätzen. Aber das tun sie nicht. Ein Beispiel: Einer der Unterzeichner ist Sam Altman, Chef von OpenAI, der Firma hinter ChatGPT. Bei ihrer jüngsten Schöpfung namens GPT-4 hält die Firma Details zur Architektur, Hardware oder zu den Trainingsdaten weitgehend geheim. Und zwar – so schreibt es das Unternehmen selbst – aus Sicherheitsgründen.