Die Stellungnahme, die mehrere hundert Wissenschaftler und Führungskräfte unterzeichneten, umfasst nur einen Satz: "Das Risiko einer Vernichtung durch KI zu verringern, sollte eine globale Priorität neben anderen Risiken gesellschaftlichen Ausmaßes sein, wie etwa Pandemien und Atomkrieg." Der Aufruf wurde von dem gemeinnützigen Center for AI Safety (CAIS) veröffentlicht.
Führende Experten warnen davor, die Risiken Künstlicher Intelligenz zu unterschätzen. Sie bewerten die Gefahren durch KI ähnlich hoch wie bei Pandemien oder einem Atomkrieg.
Nicht die erste Warnung
Die Warnung kommt zwei Monate, nachdem das "Future of Life Institute" (FLI) einen ähnlichen offenen Brief initiert hat, der unter anderem von dem Unternehmer Elon Musk unterzeichnet wurde. Die Gruppe forderte eine Pause in der KI-Forschung, um Risiken für die Menschheit zu vermeiden.
Politik und Wirtschaft ringen um Regulierung
Im schwedischen Lulea sind heute Spitzenbeamte der USA und der Europäischen Union zu einem zweitägen Treffen des Ministertreffen des Handels- und Technologierates (TTC) zusammengekommen. Dabei soll auch über Künstliche Intelligenz und andere Zukunftstechnologien beraten werden. An den Gesprächen nehmen US-Außenminister Blinken und die Vizepräsidentin der Europäischen Kommission, Vestager, teil.
Wie die Nachrichtenagentur Reuters unter Berufung auf einen Entwurf für eine gemeinsame Erklärung berichtet, soll die Zusammenarbeit bei der Festlegung von Mindeststandards für generative KI-Algorithmen wie ChatGPT thematisiert werden.
Diese Nachricht wurde am 01.06.2023 im Programm Deutschlandfunk gesendet.