KI und Konfliktlösung
ChatGPT schürt Aggression bei Konflikten in Kriegsspielen

KI-Sprachmodelle zeigen bei Szenarien in Kriegsspielen mehr Aggressivität als der Mensch, fand Forscher Max Lamparth heraus. Er fordert den militärischen Einsatz von Chatbots zu verbieten, solange bestimmte Sicherheitskriterien nicht erfüllt sind.

Reintjes, Thomas |
Kampfdrohnen schießen aufeinader in einer Illustration.
Trotz speziellem Sicherheitstraining könne man nicht ausschließen, das ChatGPT unangemessene Empfehlungen ausspreche, zum Beispiel auf unbewaffnete Zivilisten zu schießen, sagt Forscher Max Lamparth von der Stanford-Universität. (imago / Depositphotos / xleolintangx)