
Ein neues Forschungsteam solle die Sicherheit für die Menschheit gewährleisten, kündigte das Unternehmen an. Derzeit gebe es keine Möglichkeit, eine potenziell superintelligente KI zu steuern oder zu verhindern, dass sie eigene Wege gehe. Dies könne letztendlich zu einer Entmachtung oder sogar zum Aussterben der Menschheit führen, heißt es in einem Blogbeitrag von OpenAI. KI-Systeme, die intelligenter seien als Menschen, könnten noch in diesem Jahrzehnt verwirklicht werden. Der Mensch werde bessere Techniken benötigen als zurzeit zur Verfügung stehen, um die Kontrolle zu behalten.
Im März hatten Fachleute einen offenen Brief unterzeichnet, in dem sie auf mögliche Risiken von KI für die Gesellschaft hinwiesen. Sie forderten eine sechsmonatige Pause bei der Entwicklung solcher Systeme.
Diese Nachricht wurde am 06.07.2023 im Programm Deutschlandfunk gesendet.