Hacker sagte im Deutschlandfunk, es bestünden immer gewisse Risiken, wenn neue Technologien entwickelt würden. Umso wichtiger sei Transparenz. Dies zeige sich am Beispiel "ChatGPT". Das KI-Programm hatte in den vergangenen Monaten damit beeindruckt, wie gut die Software menschliche Sprache imitieren kann. Zugleich gibt es Sorgen, dass solche Technik zum Beispiel für die Verbreitung falscher Informationen missbraucht werden könnte.
Unklare Verarbeitung von Nutzerdaten
Es sei nicht klar, wie der US-Hersteller OpenAI Nutzerdaten verareite, betonte der Experte. Auch die Qualität der verwendeten Daten und der Datenschutz spielten eine große Rolle. Zudem gehe es um Fragen wie "Content-Moderation". Darunter versteht man die Kontrolle, Bewertung und Kategorisierung von Inhalten im Internet. All dies müsse in der Debatte um den Nutzen von KI und bei der weiteren Entwicklung berücksichtigt werden, verlangte Hacker.
Suizidfall in Belgien
In Belgien hatte sich Berichten zufolge ein Familienvater das Leben genommen, nachdem er sich wochenlang mit einem KI-Chatbot über den Klimawandel ausgetauscht hatte. Hacker erklärte dazu, anders als die neuesten Versionen von "ChatGPT" verfüge das entsprechende System nicht über eine Funktion der Inhaltskontrolle. Dieser Vorfall mache deutlich, wie wichtig "Content-Moderation" sei.
Hacker: Forderung nach Moratorium bei KI-Entwicklung überzogen
Professor Hacker, der sich unter anderem mit Recht und Ethik der digitalen Gesellschaft beschäftigt, kritisiert die Forderung nach einem Moratorium bei der Entwicklung leistungsstarker neuer Tools der Künstlichen Intelligenz. "Die in dem entsprechenden Brief dargestellten Szenarien, wonach Roboter die Weltherschaft übernehmen könnten, sind doch reichlich weit hergeholt", meinte Hacker. Das sei Alarmismus und lenke die Diskussion von den eigentlich wichtigen Punkten ab.
Die Unterzeichner wie Tesla-Chef Musk und Apple-Mitbegründer Wozniak verlangen eine Denkpause von mindestens sechs Monaten. Dieser Entwicklungs-Stopp solle der Branche Zeit geben, Sicherheitsstandards für die Entwicklung von KI festzulegen und mögliche Schäden durch die riskantesten KI-Technologien abzuwenden, hieß es.
Diese Nachricht wurde am 11.04.2023 im Programm Deutschlandfunk gesendet.