Bis zu anderthalb Stunden brauchte die Redaktion des Duisburger Regionalsenders Studio 47 früher, um einen kurzen Nachrichtenfilm zu produzieren – texten, Bilder suchen und schneiden, einsprechen. Heute sind es nur noch zehn Minuten. Die Software BotCast benötigt nur ein paar Notizen und Bilder, um daraus ein fertiges Nachrichtenvideo zu produzieren.
KI verschafft Redaktion mehr Zeit für Recherche
Ihre Technologie basiert auf sogenannter Künstlicher Intelligenz (KI) – also auf Algorithmen, die datenbasierte Entscheidungen treffen. Kontrolliert wird das Ergebnis aber immer noch von einem Journalisten oder einer Journalistin. Die hätten durch die technische Unterstützung mehr Zeit für aufwändige Recherchen oder Interviewvorbereitung, sagte der Geschäftsführer des Senders,
Sascha Devigne
, dem Deutschlandfunk.
Die Medienethikerin
Jessica Heesen
von der Uni Tübingen fordert eine Kennzeichnungspflicht für alle journalistischen Inhalte, die von KI erzeugt wurden: „Das kann man ja durch eine kurze Einblendung machen zum Beispiel. Oder ein Symbolzeichen, das vorher erläutert wurde und allen klar ist. Es muss auf alle Fälle einfach verständlich sein, dass es ein KI-generierter Inhalte ist, um letztendlich nicht Vertrauen zu verspielen in den Journalismus.“
KI-Inhalte sorgen für Klicks
Erst vor Kurzem wurde bekannt, dass ein US-amerikanisches Technikportal mehr als 70 Artikel von KI hatte verfassen lassen – ohne die Texte entsprechend zu kennzeichnen. Auf CNET gab es Themen zu lesen wie „Wie vermeidet man es, sein Konto zu überziehen“ oder „Was sind Alternativen zu Sparkonten“.
Das Geschäftsziel sei die Suchmaschinenoptimierung, sagte der Dortmunder Medienökonom
Frank Lobigs
dem Deutschlandfunk. Es gehe darum, „Texte zu formulieren, die dann hinterher in der Suchmaschine bei bestimmten Suchwörtern hochranken. Auf der Seite, die dann ausgespielt wird, gibt es dann sehr viel Werbung für Kreditkarten. Und wenn dann ein Nutzer hier einen Kreditkartenabschluss macht, dann bringt das dem Unternehmen einen großen Betrag.“
Falschaussagen inklusive
Abseits von KI-generierten Texten: Es gebe auch andere Anwendungsfälle, in denen KI für Qualitätsjournalismus eingesetzt werden könne, sagt
Markus Kaiser
, Medienwissenschaftler an der Technischen Hochschule in Nürnberg, zum Beispiel bei der Recherche oder Verifikation von Material oder beim Erstellen von Symbolbildern. „Hier ist natürlich die künstliche Intelligenz so schlau, wie das Datenmaterial, das es gibt“, sagte Kaiser im Deutschlandfunk.
Darauf weist auch die Wissenschaftsjournalistin
Eva Wolfangel
hin. Die viel diskutierte KI-Software GPT-3 vom Anbieter OpenAI zum Beispiel trage Inhalte sehr selbstbewusst vor, die Aussagen in den Texten seien aber nicht unbedingt wahr. Denn das System lerne aus Millionen Trainingsdaten, habe dabei aber keinen Maßstab für Wahrheit – es könne nicht zwischen Fakt und Fiktion unterscheiden. Sie mache sich deshalb auch keine Sorgen um ihren Job, sagte die Journalistin im Deutschlandfunk.
Personalisierte Nachrichten könnten Massenmedien ablösen
Einen Selbstversuch startete der Deutschlandradio-Journalist Christian Conradi, der einen ganzen Podcast von KI-Software entwerfen und von automatisch generierten Stimmen einsprechen ließ. Das große Potential von KI-generierten Inhalten sei, dass man mit der Software dahinter interagieren könne. „Dann wird es tatsächlich spannend – wenn diese Sprachassistenten sich weiterentwickeln, diese ganzen Technologien, die gerade entstehen, integriert werden und dann auch die Medienproduktion übernehmen", sagte Conradi bei Deutschlandfunk Kultur.
Dann könne jeder und jede basierend auf eigenen Interessen personalisierte Inhalte produziert bekommen, zum Beispiel Nachrichtenstücke, zusammengestellt in Echtzeit nach dem eigenen Geschmack – ein Abschied von den klassischen Massenmedien. „Das klingt gar nicht mehr so viel nach Zukunft, wie man sich vielleicht denkt“, sagte Conradi.