Archiv

Roboterjournalismus
Maschinen ohne Moral

Meldungen werden von Robotern geschrieben - das passiert heute jeden Tag, milliardenfach, nicht nur in den USA, sondern auch in Deutschland. Doch was sind die Folgen, wenn Maschinen für Menschen schreiben?

Von Philip Banse |
    Zwei Roboter, fotografiert auf der Roboter Messe Hamburg. Einer hält ein Mikrofon in der Hand.
    Zwei Roboter, fotografiert auf der Roboter Messe Hamburg - neue Kollegen beim Deutschlandradio? (Deutschlandradio.de/A. Schröder)
    "Spannung bis zum Schluss: Revolverheld holen sich den Titel!" Geschrieben wurde diese Meldung von Software, Software, die Saim Alkan entwickelt hat mit seiner Stuttgarter Firma Aexea. Auf dem Frankfurter Tag des Online-Journalismus sagte er:
    "Die Maschine schafft es, 90 Millionen Texte am Tag zu produzieren. Wir haben eine Analyse bei einer überregionalen Tageszeitung gemacht. Wir können heute unserer Meinung nach mit dem Datenbestand, den es gibt 50 Prozent einer überregionalen Tageszeitung standardisiert wiedergeben."
    Standardisiert heißt, aufwändige Software schreibt Texte, in Sekunden und vollautomatisch. Aexea verkauft seine Journalismus-Roboter etwa an den in Deutschland allgegenwärtigen Sport-Informationsdienst. Das Prinzip ist immer gleich: Die Software-Roboter sammeln Daten, analysiert die Daten, suchen in Datenbanken nach Worten, Metaphern, Textbausteinen und generieren einen Text. Das ist nicht trivial, aber Journalistenroboter generieren heute Milliarden von Texten jedes Jahr. Zum Beispiel Fernsehtipps.
    "Nehmen wir mal einen Film 1937 in Schwarzweiß gedreht, ein Oscar-Preisträger dabei, eine ganz berühmte Schauspielerin. Ich lese in der Datenbank: Wurde bisher 118 Mal wiederholt in der ARD, 600 Mal im ZDF. Dann kann ich davon sprechen: Der beliebte Filmklassiker von 1937, in Schwarzweiß gedreht, mit dem Oscarpreisträger Humphrey Bogart in der Hauptrolle - viel Spaß bei Casablanca. Und kein Mensch muss mehr TV-Texte schreiben."
    "Wetterberichte, Verkehrsmeldungen, Sportberichte - wenn ein Geschehen Daten hinterlässt, kann Software einen Text darüber schreiben, der sich nicht von menschlichen Texten unterscheidet",sagt Robbie Allen dem US-Sender NPR. Seine Firma Automated Insights verkauft den Text-Roboter Wordsmith und erstelle pro Jahr über eine Milliarde Texte."
    Standard-Produkt der Journalistenroboter sind Berichte von Sportveranstaltungen, wo klamme Lokalzeitungen keine Reporter mehr hinschicken. Außerdem Finanzberichte. Für Yahoo, Business Insider und die Nachrichtenagentur Associated Press erstellt die Software Wordsmith Zusammenfassungen von datengeschwängerten Quartalsberichten - automatisiert und in Sekunden. Früher schrieben AP-Journalisten pro Quartal 300 solcher Berichte, die Software generiert jetzt 3.000, zum Beispiel diesen:
    Roboter können nicht politisch kommentieren
    "Macy's meldete am Mittwoch im dritten Quartal einen Nettogewinn 118 Millionen. Pro Aktie, sei das ein Gewinn von 56 Cents, sagte die in Cincinnati ansässige Firma. Die Ergebnisse übertrafen die Erwartungen der Wall Street. Im Durchschnitt hatten acht Analysten, die von Zacks Investment Research befragt wurden, 54 Cents pro Aktie erwartet."
    "Und dazu brauchen wir einfach Datenquellen. Es geht nichts ohne Daten."
    Und so können die Text-Roboter heute keine emotionalen Reportagen schreiben, keine humorvollen Geschichten oder politischen Kommentare zur Frage, ob Bundespräsident Gauck eine zweite Amtszeit anstreben sollte.
    "Das muss ein Politik-Kommentator machen."
    Associated Press behauptet, die Text-Roboter, die 3000 Finanzberichte raus hauen, sei kein Journalist entlassen worden. Die Menschen hätten mehr Zeit, sich um investigative und komplexere Geschichten zu kümmern, sagt AP´s Wirtschaftsredakteurin Philana Patterson:
    "Ein Beispiel in diesem Quartal waren der Apple-Umsatz. Wir hatten sofort die automatisierte Geschichte mit den wichtigsten Fakten und unser Reporter konnte eine vielschichtige Geschichte schreiben darüber, wie sich sich iPhones verkauften."
    Außerdem würden Roboter-Journalisten weniger faktische Fehler machen als Menschen, behaupten die Hersteller der Roboter-Journalisten. Kaum ein Experte bezweifelt: Die Automatisierung wird auch vor Reaktionen nicht halt machen. Die Öffentlichkeit wird mehr und mehr von Software informiert werden, vollautomatisch. Facebook bietet heute schon einen Vorgeschmack: Längst sehen wir dort nicht mehr alle Posts unserer Freunde. Welche Geschichten, Videos, Fotos wir sehen, entscheidet Facebook nach geheimen Regeln, so genannten Algorithmen. Wenn solche Algorithmen jetzt auch mehr und mehr die Texte selbst verfassen, stellten sich wichtige ethische Fragen, schreibt Tom Kent, bei Associated Press zuständig für ethische Standards.
    Schreiben Maschinen für Maschinen?
    Zentral sei, dass Journalisten immer wüssten, woher ihre Roboter-Kollegen ihre Daten holen; außerdem müssten journalistische Abwägungen in die Algorithmen programmiert werden: Wie werden die Geschichten zusammengesetzt? Was wird als wichtig dargestellt? Welche Fakten werden weggelassen? Wird die Hautfarbe eines Mörders groß raus gestellt, gar in der Überschrift verwendet? Journalisten müssten die Algorithmen ihrer Roboter-Kollegen verstehen und dauernd überprüfen, fordert der Journalismus-Professor Lucas Graves von der Universität Wisconsin-Madison.
    Zudem sei es ein Muss, dass Medien die Algorithmen ihrer Text-Roboter veröffentlichen. AP-Mann Kent geht weiter: Medien müssten die Datenquellen veröffentlichen, verlinken und erklären, nach welchen Regeln die Roboterjournalisten aus Daten Geschichten stricken, wie also die Algorithmen funktionieren. Dass die Branche sich mit diesen Überlegungen nicht zu viel Zeit lassen sollte, zeigte Saim Alkan von der Firma Aexea. Theoretisch könnte er seine Journalismus-Roboter so programmieren, dass sie bestimmte Firmen besonders positiv darstellen. Diese Texte würden dann von Text-Robotern bei Banken ausgewertet und für automatisierte Aktienkäufe genutzt.
    "Schreiben jetzt Maschinen für Maschinen und beeinflussen Maschinen die Kurse? Das ist tatsächlich eine Gefahr. Und so lange ich Vorstand dieser Firma bin habe ich nicht vor, genau diese Dinge zu tun. Und wir haben auch schon Aufträge abgelehnt, wo es nicht um Finanznachrichten ging, sondern um das Schreiben gefälschter Produkttests. Das haben wir ablehnt. Wir sehen uns nicht als reiner Technologieanbieter, sondern wir versuchen auch Fragen des Pressekodex oder der Moral zu berücksichtigen, wenn wir solche Projekte angehen."