Archiv

Echt jetzt?
Die Wahrheit im Digitalen

Manche wollen unangenehme Wahrheiten vertuschen. Andere lügen, um zu betrügen, und die meisten haben wahrscheinlich einfach nur Spaß daran, Nonsens zu verbreiten. Die Flut an Fehlinformation macht sich breit im globalen Netz und droht, die Wahrheit zu ersticken. Erste Tools helfen, Authentisches herauszufiltern.

Von Thomas Reintjes |
Auf einem Haufen von Datenblättern liegen ein Taschenrechner und ein Kugelschreiber
Wissenschaft im Faktencheck (©istock/Pali Rao)
- "Katze mit zwei Gesichtern fotografiert."
- "Ukrainische Artillerie tötet zehnjähriges Mädchen in Donetsk."
"Ich glaube, es ist einfacher geworden, Informationen zu finden, die dabei helfen, die Wahrheit zu finden. Das Problem ist, dass es so viele Informationen gibt und so wenig Wissen darüber, wie man sie findet."
Jane Elizabeth vom American Press Institute, einem Think Tank in Washington, der den Journalismus verbessern will. Selbst Journalisten wüssten nicht immer, wie sie mit Informationen aus dem Internet umgehen sollten, sagt die Forscherin. "Quelle: Internet" genüge immer noch manchem als Grundlage für eine Story. Doch was im Internet steht, wird in der Masse immer unglaubwürdiger.
"Wir stellen fest, dass die Menge an Fehlinformationen und Fehlwahrnehmungen steigt und sich besonders über Social Media verbreitet. Aber obwohl wir uns in der Unterzahl fühlen, im Internet und in der Gesellschaft allgemein, müssen wir dagegen ankämpfen, bevor Fehlinformationen das Denken (sie sagt: die Psyche) von Medienkonsumenten auf der ganzen Welt übernehmen."
Fact-Checking als Gegenentwurf
Das Gegenmittel heißt Fact-Checking. Das American Press Institute bildet Journalisten darin aus, Fakten nachzurecherchieren. Forscher werden bezahlt, um verschiedene Formen des Fact-Checkings zu untersuchen. Bisher geschah Fact-Checking im Hintergrund. Vor allem Magazinredaktionen beauftragen Journalisten, um Artikel vor der Veröffentlichung noch einmal überprüfen zu lassen. Doch Fact-Checking ist auch zu einem neuen journalistischen Genre geworden.
In Deutschland hat die Fernsehsendung "hart aber fair" den Faktencheck zum Stilmittel gemacht. In den USA gibt es ihn als eigenständige Form bei verschiedenen Medien und Organisationen. Jane Elizabeth spricht auch von "accountability journalism", Kontroll-Journalismus. Während das Internet voll von Fehl- und Quatsch-Informationen ist, wünschen sich Medienkonsumenten offenbar mehr solchen Kontroll-Journalismus. Bill Adair hat deshalb 2007 die Fact-Checking-Website Politifact gegründet, die Aussagen von Politikern überprüft:
"Wir leben in einem chaotischen Informationszeitalter. Nie zuvor hatten wir Zugang zu so viel ungefilterten politischen Aussagen. Deshalb brauchen wir dringend vertrauenswürdige Informationsvermittler, die uns der Wahrheit näher bringen."
Das Problem: Fact-Checking ist zeitaufwendig und damit teuer. Genau das aber soll sich jetzt ändern.
- "Obamacare verstaatlicht die Krankenversicherung."
- "No-Spy-Abkommen zwischen Deutschland und USA geplant."
Bill Adair arbeitet an der Duke University in North Carolina mit Informatikern zusammen, um Teile des Fact-Checkings zu automatisieren. Sie haben Algorithmen entwickelt, die zum Beispiel Mitschriften von Fernsehsendungen nach Aussagen durchforsten, die einen näheren Blick wert sein könnten. Ein anderes Programm hilft bei der Auswertung. Doch das ist immer noch nicht schnell genug: Niemand wartet, bis die Fact-Checker ihre Arbeit getan haben.
"In Zukunft hätte ich Fact-Checking gerne viel schneller verfügbar. Also, wenn der Politiker sagt, Obamacare ist die Verstaatlichung der Krankenversicherung, sollte das Wort "falsch" auf dem Bildschirm erscheinen. Die Herausforderung ist, die zeitliche Lücke zu schließen zwischen der Aussage und dem Fact-Check."
Erste Versuche mit Echtzeit-Fact-Checking
Ein Werbeclip für die US-Demokraten wendet sich gegen einen republikanischen Abgeordneten. Immer wieder wird der Clip unterbrochen, Infoboxen erscheinen und ordnen das Gesagte ein. Weisen darauf hin, wo etwas irreführend oder aus dem Kontext gerissen dargestellt wird. Am Ende gibt es für den Clip vier von vier Pinocchios.
Das Video stammt aus dem TruthTeller-Projekt der Tageszeitung Washington Post. Es ist eine besonders effiziente Art von Kontrolljournalismus. Die Zeitung setzt auf Automation. Eine Software analysiert die Aussagen im Video und sieht in Wissensdatenbanken wie Politifact nach, ob diese Aussage schon einmal von Fact-Checkern geprüft wurde. Ist das der Fall, wird das Ergebnis im Video eingeblendet. In Zukunft soll das sogar nahezu in Echtzeit geschehen. Reden im US-Präsidentschaftswahlkampf 2016 könnten dann automatisch live gecheckt werden.
Politische Journalisten sind die ersten, die Fact-Checking-Werkzeuge verwenden. Sind sie ausgereift, könnten sie auch außerhalb des Journalismus Anwendung finden. Auch Google beispielsweise entwickelt Algorithmen, die Wahrheit und Lügen unterscheiden sollen. Die könnten am Ende dafür sorgen, dass Seiten, die die Wahrheit verbreiten, weiter vorne in den Suchergebnissen erscheinen.
Die Burgruine Urquhart Castle am Ufer des Loch Ness, Schottland.
Die Burgruine Urquhart Castle am Ufer des Loch Ness, Schottland: Ein Ungeheuer treibt dort Gerüchten zufolge schon lange sein Unwesen. (picture alliance / ZB / Reinhard Kaufhold)
- "Ungeheuer von Loch Ness fotografiert."
- "Ebola verbreitet sich doch über die Luft."
- "Die Erde ist 6000 Jahre alt."
Journalisten sind nicht länger Gatekeeper. Informationen verbreiten sich heute auch ohne Journalisten über das Internet. Jedes Mal stellt sich dabei von Neuem die Frage: Welchem Internetnutzer ist zu trauen? Welche Information kann als authentisch gelten? Was ist wahr?
"Authentizität ist wirklich ein schwieriger Begriff. Oder Wahrheit. Also, die würde ich gerne vermeiden. Das wird natürlich immer gerne gesagt, man will die Wahrheit haben. Aber das ist wirklich Glaubwürdigkeit hier, gefällt mir besser als Begriff."
Untersuchung von Twitter-Meldungen
Thierry Declerck vom Deutschen Forschungszentrum für Künstliche Intelligenz in Saarbrücken untersucht im EU-Forschungsprojekt Pheme vor allem die Glaubwürdigkeit von Twitterern. Twitter hat sich schon öfter als wichtige Nachrichtenquelle erwiesen und ist schneller als jede Nachrichtenagentur.
"Wir wissen aber, dass soziale Medien sehr anfällig sind für Rumors, also für Gerüchte, für Falschmeldungen. Und wir wissen auch, dass sehr viel Ideologie verbreitet wird, von Seiten zum Beispiel von gewissen politischen Parteien oder von Firmen, die Lobbying machen. Oder einfach aus Bosheit."
Das könne sogar gefährlich werden, sagt Declerck. In Konflikten könnten Falschmeldungen Anlass zu Gewalt bieten. Während des Ebola-Ausbruchs waren auf Twitter kontraproduktive Empfehlungen zu lesen, die das Pandemie-Risiko anheizten statt es zu senken. Im Projekt Pheme arbeiten unter anderem Journalisten, Informatiker und Linguisten zusammen, um Informationsflüsse auf Twitter besser zu verstehen. Ihre Algorithmen sollen Themen ausfindig machen, die Reputation eines Twitterers ermitteln und aus den Tweets Kontroversen und Widersprüche herauslesen, denen Journalisten dann nachrecherchieren können.
"Am Beginn des Prozesses haben wir das, was wir Annotation nennen. Also dass Menschen diese Datenmenge per Hand annotieren nach gewissen Kriterien, die gegeben worden sind. Also zum Beispiel, wir haben sieben Merkmale: Sind das Leute, die einen Support geben, eine Zustimmung? Sind das Leute, die eine negative Haltung haben? Ich meine Tweets. Wird dabei auch ein Hinweis auf eine externe Quelle gegeben, ja oder nein? Und so weiter."
Jetzt machen sich die Forscher an die Entwicklung von Algorithmen. Die sollen die klassifizierten Tweets möglichst genau so bewerten wie der Durchschnitt der Menschen. Ist der Algorithmus schließlich gut genug, kann er auch auf andere Tweets losgelassen werden, sie entsprechend analysieren und am Ende mit einem Punktwert für die Glaubwürdigkeit versehen. Dabei gehen die Programme nicht rein statistisch vor, sondern verstehen zum Teil auch die Inhalte der Texte. Sie können erkennen, wenn Aussagen sich widersprechen, wenn jemand eher emotional und über sich schreibt, statt Fakten zu liefern. Die Pheme-Software kann sogar einem Link folgen, der einem Tweet als Beleg beigefügt ist.
"Wir fangen jetzt auch an, Facebook anzuschauen, aber auch sogenannte Foren, gerade im medizinischen Bereich, wo die Leute ihre Erfahrungen austauschen. Das ist jetzt die nächste Zielsetzung."
Pheme bringt seine Anwender der Wahrheit näher, liefert aber nicht die Wahrheit. Das wäre zu sehr schwarz-weiß gedacht.
"Wir wollen nicht mit dem System sagen, das ist die Wahrheit. Weil das können wir keiner Maschine überlassen und auch keinem einzelnen Menschen."
Und was ist überhaupt die Wahrheit? Gibt es mehrere Wahrheiten? Und bevorzugt das EU-Projekt Pheme in der EU gültige Wahrheiten? Würde es in einem anderen Erdteil entwickelt, würde es andere Wahrheiten finden?
"Ihre Frage ist insofern ganz interessant, als dass ich mir noch keine Gedanken darüber gemacht habe. Und ich werde das auf unsere Agenda setzen."
Auf jeden Fall, sagt Thierry Declerck, gebe es in anderen Ländern andere Konversationsstrategien. Japaner sagen ungern Nein. Spanier benutzen bei Twitter mehr Hashtags. Für jede Sprache müssten die Algorithmen also neu trainiert werden, wenn sie die Glaubwürdigkeit von Tweets analysieren sollen.
Falschinformationen in klassischen Medien
Eine geringe Glaubwürdigkeit und ein lockeres Verhältnis zur Wahrheit ist natürlich nicht allein sozialen Medien vorbehalten. Auch klassische Medien verbreiten Falschinformationen.
Am 26. August 2014 sendet Fox News einen vierminütigen Beitrag über eine neu entstehende staatliche Datensammlung. Darin sollen Hassreden und Falschinformationen auf Twitter gespeichert und nachverfolgt werden, heißt es. Fast eine Million Dollar Steuergeld sei schon in das Projekt Truthy geflossen, das das Potenzial habe, die Meinungsfreiheit zu gefährden.
Wenig davon ist richtig. Ungeachtet dessen, wurden der Fox-Bericht sowie der Blog-Eintrag, auf dem er beruht, tausendfach auf Facebook und Twitter geteilt. Weitere konservative Websites griffen das Thema auf und verdrehten es weiter, bis die Kritik gar nichts mehr mit dem ursprünglichen Projekt zu tun hatte und sich persönlich gegen Projektbeteiligte richtete.
Eigentlich untersuchten Forscher der University of Indiana in Truthy, wie sich Informationen in sozialen Netzwerken ausbreiten – auch Hassreden und Falschinformationen. Mit Machine Learning wollen sie verdächtige Verbreitungsmuster erkennen, um Gerüchte schnell identifizieren zu können. Jetzt können sie ihren eigenen Fall als Untersuchungsgegenstand verwenden.
Die Silhouette eines Mannes, der mit seinem Finger auf das Wort Wikipedia zeigt, ist vor der Internetseite der Online-Enzyklopädie Wikipedia zu sehen.
Wikipedia gilt als Datengrundlage für einen Versuch des Fact-Checking. (picture alliance / dpa / Robert Schlesinge)
"Unser Forschungsprojekt wurde selbst Opfer einer Falschinformationskampagne. Es wurde behauptet, es wäre ein geheimes Regierungsprogramm, um Bürger auszuspionieren und Ähnliches. Das könnte falscher nicht sein. Aber es war auch interessant für uns und ziemlich ironisch zu sehen, wie ein Forschungsprojekt zu Fehlinformationen zum Opfer einer Fehlinformationskampagne wird."
Das ist alles, was Fil Menczer von der Universität von Indiana im Interview dazu sagen möchte. Er erinnert sich nur ungern an die Tage im Sommer 2014, als er darum rang, seine Reputation zu retten und seine Arbeit zu verteidigen. Lieber möchte er über seine Algorithmen sprechen. Ein erster Einblick, wie automatisiertes Fact-Checking einmal funktionieren könnte.
"Wir fragten uns, ob wir nicht zumindest einfache Aussagen und Behauptungen, die man im Netz findet, mit einer vertrauenswürdigen Informationsquelle abgleichen könnte, zum Beispiel mit der Wikipedia."
Die Wikipedia habe natürlich auch ihre Schwächen, gesteht Menczer, aber sie sei in etwa vergleichbar akkurat wie die Encyclopaedia Britannica. Es könnten auch andere Informationsquellen verwendet werden. Wichtig ist nur, dass das Wissen als Netzwerk dargestellt werden kann. Die Netzwerkknoten stellen Dinge, Personen, Länder, Berufe und so weiter dar. Über Prädikate, also Verben, werden sie miteinander verbunden. So findet sich in dem Netzwerk etwa die Aussage "Sokrates - war - Philosoph". Genau solche einfachen Aussagen wollen die Forscher anhand des Wissensnetzwerks belegen.
"Wenn ein Fakt in der Wikipedia steht, ist er natürlich einfach zu überprüfen. Aber oft findet man eine Aussage nicht direkt wieder. Unsere Arbeit besteht nun darin, verschiedene Fakten aus einem solchen semantischen Netzwerk zusammenzutragen, um daraus abzuschätzen, ob die gesuchte Aussage wahr ist oder nicht."
Fakten automatisch bestätigen lassen
Der Fact-Checking-Algorithmus kann also Fakten bestätigen, die gar nicht direkt in der Fakten-Datenbank enthalten sind. Um ihn zu testen, haben die Wissenschaftler Informationen aus ihrem Wikipedia-Wissensnetzwerk herausgelöscht und dann den Algorithmus danach gefragt.
"Wir haben mit recht simplen Aussagen gearbeitet, zum Beispiel haben wir versucht, herauszubekommen, ob eine bestimmte Person Regisseur eines bestimmten Films war. Diese spezifische Information war nicht in der Datenbank, aber es gab andere Informationen über die Person und andere Informationen über den Film. Und der Algorithmus hat dann eine Abschätzung geliefert. Also, wenn etwas nicht direkt auf einer Seite steht, liest man als Mensch ein paar weitere Seiten, um die Information zu finden. Und diesen Prozess haben wir versucht, zu automatisieren."
Der Algorithmus sucht im Wissensnetzwerk nach Pfaden zwischen zwei Konzepten. Behauptet man also einerseits "Steven Spielberg ist der Regisseur von Jurassic Park" und andererseits "Stanley Kubrick ist der Regisseur von Jurassic Park", dann findet der Algorithmus für beide Fälle Pfade zwischen dem Namen und dem Film, hält aber einen der Pfade für am wahrscheinlichsten - wenn es gut läuft, den mit Steven Spielberg. Steven Spielberg und Jurassic Park haben eine größere semantische Nähe, sagt Film Menczer:
"Angenommen, wir wollen die Aussage "Sylvester will Tweety fressen" überprüfen. Dann könnten wir sehen, dass Sylvester eine Katze ist und dass Katzen Vögel fressen. Und eine andere Aussage, dass Tweety ein Vogel ist. Dann hätten wir eine Verbindung. Es mag eine kürzere Verbindung geben, zum Beispiel: Sylvester ist ein Tier und Tweety ist ein Tier. Das sind weniger Schritte, aber der Pfad geht durch einen sehr allgemeinen Begriff, nämlich "Tier". Unser Algorithmus gibt dem ersten Pfad mehr Gewicht, obwohl er länger ist. Er hat eine stärkere semantische Nähe."
- "Barack Obama ist ein Moslem."
- "9/11 wurde von der CIA geplant."
- "Deutschland ist kein Staat, sondern eine GmbH."
- "Die Mondlandung wurde in Hollywood-Studios gefälscht."
Für Verschwörungstheorien finden sich zwar auch alle möglichen Pfade, aber keiner mit besonders großer semantischer Nähe. Die Forscher haben etwa nach einer Verbindung zwischen Barack Obama und Islam gesucht. Der beste Pfad führt über sehr allgemeine Netzwerkknoten wie den des Staates Kanada und der Stadt Calgary. Obama scheint also entgegen anderslautender Verschwörungstheorien kein Moslem zu sein. Können wir also in Zukunft einen Fact-Checking-Automaten in unsere Internetbrowser einbauen und die Lügen einfach herausfischen?
"Das mag etwas zu optimistisch sein. Nicht nur, weil das ein schwieriges Problem ist, sondern auch, weil das Problem schwieriger wird, wenn wir Werkzeuge dagegen entwickeln. Das ist bei E-Mail-Spam so gewesen oder zuletzt bei Social Bots. Die werden smarter, wenn wir gegen sie vorgehen. Es ist ein Wettrüsten."
Bild-Forensik als neue Disziplin
Am 9. Juli 2008 testet der Iran vier Langstreckenraketen, die angeblich bis nach Israel fliegen könnten. Parallel steigen sie in den Himmel, wie auf einem vom Regime veröffentlichten Foto zu sehen ist. Zeitungen wie die Los Angeles Times drucken es auf der Titelseite, die New York Times und die BBC platzieren es groß auf ihren Websites.
Einen Tag später ist klar: Das Bild wurde manipuliert. Das Originalfoto taucht auf und zeigt, dass eine der vier Raketen offenbar nicht funktionierte und am Boden blieb. Eine der funktionierenden Raketen war darüber kopiert worden, um den Fehlstart zu vertuschen.
"Also die hundertprozentig perfekte Bildmanipulation habe ich zumindest noch nicht gesehen und ich würde auch denken, dass das nicht ganz so einfach ist."
Matthias Kirchner hat das gefälschte Foto von den iranischen Raketen in seiner Doktorarbeit als Beispiel verwendet. Er beschäftigt sich mit Bild-Forensik, will also Bildmanipulationen aufdecken, vor allem mit Algorithmen. Die in das Bild kopierte Rakete samt Staubwolke können Computer heute leicht enttarnen. Bei genauem Hinsehen erkennt in diesem Fall zwar auch ein Mensch, dass manche Bereiche des Fotos sich verdächtig ähnlich sehen, aber andere Manipulationen sind so gut gemacht, dass sie nicht mehr wahrnehmbar sind - außer für Algorithmen. Dabei schauen auch die sich nur die Bildpunkte an, die wir mit dem Auge sehen.
"Die Idee von der Medienforensik, oder Bildforensik, wenn wir jetzt über Bilder sprechen, ist, dass wir nach Spuren suchen, die sich sozusagen in dem Bild verstecken, die man nicht zwangsläufig visuell wahrnehmen kann, sondern die sich in der Art und Weise wie sich die Pixel, Digitalbilder bestehen ja aus Pixeln, wie sich sozusagen diese Pixel im Bild verteilen und welche statistischen Eigenschaften diese Pixel haben."
Die Absturzstelle im Osten der Ukraine.
Die Absturzstelle der MH17 im Osten der Ukraine: Waren die Satellitenbilder aus Russland manipuliert, oder nicht? (afp / Alexander Khudoteply)
Jede Bearbeitung, sagt Matthias Kirchner, hinterlässt Spuren. Ob es nun eine einfache Veränderung des Kontrasts ist oder eine Vergrößerung des Bildes, oder ob es eine aufwendigere Retusche ist - spurenlos geht nichts davon. Algorithmen machen diese Spuren sichtbar und können so auf Manipulationen hinweisen. Das wichtigste Indiz ist für Kirchner, der an der Universität Binghamton im Bundesstaat New York forscht, das Rauschen.
"Jedes Bild besteht letztlich aus dem Motiv als solchem und darauf gesetzt, kann man sich vorstellen, ist noch ein Rauschsignal. Das sind Ungenauigkeiten, die einfach entstehen bei der Bildaufnahme. Man bekommt nie eine perfekte Aufnahme eines Motivs, es ist immer eine gewisse Störung dabei, ein gewisses Rauschen. Und dieses Rauschen ist relativ unabhängig vom Motiv. Und das ist dann letztlich auch das, was wir in der Forensik ausnutzen wollen."
Das Rauschen, hat Kirchners Kollegin Jessica Friedrich entdeckt, ist für jede Kamera einzigartig. Es ist eine Art Fingerabdruck der Kamera, der in jedem Bild zu finden ist. Und das dient tatsächlich regelmäßig zur Wahrheitsfindung - vor Gericht.
"Ein Beispiel, was immer verwendet wird, ist Kinderpornografie, wo eben, wenn die Kamera des Verdächtigen verwendet wurde, um bestimmtes Material aufzunehmen, ist es zumindest ein Indiz, dass der Verdächtige auch irgendwie involviert war."
Ein anderes Beispiel, in dem versucht wurde, mit Bildforensik Licht ins Dunkel zu bringen, ist der Abschuss von Flug MH17 im Juli 2014 über der Ostukraine. Das nicht-kommerzielle Rechercheteam Bellingcat untersucht Bilder des russischen Verteidigungsministeriums. Es soll sich um Luftaufnahmen ukrainischer Stellungen handeln. Doch die Bilder sind digital modifiziert worden, so Bellingcat. Das Bellingcat-Team nutzte für die Bildanalyse ein Verfahren namens Error Level Analysis, kurz ELA. Es wird kostenlos auf der Website fotoforensics.com angeboten. Viele Medien berichten vorbehaltlos über die Studie, aber der Erfinder der ELA, der Hacker Neal Krawetzm distanziert sich. Die Ergebnisse seien falsch interpretiert worden.
"Meiner Einschätzung nach, und auch viele andere Experten sagen das so, ist diese ELA, Error Level Analysis, das ist das Verfahren, ist nicht wirklich wissenschaftlich fundiert. Das heißt, man lässt dort irgendwas auf das Bild los, bekommt eine Ausgabe, aber es ist nicht wirklich klar, wie man das interpretieren kann. Es gibt keine unabhängige Studie, die wirklich zeigen würde, dass das Verfahren in irgendeiner Form verlässlich ist oder was genau man da jetzt eigentlich als Ausgabe bekommt."
Sehr viel Expertenwissen ist notwendig
Es gibt andere Verfahren, die sehr wohl wissenschaftlich fundiert sind. Doch auch da sind die Ergebnisse nicht selbsterklärend. Es ist Expertenwissen nötig, um aus den algorithmischen Analysen die richtigen Schlüsse zu ziehen. So richtig reif für die Praxis ist die Bildforensik also noch nicht – auch, weil es auf einem handelsüblichen Rechner rund eine Stunde dauert, bis ein Bild mit allen gängigen Verfahren analysiert wurde. Für Journalisten unter Zeitdruck zu lang, für Websurfer, die vor dem Retweet noch kurz zweifeln, ebenfalls. Zudem sind viele Bilder zu klein und zu stark komprimiert, um sie überhaupt sinnvoll analysieren zu können. Fast alle Spuren von Bildbearbeitung werden zerstört, wenn das Bild stark komprimiert gespeichert wird.
Doch die Forscher haben noch einen Joker in der Hand.
"Ja, das ist das große Buzzword Big Data, was auch in unserem Gebiet mehr und mehr zum Tragen kommt. Dass man sich einfach die schiere Menge von Informationen zunutze macht. Wenn ich jetzt zum Beispiel ein Bild von einer Katze analysieren möchte, dann lade ich mir eben einfach zigmillionen Katzenbilder runter und versuche sozusagen, das Typische des Katzenbildes zu extrahieren und dann dieses Wissen, was ich dann über Katzenbilder habe, kann ich dann natürlich anwenden, um mein verdächtiges Katzenbild zu analysieren und zu sagen: Nee, so eine Katze gibt es aber gar nicht. Klar, das kommt mehr und mehr und wird auch immer wichtiger werden."
Big Data könnte helfen
Was für Katzen gilt, gilt für alles Mögliche, etwa Häuser. Forscher haben die Ansichten von Hausfassaden aus Google Street View analysiert und so beispielsweise typische Unterschiede zwischen Häusern in Paris und Häusern in Prag extrahiert. Bei einem unbekannten Bild könnte der Rechner also zuordnen, ob es eher in Paris oder eher in Prag aufgenommen wurde. Die Plausibilität von Zeitangaben können Algorithmen bei Außenaufnahmen anhand von Schattenwürfen ermitteln. Das geht noch nicht vollautomatisch, aber es geht.
- "Adler raubt Kleinkind in Park."
- "Monster-Katze groß wie ein Schäferhund."
- "Neue Sorte: Ritter Sport Mett."
- "140 Jahre alte Schildkröte trägt Sohn als Hut."
Wie steht es also um die Wahrheit im Digitalen? Können wir hoffen, dass Fakten checkende Journalisten die Verbreitung von Fehlinformationen ausbremsen? Jane Elizabeth:
"Ehrlich gesagt sind Falschinformationen manchmal viel interessanter als die Wahrheit. Und es macht Spaß, das mit Freunden zu teilen. Eine unserer Studien zeigt, dass Fehlinformationen auf Twitter drei Mal präsenter sind als Anstrengungen gegen Fehlinformationen. Also 3:1, falsch gegen wahr. Und deshalb sind wir in der Unterzahl und es ist sehr schwer, dagegenzuhalten."
Oder werden Algorithmen dafür sorgen, dass wir bei jedem Informationshäppchen direkt angezeigt bekommen, was wahr und was falsch ist? Bill Adair und Film Menczer:
Adair: "Mit Automation können wir Fact-Checking unmittelbar machen. Sodass wir einen Wahrheits-Layer haben, der immer griffbereit ist. Sodass die Leute sich nicht anstrengen müssen für die Wahrheit. Sodass der Faktencheck zu ihnen kommt."
Menczer: "Ich mache mir da keine Illusionen. Wenn wir schlauere Fact-Checking-Algorithmen haben, dann werden die Fehlinformationsalgorithmen auch schlauer und es wird ein Wettrüsten geben. Die einzige Hoffnung ist, dass wir es schwierig genug machen, Fehlinformationen zu verbreiten, sodass es teuer wird. Dann gibt es einen wirtschaftlichen Nachteil."
Wettrüsten rund um die Wahrheit
Und wer gewinnt das Wettrüsten auf der visuellen Ebene? "Wer die Bilder beherrscht, beherrscht die Köpfe", hat Bill Gates einmal gesagt. Werden die Bildbearbeitungsprogramme in Zukunft die perfekte Fälschung liefern oder werden die Forensiker alles zweifelsfrei aufdecken?
Kirchner: "Da möchte ich mich jetzt nicht festlegen. Ich denke, unsere Verfahren werden besser, aber gewinnen in dem Sinne können wir schon nicht, weil es einfach zu viele Daten gibt. Die zu analysieren und was da alles hochgeladen wird ... Und zum Schluss eben auch: Mit starker Kompression haben wir immer verloren, das würde ich auch denken."
Es ist vielleicht ganz gut, dass Algorithmen sich noch etwas schwer tun mit Wahrheit und Lüge. So haben wir keine andere Wahl, als selbst wachsam und kritisch zu bleiben. Denn, so Thierry Declerck:
"Wir wissen auch, dass es eine große Tendenz gibt, dem Computer mehr Glaubwürdigkeit zu schenken als den Menschen, je nach Situation. Und ich glaube, da sollte man wirklich sehr vorsichtig sein."