Manfred Kloiber: Bei einer öffentlichen Veranstaltung in der Facebook-Dependance in Berlin wurde am Mittwoch darüber diskutiert, wie sich solche Probleme künftig mit Hilfe künstlicher Intelligenz in den Griff bekommen lassen. Mein Kollege Ralf Krauter war dort und hatte im Vorfeld Gelegenheit, ein Interview mit dem Leiter der KI-Entwicklung, Joaquin Quinonero Candela, zu machen - was hat der Mann erzählt?
Ralf Krauter: Er hat Einblicke gegeben, woran man bei Facebook in Sachen KI gerade so arbeitet, wo man in jüngster Zeit Fortschritte erzielt hat und wo man noch große Baustellen sieht. Der gebürtige Spanier Dr. Joaquin Quinonero Candela muss es wissen, er arbeitet seit siebeneinhalb Jahren für Facebook, hat lange selbst Machine-Learning-Algorithmen entwickelt, also Algorithmen, die selbstständig dazu lernen, um ihre Aufgabe immer besser zu lösen. Seit anderthalb Jahren kümmert sich Candela jetzt ums größere Ganze. Er leitet das Team der KI-Entwickler und macht sich unter anderem Gedanken zum Stichwort "responsible AI", also "verantwortungsvolle KI", wo es auch viel um ethische Aspekte rund um künstliche Intelligenz geht.
Kloiber: Fangen wir bei dem an, was heute schon geht. Facebook nutzt ja Filteralgorithmen, um die Nachrichten auszuwählen, die die User von Facebook und Instagram in ihrer Timeline zu sehen bekommen. Was gibt es da Neues?
Krauter: Neu für mich war vor allem die Dimension von Nachrichten, die keiner zu sehen bekommen soll. Also Bilder mit pornographischem Inhalt, Hassbotschaften, Videos mit gewalttätigem Inhalt usw. Facebook veröffentlicht inzwischen alle sechs Monate einen Bericht zu diesem Thema, der jüngste kam kürzlich raus. Und da kann man zum einen nachlesen, dass die Zahl der gelöschten Inhalte stark zugenommen hat. Und zum anderen, dass diese Inhalte immer öfter automatisch aufgespürt werden, von KI-Systemen, die gelernt haben, beispielsweise nackte Haut, Fake-Accounts oder Terrorpropaganda zu erkennen. Um mal ein paar Zahlen zu nennen: Im dritten Quartal hat Facebook über 11 Millionen mal Inhalte gelöscht, die nackte Kinder zeigten oder in die Rubrik sexuelle Ausbeutung von Kindern fielen - das waren doppelt so viele wie im ersten Quartal. In der Kategorie Hassbotschaften wurden 7 Millionen Postings gelöscht – rund 80% mehr als im ersten Quartal. Und es sind vor allem die rasanten Fortschritte beim Maschinenlernen, die das möglich machen, sagt mir Joaquin Quinonero Candela am Mittwoch im Gespräch in der Facebook-Dependance am Potsdamer Platz in Berlin:
"Die Fähigkeiten unserer KI-Systeme, Sprache und multimodale Inhalte zu verstehen, die sowohl Texte und Bilder oder auch Audios enthalten, hat sich in den vergangenen sechs Monaten dramatisch verbessert. Und zwar dank Investitionen in Maschinenlern-Technologien, die wir multimodales Lernen und selbstüberwachtes Lernen nennen."
Facebook beschäftigt weltweit rund 31.000 Mitarbeiter, um Inhalte zu löschen, die gegen die Community-Standards oder gesetzliche Regelungen verstoßen. Um die schwarzen Schafe zu finden, sind diese Leute auf Künstliche Intelligenz angewiesen. Die lernfähigen Programme, die kontinuierlich trainiert werden, screenen die rund 1 Milliarde Textnachrichten, Bilder und Videos, die täglich über die Facebook-Apps ausgetauscht werden und markieren Dinge, die vermutlich nicht ok sind. Diese Inhalte schauen sich die menschlichen Gutachter dann genauer an und entfernen sie gegebenenfalls - idealerweise, bevor sie tausendfach geliked und geteilt werden.
Gewaltverherrlichende Videos automatisch erkennen
Kloiber: Das klappt aber längst nicht immer. Ein Negativbeispiel, das Facebook herbe Kritik eingebracht hat, war die Live-Videoübertragung des Attentäters, der im März in zwei Moscheen in Christchurch ein Blutbad angerichtet hat. Die Aufnahmen wurden millionenfach geteilt und kursierten danach noch Tage im Netzwerk. Wäre man heute besser gewappnet?
Krauter: Der rechtsextreme Terroranschlag in Christchurch hat Facebooks Image stark geschadet, weil die Ereignisse die unbequeme Frage aufwarfen, ob man nicht viel genauer kontrollieren müsste, wer da welche Inhalte hochlädt und verbreitet. Ob man heute besser gewappnet wäre? Die Verantwortlichen versuchen auf jeden Fall den Eindruck zu vermitteln. Joaquin Quinonero Candela erklärte mir in Berlin, man habe auch bei den KI-Systemen, die gewaltverherrlichende Videosequenzen automatisch erkennen, große Fortschritte gemacht:
"Die Technologie entwickelt sich ständig weiter. Auch beim Identifizieren problematischer Videos werden wir immer besser. Bei dem konkreten Beispiel, das Sie ansprechen, war eine der Herausforderungen, dass sehr viele Nutzer dieses Video in modifizierter Form weiterverbreitet haben. Zum Beispiel indem sie ihren Computermonitor mit dem Smartphone aus einem schrägen Winkel aufnahmen, eine neue Tonspur hinzufügten, oder andere Dinge veränderten. Wir hätten offensichtlich besser sein können. Allerdings will ich auch daran erinnern, dass wir zwischen März und September 4,5 Millionen gewaltverherrlichende Inhalte entfernt haben, 97% davon wurden von KI entdeckt. Außerdem haben wir seitdem dramatische Fortschritte gemacht. Unsere Fähigkeit, nicht nur die einzelnen Pixel eines Bildes zu vergleichen, sondern seinen Inhalt zu verstehen, wird von Monat zu Monat besser. Wir brauchen flexiblere und bessere Algorithmen und genauere Richtlinien, was akzeptabel ist und was nicht. Wir arbeiten intensiv an beidem, weil das extrem wichtig ist."
Wettlauf mit den Erstellern problematischer Inhalte
Wie gut die KI-Systeme zum Aufspüren von Terrorpropaganda und Gewaltszenen heute tatsächlich sind und wie viel ihnen doch noch durch die Lappen geht, ist allerdings schwer abzuschätzen. Und Fakt ist natürlich auch: Es handelt sich um eine Art Rüstungswettlauf. Weil: Die Leute, die solche Inhalte verbreiten wollen, die lernen natürlich auch ständig dazu.
Was natürlich die Frage aufwirft: Können soziale Medien wie Facebook die Büchse der Pandora wieder schließen, die sie aufgemacht haben, als sie jedem die Möglichkeit eröffneten, weltweit ein Millionenpublikum zu erreichen?
Kloiber: Wie lautet ihre Antwort?
Krauter: Ich persönlich bin da zunehmend skeptisch. Aber die Entwickler bei Facebook, die sind natürlich optimistischer. Die Kernbotschaft, die da in Berlin vermittelt werden sollte, war: Wir stellen uns unserer Verantwortung, wir sind uns der Probleme und Herausforderungen bewusst und arbeiten intensiv daran, Lösungen zu finden. Und dank der Fortschritte auf dem Gebiet des Maschinenlernens machen wir da auch rasche Fortschritte.
Beim Kampf gegen Hassbotschaften im Netz zum Beispiel wähnt man sich bei Facebook auf einem guten Weg - dank verbesserter Algorithmen, die den Inhalt von Textnachrichten und Bildern teils schon wirklich verstehen können, statt nur nach Schlagwörtern zu suchen. Das erhöht die Erkennungsrate und Treffsicherheit.
Erkennen von Fake News fällt KI schwer
Beim Kampf gegen die Flut von Falschmeldungen und Fake-News, die im Internet verbreitet werden, sieht es allerdings schlecht aus. Da ist KI bislang eher ein stumpfes Schwert - und dem KI-Entwicklungsleiter zufolge, wird das auch noch länger so bleiben:
"Künstliche Intelligenz ist ein sehr mächtiges Werkzeug. Aber sie tut im Grunde immer nur das, was man ihr beigebracht hat. Was Allgemeinbildung und Urteilsfähigkeit angeht, sind die Systeme noch sehr begrenzt. Beim Aufspüren von falschen Informationen oder Fake News bleibt der ‚Human Factor‘ deshalb extrem wichtig. Auch hier kann KI helfen, eine Vorauswahl von Inhalten zu treffen, die wahrscheinlich problematisch sind – damit Menschen sie dann begutachten. Aber man muss auch klar sagen: Die Verbreitung von Fake News ist eines jener Probleme, die mit künstlicher Intelligenz allein nur schwer zu lösen sind."
Freifahrtschein für politische Werbung
Da hat Joaquin Quinonero Candela sicher Recht. Allerdings zeigt das Beispiel Fake News auch, in welchem Dilemma Facebook letztlich steckt. Ihr Geld verdient die Firma ja unter anderem mit passgenauen Werbeanzeigen, die man Usern im Auftrag zahlender Kunden einblendet. Und wenn man dafür bezahlt, kann man bei Facebook bis heute mehr oder weniger alles behaupten. So geschehen kürzlich beispielsweise in einem Video, in dem Unterstützer von Donald Trump dessen Konkurrenten Joe Biden vorwarfen, er sei korrupt – ohne irgendeinen Beleg anzuführen.
Facebook-Chef Mark Zuckerberg hat kürzlich entschieden: Das ist ok. Bezahlte politische Werbung muss auch dann nicht von der Plattform entfernt werden, wenn sie nachweislich falsche Informationen enthält. Und wenn man das im Hinterkopf hat, stellt sich natürlich die Frage: Wie ernst ist es Facebook tatsächlich damit, gegen die Verbreitung von Fake News vorzugehen? Als Joaquin Quinonero Candela in Berlin auf die umstrittene Entscheidung von Mark Zuckerberg angesprochen wurde, sagte er übrigens nur: Kein Kommentar.
Europa für KI-Entwickler wenig attraktiv
Kloiber: Abschließend gefragt: Wie schätzt der KI-Entwicklungschef von Facebook die Situation der KI-Forschung in Deutschland und Europa ein?
Joaquin Quinonero Candela ist mit einer Deutschen verheiratet. Er hat als Postdoc mehrere Jahre in Deutschland gearbeitet - am Max-Planck-Institut für biologische Kybernetik in Tübingen und an der TU Berlin – und hat deshalb einen guten Überblick. Seine Einschätzung ist eher ernüchternd. Auf Augenhöhe mit den USA und China sei man in Europa schon lange nicht mehr. Anderswo werden um Größenordnungen höhere Summen in die Forschung und Entwicklung im Bereich KI investiert, die Gehälter für Top-Leute sind deutlich höher, sodass Europa da als Standort gerade schlicht nicht besonders attraktiv sei.
Gleichwohl hat Facebook ja kürzlich erst 7,5 Millionen Euro locker gemacht, für ein neues Forschungsinstitut für die ethischen Aspekte künstlicher Intelligenz, das im Oktober an der TU München eröffnet wurde. Also beim Stichwort "responsible AI", "verantwortliche KI", da kann und sollte Deutschland und Europa dann vielleicht doch noch ein Wörtchen mitreden.