Archiv

KI-Experte zu Facebooks Algorithmen
"Künstliche Intelligenz ist ein sehr mächtiges Werkzeug"

Immer mehr Verstöße gegen Facebooks Richtlinien würden mithilfe künstlicher Intelligenz aufgedeckt, sagte Joaquin Quiñonero Candela, Leiter der KI-Entwicklung bei Facebook, im Dlf. Schädliche Inhalte allein durch menschliche Gutachter aus dem Verkehr zu ziehen, wäre unmöglich.

Joaquin Quiñonero Candela im Gespräch mit Ralf Krauter |
Joaquin Quiñonero Candela, Leiter der KI-Entwicklung bei Facebook
Joaquin Quiñonero Candela, Leiter der KI-Entwicklung bei Facebook (Foto: Facebook)
Ralf Krauter: Der kalifornische Konzern Facebook hatte vergangene Woche in Berlin zu einer Diskussionsrunde geladen, wo es um den Einsatz künstlicher Intelligenz ging. Mit dabei war auch der Chef der KI-Entwicklung von Facebook. Der gebürtige Spanier, Dr. Joaquin Quiñonero Candela ist mit einer Deutschen verheiratet und hat nach Postdocs in Tübingen und Berlin und einem Zwischenstopp bei Microsoft vor sieben Jahren bei Facebook angefangen. Algorithmen fürs Maschinenlernen sind sein Spezialgebiet. Und ich habe ihn bei unserem Gespräch im Vorfeld der Veranstaltung als Erstes gefragt: Welche Rolle spielt künstliche Intelligenz heute für Facebook?
Joaquin Quiñonero Candela: Facebook, wie wir es heute kennen, gäbe es ohne künstliche Intelligenz gar nicht. KI sorgt einerseits dafür, dass die Nutzer von Facebook oder Instagram in ihrem Nachrichtenstrom keine Informationen verpassen, die ihnen wichtig sind. Andererseits verwenden wir KI bei all unseren Bemühungen, unsere Plattformen und ihre Nutzer vor möglichen Gefahren zu schützen. Unsere ganze Familie von Apps, die heute jeden Tag von 2,5 Milliarden Menschen genutzt werden, könnte ohne künstliche Intelligenz nicht existieren.
"Je mehr die KI lernt, umso bessere Entscheidungen trifft sie"
Krauter: Sie sprachen über die Filteralgorithmen, die auf Facebook und Instagram den Nachrichtenstrom an die persönlichen Vorlieben anpassen. Lernen die ständig dazu, was der Nutzer erwartet und gern sehen würde?
Candela:Ja. Und das ist interessant, wenn man weiß, dass über unsere Apps jeden Tag über eine Milliarde Nachrichten, Bilder und so weiter ausgetauscht werden. Leider verletzen manche dieser Inhalte unsere Community Standards und andere Richtlinien. Diese schädlichen Inhalte allein mithilfe menschlicher Gutachter aus dem Verkehr zu ziehen, wäre unmöglich. Das geht nur indem künstliche Intelligenz und Menschen zusammen arbeiten. Die Menschen spielen dabei eine Schlüsselrolle. Sie entscheiden letztlich und definieren die Standards von denen die Algorithmen lernen.
Mark Zuckerberg sitzt an einem Tisch in einem Raum des US-Kongresses, hinter ihm eine Gruppe von Menschen
KI-Algorithmen bei Facebook - „Es ist ein Rüstungswettlauf“
Der Videomitschnitt des Amokläufers von Christchurch ungehindert im Livestream, Hassbotschaften und Fake-News in den Timelines der Nutzer: Facebook hat ganz offensichtlich Schwierigkeiten, problematische Inhalte rechtzeitig und zuverlässig zu identifizieren. Können bessere Algorithmen helfen?
Je mehr die künstliche Intelligenz lernt, umso bessere Entscheidungen trifft sie. Der Anteil der Verstöße, die zuerst von einer KI entdeckt wurden, ist dramatisch gewachsen. Und es gibt heute schon Kategorien – etwa gefälschte Accounts oder Nacktfotos – wo 99 Prozents des Contents, den wir entfernen, vom Computer aufgespürt wurde. Das ist gut, denn es macht die Arbeit der 31.000 menschlichen Gutachter, die kritische Inhalte prüfen, viel effizienter. Es ist ähnlich wie am Flughafen: Wenn man ein System hat, das einem verrät, welche Koffer man sich genauer anschauen sollte, verschwendet man keine Zeit mit unnötigen Kontrollen.
Die Fähigkeiten unserer KI-Systeme, Sprache und multimodale Inhalte zu verstehen, die sowohl Texte, Bilder oder auch Audios enthalten, hat sich in den vergangenen sechs Monaten dramatisch verbessert. Dank Investitionen in Maschinenlerntechnologien, die wir multimodales Lernen und selbstüberwachtes Lernen nennen.
Krauter: Wie helfen diese Werkzeuge, unerwünschten Content aufzuspüren?
Candela: Einer der limitierenden Faktoren für künstliche Intelligenz ist der Mangel an kategorisierten Trainingsdaten. Wenn kleine Kinder ihre Umgebung beobachten, sind sie in der Lage, eine sehr strukturierte Repräsentation der Welt zu entwickeln. Wenn man ihnen eine Katze zeigt, sind sie in der Lage, die meisten anderen Katzen zu erkennen. Wir machen dasselbe mit Sprache – und zwar nicht nur mit einer Sprache, sondern mit vielen. Wir analysieren die semantischen Strukturen und können so Sätzen unterschiedlicher Länge und in verschiedenen Sprachen bestimmte Koordinaten in einem Vektorraum zuordnen.
Das Faszinierende dabei: Wenn man einmal so ein Koordinatensystem entwickelt hat, braucht man nicht sehr viele Trainingsdaten, um den Sinn von Inhalten zu verstehen. Und das ist extrem nützlich. Beim Verhindern von Hassbotschaften zum Beispiel haben wir es mit über 40 wichtigen Sprachen zu tun. Für einige davon haben wir nur wenige Trainingsdaten. Durch die Fähigkeit, die Struktur verschiedener Sprachen zu verstehen, können wir Klassifizierungen, die wir für eine der Hauptsprachen entwickelt haben, verwenden, um fehlende Daten bei weniger verbreiteten Sprachen zu kompensieren.
Krauter: Wie sieht’s mit Fake News aus? Die sind für KI-Systeme ja noch schwerer zu entdecken?
Candela: Definitiv. Künstliche Intelligenz ist ein sehr mächtiges Werkzeug. Aber sie macht im Grunde immer nur das, was man ihr beigebracht hat. Was Allgemeinbildung und Urteilsfähigkeit angeht, sind die Systeme noch sehr begrenzt. Beim Aufspüren von falschen Informationen oder Fake News bleibt der ‚Human Factor‘ deshalb extrem wichtig. Auch hier kann KI helfen, eine Vorauswahl von Inhalten zu treffen, die wahrscheinlich problematisch sind – damit Menschen sie dann begutachten. Aber man muss auch klar sagen: Die Verbreitung von Fake News ist eines jener Probleme, die mit künstlicher Intelligenz allein nur schwer zu lösen sind. Als jemand, der sich schon lange mit KI beschäftigt, finde ich das sehr interessant: KI zwingt uns, die menschliche Seite der Probleme in den Fokus zu nehmen.
Es ist spannend zu beobachten, wie gerade eine Menge interdisziplinärer Kooperationen zwischen Sozialwissenschaftlern und KI-Experten entstehen. Die Bestrebungen vieler Länder, Regeln für den Umgang mit künstlicher Intelligenz zu implementieren, fördern diesen Austausch. Bei Facebook etablieren wir gerade ein externes Kontrollgremium, das den Umgang mit kritischen Inhalten überwachen soll. Denn es geht da um wichtige Fragen, die Menschen beantworten müssen, nicht KI-Systeme.
"Lernende Algorithmen sind ein vielversprechendes Werkzeug"
Krauter: Kritiker sagen: Facebooks Plattformen tragen dazu bei, dass Fake News die Gesellschaft polarisieren. Könnte man zugespitzt sagen: Sie haben ein Problem verursacht, dass Sie jetzt mit künstlicher Intelligenz lösen wollen?
Candela: Das ist eine gute Frage. Ich glaube es ist wichtig, sich ins Gedächtnis zu rufen, dass künstliche Intelligenz wie jede Technologie ein Spiegel der Gesellschaft ist. Machen wir ein Gedankenspiel: Mal angenommen soziale Medien würde nicht existieren: Würden manche Diskussionen dann nicht stattfinden und bestimmte extreme Positionen nicht mehr vertreten? Ich denke, man kann diese Frage so oder so beantworten. Ich glaube aber auch, dass lernende Algorithmen ein vielversprechendes Werkzeug sind, das uns helfen kann, die richtige Balance zu finden. Auf der einen Seite wollen wir jedem eine Stimme geben – und oft funktioniert das ja auch sehr gut. Denken Sie an die #MeToo-Bewegung. Die hätte ohne soziale Medien kaum die Dynamik entfaltet, um die Gesellschaft so nachhaltig und positiv zu verändern. Auch viele Bürgerrechtsbewegungen weltweit konnten sich über soziale Medien Gehör verschaffen.
Wenn wir uns auf die Negativbeispiele fokussieren, sollten wir aufpassen, dass Kind nicht mit dem Bad auszuschütten. Es ist extrem wichtig, dass wir sowohl die Richtlinien und Regulierungen als auch die KI-Systeme so verfeinern, dass wir problematische Inhalte noch präziser dingfest machen können. Aber das muss uns gelingen, ohne wichtige Stimmen zu unterdrücken, die dank sozialer Medien zum Leben erwacht sind.
"Werden beim Identifizieren problematischer Videos immer besser"
Krauter: Aber wie kommt es, dass beispielsweise die Videos von dem Amokläufer in Christchurch tagelang auf Facebook verbreitet werden konnten? Warum kann Facebook Fotos, die eine Frau mit nackten Brüsten zeigen, so effizient aus dem Verkehr ziehen, aber nicht das Video von einem Massenmord?
Candela: Die Technologie entwickelt sich ständig weiter. Auch beim Identifizieren problematischer Videos werden wir immer besser. Bei dem konkreten Beispiel, das Sie ansprechen, war eine der großen Herausforderungen, dass sehr viele Nutzer dieses Video in modifizierter Form weiterverbreitet haben. Zum Beispiel indem sie ihren Computermonitor mit dem Smartphone aus einem schrägen Winkel filmten, eine neue Tonspur hinzufügten, oder andere Dinge veränderten. Wir hätten offensichtlich besser sein können. Allerdings will ich auch daran erinnern, dass wir im selben Jahr zwischen März und September 4,5 Millionen gewaltverherrlichende Inhalte entfernt haben, 97 Prozent davon wurden von KI entdeckt. Außerdem haben wir seitdem dramatische Fortschritte gemacht beim Aufspüren eingebetteter Inhalte. Unsere Fähigkeit, nicht nur die einzelnen Pixel eines Bildes zu vergleichen, sondern seinen Inhalt zu verstehen, wird von Monat zu Monat besser. Wir brauchen bessere Algorithmen und präzisere Richtlinien, was akzeptabel ist und was nicht. Wir arbeiten intensiv an beidem, weil das extrem wichtig ist.
"Deep Fakes sind extrem besorgniserregend"
Krauter: Facebook investiert 7,5 Millionen US-Dollar in ein Forschungsinstitut, das kürzlich an der Technischen Universität München eröffnet wurde und sich ethischen Fragen rund ums Thema künstliche Intelligenz widmet. Bei einem der ersten Projekte geht’s um ‚Deep Fakes‘, also gefälschte, aber täuschend echt wirkende Videos, wo man Leuten Dinge in den Mund legt, die sie so nie gesagt haben. Wie kann KI helfen, uns davor zu schützen?
Candela: Deep Fakes, also die Verwendung neuronaler Netzwerke, um multimediale Inhalte zu manipulieren, sind extrem besorgniserregend. Und die Wissenschaft fängt gerade erst an, sich damit zu befassen, weil es bisher keinen hochwertigen Datensatz gab, um das Problem anzugehen. Denken Sie an ‚Computer Vision‘, also die computergestützte Bildverarbeitung: Dieses Feld explodierte um 2012 förmlich und machte unglaublich schnelle Fortschritte. Der Auslöser war ein öffentlicher Datensatz, der Forscher weltweit beflügelt hat. Um bei der Detektion von Deep Fakes eine ähnliche Dynamik zu erzeugen, haben wir gemeinsam mit vielen Partnern einen Wettbewerb ins Leben gerufen. Eins der Ziele dabei: Wir wollen sehr hochwertige Datensätze generieren, die Forscher rund um den Globus verwenden können. Dazu haben über zehn Millionen US-Dollar investiert, unter anderem für Aufnahmen mit bezahlten Schauspielern.
Es gibt Grund zur Hoffnung, dass man Deep Fakes erkennen kann. Wir haben inzwischen Algorithmen, die Bildszenen verstehen können und erkennen, wo die Kamera stand und so weiter. Wenn man so eine Szene nachträglich verändert und die manipulierten Pixel nicht genau zur Dynamik der Szene passen, merken diese Algorithmen das. Aber man muss klar sagen: Das Ganze ist ein Rüstungswettlauf. Aber ich bin sehr optimistisch, dass wir mit dem mächtigen Datensatz und diesem Wettbewerb schnell Fortschritte sehen werden.
Äußerungen unserer Gesprächspartner geben deren eigene Auffassungen wieder. Der Deutschlandfunk macht sich Äußerungen seiner Gesprächspartner in Interviews und Diskussionen nicht zu eigen.