Archiv

Künstliche Intelligenz
Facebook will das Verhalten seiner Mitglieder berechnen

Irgendwie klingt es nach Science-Fiction: Computer von Facebook sollen einmal herausfinden können, was die Nutzer des sozialen Netzwerks gerade denken. IT-Journalist Peter Welchering erläutert im Gespräch die Hintergründe.

    Manfred Kloiber: Facebook-Chef Mark Zuckerberg will ein neues Forschungslabor einrichten – und er nimmt dafür viel Geld in die Hand. In New York, London und Menlo Park soll Computern eine ganz besondere Form des Lernens beigebracht werden. Sie sollen nämlich konkret lernen, aus den Facebook-Datenmengen herauszubekommen, was die Menschen an den Rechnern gerade denken. Was genau ist da geplant, Peter Welchering?
    Peter Welchering: Mark Zuckerberg hat sich die führenden Köpfe einer Forschungsrichtung eingekauft, die sich Deep Learning nennt. Und das ist ein Bereich der Künstlichen-Intelligenz-Forschung. Da werden quasi Funktionen des menschlichen Gehirns simuliert, um Daten zu analysieren. Und der Hintergrund dieses Einkaufs liegt einfach darin, dass aus den vielen Posts auf Facebook, die da jeden Tag zusammenkommen, besser herausgefunden werden soll, was Internetnutzer eben gerade denken, welche Ziele sie haben, was sie sich wünschen, was sie wollen. Denn an diesen Daten sind viele interessiert.
    Kloiber: Das wird ja bisher mit den sogenannten Big-Data-Analysen auch schon gemacht. Was ist denn beim Deep Learning anders?
    Welchering: Der Ansatz unterscheidet sich und es geht weiter. Denn bei Big Data werden ja einfach statistisch signifikante Korrelationen hergestellt, die sogenannten Inferenzen. Und das sind Wahrscheinlichkeitsberechnungen. Das nutzen beispielsweise Banken, etwa um die Kreditwürdigkeit eines Kunden zu berechnen. Beispielsweise werden ja Twitter-Tweets für das Scoring für die Berechnung herangezogen. Wenn ich da etwa twittern würde, dass ich meinen Chef nicht mag, würde meine Kreditwürdigkeit sinken, weil die Wahrscheinlichkeit steigt, dass ich meinen Arbeitsplatz verliere. Und das beruht auf zwei Voraussetzungen – diese Analyse bei Big Data. Nämlich auf einem ähnlichen Verhalten von Menschen, die bereits in ähnlichen Situationen waren. Das heißt, wir haben es da immer mit der Vergangenheit zu tun, aus der Profile, aus der Muster erstellt werden. Und es beruht darauf, dass die Wahrscheinlichkeit, dass sich dieser Mensch dann auch so verhält, wie sich andere Menschen in der Vergangenheit verhalten haben, auch berechnet werden kann. Und das kann eben statistisch berechnet werden. Aber das reicht zum Beispiel den Geheimdiensten nicht. Deshalb werden beim Deep Learning menschliche Assoziationen mitverrechnet.
    Kloiber: Und welche Assoziationen sind das und was machen die Algorithmen mit diesen Assoziationen?
    Welchering: Das sind zunächst mal Ähnlichkeitsmuster. Insofern unterscheidet sich das auf den ersten Blick gar nicht so stark von diesen statistischen Wahrscheinlichkeiten. Aber hier werden die Ähnlichkeitsmuster gleich wieder abgewandelt, beim Deep Learning. Ein Beispiel, etwa die National Security Agency, hat etwa das Kommunikationsverhalten von Terroristen ausgewertet und davon Profile erstellt. Und wer diesem Profil entspricht, wer sich also in der Kommunikation, übers Web, über Mobilfunk ähnlich verhält wie Terroristen sich in der Vergangenheit verhalten haben, der ist dann verdächtig. Aber das führte zu recht hohen Fehlerquoten, weil sich andere Menschengruppen auch ähnlich verhalten. Wenn der Mensch aber assoziiert, dann vergleicht er eben nicht nur mit der Vergangenheit, sondern er nimmt auch Muster aus der Vergangenheit auf und assoziiert neue Elemente hinzu. Etwa erfahrene FBI-Fahnder kennen Muster vom Amokläufern aus der Vergangenheit. Aber wenn sie einen Menschen sehen, kommen nicht sofort diese Muster zur Anwendung, sondern erst, wenn sie bestimmte Zeichen erkennen. Und dann bleiben sie auch nicht bei diesen Verhaltensmustern aus der Vergangenheit – zum Beispiel ein Muster: Amokläufer haben in der Vergangenheit immer gerne Computerspiele gespielt. Sondern diese FBI-Fahnder assoziieren dann das Verhalten aus ganz anderen Verhaltensmustern hinzu. Und wenn ihnen das einleuchtet, dann nehmen sie eben das als Wissen, ob da jemand vor einem Amoklauf steht oder nicht. Und dieses Einleuchten ist aber nicht nur einen statistische Wahrscheinlichkeit, die die Menschen berechnen, sondern es geht weit darüber hinaus. Und das wird dann in solche Fragen mit hereingerechnet: Wie würde ich mich verhalten? Was denkt dieser Mensch gerade? Habe ich ähnliche Verhalten? Kann ich mich sogar in diesen Menschen hineinversetzen? Und diese ersten Antworten sind dann Assoziationen, die eben aus ganz anderen Bereichen kommen – und die verdichten sich dann blitzschnell, wenn Menschen denken, also wenn die Synapsen so richtig feuern und dadurch genau diese Assoziationen hervorbringen.
    Kloiber: Bilden dann die Algorithmen das Feuern der Synapsen irgendwie ab?
    Welchering: Das war im ersten Stadium der Human-Brain-Forschung tatsächlich so. Da sind Hirnfunktionen mit Supercomputern simuliert worden. Und da ist sogar eigene Hardware gebaut worden – künstliche Synapsen, die auch gefeuert haben. Und dann hat man versucht, das in Software zu fassen. Beim Deep Learning geht man da noch einen Schritt weiter. Man bildet das Feuern der Synapsen in sogenannten Matrizenfunktionen ab. Das heißt, man arbeitet da mit Entscheidungstabellen und mit Wahrheitsvariablen. Da geht es also nicht nur um statistische Wahrscheinlichkeiten, sondern es geht um assoziative Wahrheiten. Also um Ähnlichkeiten, die aber an ganz, ganz vielen Stellen abgewandelt werden. Und dann werden sie mit tausenden Varianten durchprobiert und durchgerechnet. Und die Software, die das genauso macht wie das menschliche Gehirn, die will eben Facebook in seinem neuen Forschungslabor entwickeln. Und da kommt es wesentlich darauf an, dass man eben diese Assoziationen regelrecht verrechnen kann. Aber dafür brauche ich ein neues, fehlertolerantes Rechenverfahren. Und genau das soll in diesem Forschungslabor in den nächsten Jahren entstehen.