Archiv


Big Data: Das Warten auf den großen Profit

Unter dem Motto "Impulse für Ihr Business" hat der Branchenverband BITKOM nach Bonn eingeladen, um Unternehmen das Prinzip Big Data schmackhaft zu machen. Zwar soll die schnelle Auswertung großer Datenmengen in vielen Branchen das Geschäft ankurbeln, besonders aber der Mittelstand zeigt sich skeptisch.

Von Keywan Tonekaboni |
    Der knuddelige Elefant ist omnipräsent. Das Stofftier-Maskottchen der Open-Source-Software Hadoop verweilt den ganzen Tag auf dem Podium. Und auch in fast jedem Vortrag wird Hadoop als das Big-Data-Framework erwähnt - mal als günstige Speicherlösung gelobt, mal als zu langsam für die Echtzeitanalyse gescholten. Aber um Technologien sollte es auf dem Big Data Summit eigentlich nicht gehen, sondern um Lösungen.

    Doch der deutsche Datenschutz erschwere die rasche Umsetzung, wenn sensible, persönliche Daten im Spiel sind. Professor Stefan Wrobel, Leiter des Fraunhofer-Instituts Intelligente Analyse- und Informationssysteme, setzt deshalb auf Big-Data-Lösungen für die Industrie, denn Schrauben haben keine Persönlichkeitsrechte:

    "Wir haben in der Fraunhofer-Allianz Big Data von Kollegen vom Fraunhofer IOSB realisiert eine Anwendung mit einem großen Autohersteller, wo die gesamte Logistikkette vom Fließband bis zum fertigen Auto in Daten abgebildet wird, wodurch natürlich dann in der Produktion eben Stillstände vermieden werden, es werden Redundanzen vermieden bis hin zum Kunden, ich denke, dass ist eine wunderschöne Anwendung, wo man sehen kann, dass Big Data jetzt schon zur Wettbewerbsfähigkeit der Deutschen Industrie sehr stark beiträgt."

    Die Autoindustrie dient auf dem Big-Data Summit immer wieder als Leuchtturm. BMW präsentiert, wie mit Einsatz von Big Data aus dem Autohersteller ein Dienstleistungsanbieter werde. So ist das hauseigene Carsharing-Angebot mit der Echtzeitnutzung von Standortdaten flexibler als bisherige Angebote mit festen Stationen. Doch auch im Kerngeschäft, bei den verkauften Individualfahrzeugen, ist der Einsatz von Big Data-Technologien geplant. Ein Auto enthält zwischen 60 und 70 Prozessoren, die bereits heute für die Ferndiagnose abgefragt werden können. Versuchsweise verglich BMW die Daten von fehleranfälligen mit jenen von einwandfreien Autos, um so Muster und Ursachen der Probleme zu erkennen.

    Und die Sensordaten aus dem Auto wären auch für eine ganz andere Branche interessant - der Versicherungswirtschaft. Eine Police, deren Tarif sich dem eigenen Fahrverhalten anpasst? Laut Falk Lehmann von der Metafinanz, einem Dienstleister für Versicherungen und Tochterunternehmen der Allianz, war das bisher wenig erfolgreich.

    "Weil es einfach eine Bestrafung sozusagen von bestimmten Risikoprofilen ist und dann ist die Frage, warum sollte ein Kunde in einen schlechteren Tarif gehen, wo halt seine individuelle Fahrleistung Berücksichtigung findet. Weil man muss da schlichtweg immer aufpassen bei dem Produktdesign, es liegt auf der Hand: Wenn ich sozusagen meine guten Risiken billiger mache, dann muss irgendjemand anderes teurer werden."

    Abgesehen davon bleibt das Datenschutzproblem, und die Versicherungen dürfen nicht diskriminieren, auch wenn persönliche Daten einfließen. Auch hier ist der Ausweg, nicht Big-Data-Produkte für den Verbraucher anzubieten, sondern Industrieversicherungen schneller an veränderte Gegebenheiten anzupassen.

    So sollen Risiken in Echtzeit ausgewertet und Tarife ad hoc ermittelt werden. Am Rande seines Vortrags erwähnt Falk Lehmann auch die Möglichkeit, mit Daten aus sozialen Netzwerken Betrügerringe ausfindig zu machen.

    Betrug zu verhindern ist wiederum das zentrale Geschäft der Paymint AG. Gemeinsam mit Fraunhofer entwickelten sie ein System, was den Missbrauch von Kreditkartendaten eindämmen soll. Aus den vorhandenen Transaktionsdaten werden mit Big-Data-Technologien Betrugsmuster ermittelt und in Regeln umgewandelt. Stefan Kläser, Geschäftsführer der Paymint AG, sieht den Vorteil in der Verständlichkeit.

    "Jeder, der sich in der Bank oder in einem Processing-Unternehmen mit diesen Daten beschäftigt, mit dem Thema Betrug beschäftigt, kann aus den Regeln herauslesen: Wo sind gerade meine Problemfelder? Ist es Deutschland, ist es USA, sind es Tankstellen, sind es Electronicstores, ist es eben eine chipgelesene Transaktion oder ist es eine Internettransaktion? All das kann er zuverlässig aus den Daten lesen und das ist das neue im Vergleich zu älteren Technologien, wo man verstärkt auf Score-Werte setzt."

    Derzeit werden allein die Transaktionsdaten für die Erstellung der Regeln verwendet. In Zukunft aber sollen weitere Daten einfließen, auch unstrukturierte aus dem Web. Eine Internetrecherche könnte überprüfen, ob der Kauf zum Warenangebot des Händlers passt. Denn nicht nur unter den Kartennutzern befinden sich Betrüger, sondern auch bei den Händlern. Das bisherige Konzept muss also noch um die Einbeziehung einer heterogenen Datenmasse erweitert werden. Denn Big Data heißt nicht, nur mit großen Datenmengen zu agieren, sondern auch vielfältige Daten in kürzester Zeit zu durchkämmen.