Mehr Chancen als Risiken

Problemfall Big Data?

07.01.2014 von Jan-Bernd Meyer
Big Data erzeugt bei vielen Menschen gemischte Gefühle. Die wirtschaftlichen Chancen liegen auf der Hand. Doch die Möglichkeiten des Missbrauchs sind ebenfalls augenscheinlich.

Als der Schuss sie traf, hatte sie keine Chance. Auf der Autobahn A3 bei Würzburg durchschlug ein Geschoss ihre Autoscheibe und traf sie am Hals. Millimeter entschieden über Leben und Tod. Ein Unbekannter hatte willkürlich auf vorbeifahrende Fahrzeuge, vorzugsweise Autotransporter, geschossen. Im Juni 2013 wurde ein 57 Jahre alter Lastwagenfahrer aus Nordrhein-Westfalen nach einer fünf Jahre dauernden Suche endlich gefasst. Gefunden wurde er dank der Sammlung, automatisierten Auswertung und Analyse von gewaltigen Datenbergen.

Foto: Anton Balazh, Fotolia.de

Prompt kritisierten Datenschützer das Vorgehen der Polizei. Es habe für die benutzte Ermittlungsmethode "keine hinreichende gesetzliche Ermächtigungsgrundlage" gegeben, kritisierte der rheinland-pfälzische Datenschutzbeauftragte Edgar Wagner. Jörg Ziercke, Präsident des Bundeskriminalamts (BKA), hingegen freute sich unverhohlen über die Festnahme: "Wir haben die berühmte Nadel im Heuhaufen gefunden."

Überwachung

Der Fall des "Autobahnschützen" ist nicht ohne Pikanterie. Das BKA nutzte nicht etwa die ohnehin vorhandenen Aufzeichnungen des LKW-Maut-Systems von Toll Collect. Stattdessen baute es sich ein eigenes System, um im ganz großen Stil Daten zu sammeln. Die Fahnder hatten an sieben relevanten Autobahnabschnitten Kameras installiert. Diese lasen die Kennzeichen sämtlicher vorbeifahrenden Automobile ein, auch die der beschossenen Kraftfahrzeuge. Im April 2013 wurden der Polizei dann innerhalb von fünf Tagen wieder Schüsse auf Lastwagen gemeldet, insgesamt sechs.

Mit den massenhaft gesammelten Autokennzeichen konnte das BKA wahrscheinliche Fahrtstrecken des Täters und mögliche Tatorte herausfiltern. Auch der Zeitraum, innerhalb dessen der Kriminelle an Kameras vorbeigefahren sein musste, ließ sich stark eingrenzen. Schließlich konnten die Ermittlungsbeamten berechnen, welche Fahrer es waren, die innerhalb einer gewissen Zeitspanne nicht nur an einer bestimmten, sondern auch an anderen Kameras vorbeifuhren.

Dilemma

Sie fanden genau einen einzigen LKW, der dafür in Frage kam. Da die BKA-Beamten zudem Fotos von den Überwachungskameras für ihre Ermittlungen heranziehen konnten, hatten sie bald einen Verdächtigen ausgemacht. Ein Abgleich von dessen Handy-Funkzelleninformationen offenbarte, dass sämtliche registrierten Daten nur auf diesen einen mutmaßlichen Täter zutrafen. Der Mann gestand nach seiner Verhaftung die Taten, die er "aus Ärger und Frust im Straßenverkehr" begangen haben will.

Der Fall beschreibt in treffender Weise das Dilemma von Big Data: Die Auswertung massenhafter Daten hat einen ambivalenten Charakter. Sie hat den Hautgout des Überwachungsstaats, der ausschnüffelnden Unternehmen und Behörden. Nicht umsonst warnte der Bundesdatenschutzbeauftragte Peter Schaar vor einigen Wochen gegenüber dpa vor "unsichtbaren Datensammlern in Smartphones, Kraftfahrzeugen und anderen Geräten, die laufend Daten generieren".

Trendthema Big Data
Von der Auswertung der riesigen Datenmengen, die täglich von IT-Systemen erfasst werden, versprechen sich Unternehmen, aber auch öffentliche Einrichtungen große Vorteile.
Vorteile von Big Data
Laut der Untersuchung von Barc erwarten sich Unternehmen von Big Data vor allem Vorteile auf strategischer Ebene. Doch das setzt voraus, dass Fachleute aus unterschiedlichen Bereichen Hand in Hand arbeiten: Business Manager, IT-Fachleute und Experten für das Sammeln und Auswerten von großen Datenbeständen.
Benno Zollner, Chief Information Officer von Fujitsu Technology Solutions
" Big Data Lösungen kombinieren Informationen aus unterschiedlichen Quellen und einer Vielzahl von Technologien. Deshalb müssen Big-Data-Fachleute interdisziplinäre Erfahrungen mitbringen."
Big Data: Wer analysiert?
Die Analyse der Daten, die im Rahmen von Big-Data-Projekten erfasst werden, erfolgt laut einer Studie von TCS vornehmlich durch die Fachabteilungen, die diese Informationen verwenden. Die IT-Abteilung spielt eine untergeordnete Rolle.
Kay Müller-Jones, Head of Global Consulting Practice bei Tata Consultancy Services:
"Neben technischen Fertigkeiten und fachlichem Wissen sollten Big-Data-Fachleute über ein hohes Maß an Fingerspitzengefühl im Umgang mit Kollegen verfügen. Denn gerade Big Data erfordert ein fachbereichsübergreifendes Denken, das Informationen aus vormals klar abgegrenzten Bereichen zusammenführt."
Big Data, die Probleme
Laut einer Studie des Marktforschungsinstituts Barc zählt fehlendes Fachwissen zu den größten Hemmnissen, mit denen sich europäische Unternehmen bei Big-Data-Projekten konfrontiert sehen.
Big Data: Wer ist zuständig?
Die Verarbeitung, das "Processing", von Big Data ist Aufgabe von IT-Fachleuten. Das können hauseigene Mitarbeiter sein, aber auch externe Spezialisten.
Analytische Infrastruktur für Big Data

Berechtigte Sorgen

Daniel Suarez, ehemaliger Softwareentwickler und Berater für US-Unternehmen, der hierzulande bekannt wurde durch Romane wie "Daemon", "Darknet" und zuletzt "Kill Decision", anwortete auf eine Frage der "Süddeutschen Zeitung" zum Thema Prism: "Ich sage das jetzt nicht als Thriller-Autor, sondern weil ich 19 Jahre lang Big-Data-Systeme konzipiert habe: Die Leute sollten sich verdammte Sorgen machen." Big Data, das zeigen Prism und Tempora, bedient all diejenigen mit Argumenten, die immer davor gewarnt haben, dass die Analyse von Massendaten Teufelszeug sei und Bürgerrechte verletze.

Problemlöser

Mit Big Data eröffnet sich aber auch die Perspektive, durch die rasante Auswertung von Datenmassen Antworten auf viele Menschheitsprobleme zu finden.

Sinnvolle Anwendungsbeispiele finden sich zuhauf. Egal ob im Gesundheitswesen, in der Verbrechensbekämpfung, in der Kalkulation von Versicherungspolicen, bei der Erforschung des Kaufverhaltens, bei der Kundenberatung etc. Egal auch, in welchen Branchen: Ob in der Automobilindustrie, der Medizin, bei der Feuerwehr, bei der Erforschung alternativer Energien oder von Wettermodellen - immer kann Big Data dazu beitragen, Unmengen von Daten sinnvoll zu ordnen, zu analysieren und Handlungsvorschläge anzubieten.

Überwachung lohnt

Versicherungen nutzen etwa sogenannte Tracking Devices wie "Snapshot", um festzuhalten, wie sich Autofahrer verhalten. In den USA bietet der Versicherer Progressive günstige Tarife an, wenn sich die Kunden bereit erklären, ihre Fahrweise via Telematiksoftware erfassen zu lassen. Wer sich darauf einlässt, dem gewährt die Versicherung bis zu 30 Prozent Prämiennachlass.

Von entscheidender Bedeutung sind Big-Data-Anwendungen für Unternehmen, die das zukünftige Kaufverhalten ihrer Kunden eruieren wollen. Zum Beispiel nutzen Großbäckereien entsprechende Analyselösungen, um das Kaufverhalten von Kunden unter besonderer Berücksichtigung von Wettereinflüssen vorherzusagen. Die in Kiel beheimatete Meteolytix GmbH hat mit der auf IBM-Technik fußenden Lösung "Meteolytix Forecast" ein Absatz-Prognosemodell entwickelt.

Was ist Big Data?
Nur 14 Prozent der Bundesbürger wissen, was mit dem Schlagwort „Big Data! gemeint ist, so hat der Bitkom herausgefunden. Experton-Advisor Carlo Velten fasst das Phänomen in fünf Thesen zusammen.
Big Data ist mehr ...
... als IT.
Eigentums- und Verwertungsrechte ...
... über Datenbestände werden zum entscheidenen Wettbewerbs- und Innovationsfaktor.
Der Markt steckt noch ...
... in den Kinderschuhen. Bis sich klar definierte Marktkategorien herausbilden, wird Jahre dauern.
In den kommenden zwei bis drei Jahren ...
... werden die Infrastrukturanbieter, die Analytics-Spezialisten und die Berater das große Geschäft machen.
Erfolg oder Misserfolg ...
... hängen nicht nur von rechtlichen Rahmenbedingungen und öffent¬lichen Investitionen, sondern auch vom vertrauensbildenden Umgang mit den Kundendaten ab.

Die Norddeutschen nutzen hierzu sowohl Wettervorhersagedaten als auch mathematische Analysen von Umsätzen aus der Vergangenheit und Informationen über weitere Sondereinflüsse. Der Ansatz beruht auf der Erkenntnis, dass Kaufentscheidungen immer auch aufgrund von Emotionen getroffen werden. Das Wetter hat hierauf einen wesentlichen Einfluss.

Die in Karlsruhe und Hamburg niedergelassene Blue Yonder GmbH & Co. KG bedient Kunden wie etwa Baur, Schwab, Heine, Sport Scheck oder die dm-Märkte und Vodafone ebenfalls mit Predictive Analytics, also der Mustererkennung und Prognosenentwicklung. Hohe Wellen schlug der Fall der Handelskette Target. Sie sandte einer jungen Kundin Prospekte zu, die auf ihr Kaufverhalten abgestimmt waren - und informierte so ungewollt ihren Vater über eine bestehende Schwangerschaft.

Gesundheitsprognosen

Besonders im Gesundheitswesen sind Big-Data-Auswertungen schon verbreitet. IBM und das Krebsforschungszentrum Heidelberg beispielsweise kooperieren bei der Analyse von Sequenzierungsdaten von Krebsgenomen. Mit Watson-Technologie durchforstet der amerikanische Versicherer Wellpoint bis zu 200 Millionen Dokumentenseiten binnen Sekunden, um dann Diagnosen und Empfehlungen für die Behandlung zu erstellen. Das kanadische Institute of Technology der University of Ontario nutzt auf seiner Frühchen-Station eine auf IBM Infosphere basierende Software, mit der ein konstanter Strom medizinischer Daten aus einer Vielzahl neuartiger Sensoren, aber auch klassischer Überwachungsgeräte ausgewertet wird. Der Zustand der Babys kann so quasi in Echtzeit analysiert werden.

Das Unternehmen Proteus Digital Health stellt sogenannte Ingestion Event Marker (IEM) her. Das sind winzig kleine integrierte Schaltkreise, die wie Vitamine oral eingenommen werden. Im Magen löst sich die Ummantelung durch die Magensäure auf, und der IEM wird aktiviert. Er sammelt Daten über Herzrhythmus, Atmung, Schlafmuster oder auch eingenommene Medikamente und deren Dosierung. Diese lassen sich mit Informationen zu Gewicht, Größe oder früheren Erkrankungen zusammenführen. Auf diese Weise entsteht ein mehr oder weniger umfassendes Gesundheitsbild eines Menschen. All diese Fakten lassen sich auf einem Smartphone visualisieren.

Wo brennt`s denn?

Ein ganz anderes Einsatzgebiet für Preditive Analytics von Massendaten findet sich bei der Feuerbrigade Amsterdam-Amstelland. Unter Einsatz einer QlikView-Lösung haben die Feuerwehrmänner Risikoprofile von 600.000 Objekten in Amsterdam (Gebäude, Straßen, Schienengleise etc.) und mögliche Konflikttypen (Hausbrand, Verkehrsunfälle, Kohlenstoffmonoxid-Vergiftungen etc.) gesammelt. Diese Daten werden mit bisherigen Ereignissen korreliert. Auf diese Weise berechnet das System Wahrscheinlichkeiten für zwölf Millionen Vorkommnisse, die die Feuerwehr ziemlich genau antizipieren kann.

Der dänische Windanlagenhersteller Vestas ist in der Lage, seinen Kunden, Energieversorgern rund um den Globus, exakt vorherzusagen, welchen Output und Ertrag ein Windpark in den nächs-ten 20 Jahren erbringen wird. Vestas berechnet auch die optimale Platzierung von Windrädern, bevor diese gebaut werden. Er nutzt dazu eine "HyRef"-Lösung der IBM.

Big Data in Zahlen
Karl Valentin hat einmal das Bonmot geprägt, schwer sei leicht was. Das kann man für den Trend Big Data mit Sicherheit auch behaupten. Sinnvoll in der Theorie, schwer in der Realisierung. Wir liefern ein paar Fakten.
Welche Probleme sehen Sie beim Einsatz von Big Data?
Big-Data-Konzepte werden nicht vorangetrieben, weil es an den richtigen Skills fehlt.<br> Angaben in Prozent; n = 206; Mehrfachnennungen möglich; Quelle: BARC

Big Data und die Medien

Auch für die Medien werden Informationen zum Verhalten und den Vorlieben ihrer Konsumenten immer wichtiger. Deshalb gehen sie dazu über, den Teilnehmern sozialer Netzwerke genau auf die Finger zu schauen.

RTL Niederlande etwa analysiert Social Networks, um mehr über die Akzeptanz seiner Programme herauszufinden. Hierzu bedient sich der Sender frei verfügbarer, von Nutzern erzeugter Inhalte auf Facebook, Twitter und Youtube sowie in Hunderten von Blogs, Diskussionen, in Foren und auf Websites. Mit diesen unstrukturierten Daten kann RTL Zuschauerstimmungen ermitteln und Sendungen sowie Sendezeiten besser planen.

Für den Eurovision Song Contest 2012 hatte France Television zusammen mit IBM und Novius das Projekt "EuroBuzz" ins Leben gerufen. Ziel war es, mit Hilfe von Analysewerkzeugen und Sprachverarbeitungstechniken Stimmungen auf Twitter und anderen sozialen Netzen live auszuwerten, um daraus Trends während des europaweiten Events abzuleiten. 42 Länder und geschätzte 125 Millionen Zuschauer aus ganz Europa waren dabei. EuroBuzz startete am 11. Mai 2012. France Television analysierte über 1,2 Millionen Tweets, 800.000 innerhalb von vier Stunden während des Events. Die aktuellen Trends zu den Künstlern und Ländern standen den Zuschauern und Fans sofort in einer Grafik zur Verfügung. Trendanalysen sagten schon zwei Tage vor dem Finale den späteren Sieger Schweden vorher.

Beckmesserisch könnte man sich fragen, ob BKA-Chef Ziercke so glücklich lag mit seiner Aussage, man habe mit der Verhaftung des "Autobahnschützen" die Nadel im Heuhaufen gefunden. Keith Alexander, Director des Geheimdienstes NSA, bemühte das gleiche Bild. Er erklärte das ungenierte Sammeln von Massendaten allerdings so: Man brauche einen Heuhaufen, um die Nadel zu finden. Je größer die Datenmenge ist, die Behörden wie die NSA durchwühlen können, desto höher ist die Chance, Kriminelle zu finden. Das ist allerdings nichts anderes als eine Rechtfertigung für die Überwachung aller.

Und die Zukunft?

Von solch einer quasi industrialisierten digitalen Schleppnetzfahndung ist es dann nicht mehr weit zur perfekten Vorhersage von Verbrechen. Was der Film "Minority Report" scheinbar fiktional auf den Punkt brachte, wird in den USA und Großbritannien schon mit erkennbarem Erfolg eingesetzt: Predictive Policing. Das seit 2005 in Memphis angewandte Programm "Blue C.R.U.S.H" (Crime Reduction Utilizing Statistical History) hilft den Strafverfolgungsbehörden auszuloten, wann an welchem Ort gehäuft kriminelle Delikte stattfinden werden. (mhr)