Datenmanagement

Big Data – Fluch, Segen oder einfach viel Arbeit?

05.12.2012 von Rob Sobers
Das Thema birgt Potenziale, aber auch Gefahren. Vor allem sind aber viele Unternehmen auf den Umgang mit großen Datenmengen nicht vorbereitet.
Vielen Unternehmen ist nicht klar, wie sie mit ihren Datenbergen umgehen sollen.
Foto: michelangelus - Fotolia.com

Das Thema birgt Potenziale, aber auch Gefahren. Vor allem sind aber viele Unternehmen auf den Umgang mit großen Datenmengen nicht vorbereitet.
von Rob Sobers (Technical Manager beim Big-Data-Spezialisten Varonis)
Präsentationen, Dokumente, Tabellen - Unternehmen produzieren große Mengen an nutzergenerierten Daten mit den zugehörigen Metadaten. Um das Potenzial, das dieser Big-Data-Bestand birgt, auszuschöpfen, fehlt es den meisten Unternehmen und Behörden an dem nötigen Methodenwissen und an Tools. Zu dieser Schlussfolgerung kommen die Autoren der Studie "The Future of Big Data", für die das Pew Research Centre und die Elon University aus North Carolina insgesamt 1021 Internet-Experten und Nutzer befragten.

Unscharfe Erwartungen

Die Initiatoren der Umfrage gehen davon aus, dass die bis 2020 angesammelten Datenberge die Produktivität steigern, die Transparenz in Organisationen verbessern und die Grenzen der vorhersehbaren Zukunft erweitern können. Gleichzeitig machen sie sich Sorgen darüber, ob Regierungen und Unternehmen verantwortungsbewusst mit diesen Informationen umgehen werden.

"Das Aufkommen von Big Data wird Dinge vereinfachen. Ein Beispiel sind Vorhersagen in Echtzeit", so die Autoren. Die Entwicklung etwa von Software, die Datenmuster erkenne und Auswirkungen berechne, ermögliche ein neues Verständnis der Welt.

Allerdings vertreten 39 Prozent der Studienteilnehmer auch das Gegenargument. "Die Existenz riesiger analysierbarer Datenmengen wird zu einem falschen Vertrauen in unsere Prognosefähigkeit führen und die Menschen zu schweren und schmerzlichen Fehlern verleiten." In jedem Fall schlummern hier gewaltige Potenziale. "Big Data - das neue Öl", sagte ein Studienteilnehmer. Regierungen und Organisationen, die diese Ressource förderten, erlangten Vorteile gegenüber anderen.

Ausbruch der Pandemie verhindern

Der Blogger und Hochschullehrer Jeff Jarvis teilt diese Ansicht: Medien und Regulierungsbehörden verteufelten häufig Big Data und die vermeintliche Bedrohung der Privatsphäre; doch sei eine moralische Panikmache bei technologischen Neuerungen schon häufig aufgetreten. Jarvis sieht daher in der Fähigkeit, Daten richtig auszuwerten, eine gewaltige Chance.

Als Beispiel nennt er Google. Das Unternehmen habe die Behörden mehrmals um die Erlaubnis gebeten, Sucheingaben nicht sofort zu löschen. Das Argument: Anhand von Mustern habe es die Möglichkeit entdeckt, die Ausbreitung einer ansteckenden Krankheit bereits vor den Gesundheitsbehörden nachzuvollziehen und so den Ausbruch einer Pandemie zu verhindern.

Sean Mead, Director of Analytics bei der Anwaltskanzlei Mead, Mead & Clark, zeigt sich ebenfalls begeistert von den Chancen, die aus Big Data erwachsen: "Große Mengen öffentlich verfügbarer Daten, einfachere Tools, die größere Verbreitung von Analysemöglichkeiten und Software für künstliche Intelligenz werden zu erhöhter Produktivität führen." Dies lasse sich mit der Computer- und Internet-Revolution Mitte bis Ende der 1990er Jahre vergleichen.

Fragen und Antworten zur Big-Data-Strategie

Welche Daten werden in fünf Jahren benötigt?

Ob Kundentransaktionen, Ereignisprotokolle oder Klick-Streams – Unternehmen sollten sich die Frage stellen, welche Daten sie in fünf Jahren brauchen. Sicher ist es schwierig, vorherzusagen, was man später benötigen wird, doch in Bezug auf die Erfassung neuer Daten ist es wichtig, strategisch zu denken.

Brauchen auch kleine Firmen eine Big-Data-Strategie?

Auch kleine Unternehmen können über riesige Datenmengen verfügen. Ein Beispiel sind kleine Banken, die oft Informationen im Umfang von mehreren Terabyte speichern. Sie könnten sich von der Konkurrenz absetzen, indem sie ihre Daten nach Mustern durchsuchen und bestimmen, auf welche Bereiche sie sich konzentrieren.

Woher kommen die nützlichsten Daten?

Eine Quelle sind Server-Protokolle. Web-, Datenbank- und Datei-Server sammeln wertvolle Daten etwa zu Besuchern, Klickverhalten, Kundentransaktionen und Sicherheitsereignissen. Anhand der Analyse können Firmen viel über das Verhalten von jetzigen und künftigen Nutzern lernen. Zudem können sie nach Mustern suchen, um Fehler in der Kundenansprache oder sogar bösartige Aktivitäten zu entdecken. Die nützlichste und größte Datengruppe stellen häufig Inhalte dar, die Mitarbeiter täglich nutzen: E-Mails, Dokumente, Tabellenkalkulationen, Präsentationen und Bilder. Viele Organisationen erfassen und analysieren bereits Content-Informationen, Zugriffsaktivitäten und Berechtigungsdaten. Die Erkenntnisziele dabei sind unterschiedlich, das Risiko, Datenschutzrechte zu verletzen, ist beträchtlich.

Benötigen Unternehmen neuesFachpersonal für Big Data?

Vor der Einrichtung einer Big-Data-Analyseinfrastruktur sollte ein Unternehmen Big-Data-Prioritäten festlegen. Dann muss es geeignete Technologien für die Umsetzung ermitteln. Die größte Hürde ist aber, ausgebildete Systemadministratoren und Datenexperten zu finden. Diese sollten Plattformen konfigurieren, Daten umfassend analysieren und Ergebnisse deuten können.

Metadaten sind der Schlüssel

Die Argumente weisen mehr oder weniger alle auf einen gemeinsamen Kern: Die Datenmengen sind so stark gewachsen, dass sie sich ohne automatisierte Prozesse weder analysieren noch verarbeiten lassen.

Die Nutzung von Metadaten ist mittlerweile das A und O für das Verwalten und Schützen nutzergenerierter Inhalte. E-Mails und das Intranet haben beispielsweise das Speichern und Austauschen von Dateien für die Nutzer vereinfacht. Die Organisationen sind mit großen Datenbergen konfrontiert, die sie mit Small-Data-Ansätzen nicht mehr verwalten können. Zahlreiche Organisatio-nen stehen heute vor Problemen, die sie früher noch mühelos beheben konnten.

4 Kriterien, die für Big Data kennzeichnend sind (Quelle: IDC, 10/2012)
Big Data Technologie-Stack (Quelle: IDC, 10/2012)
Permanentes Datenwachstum (Quelle: IDC, 10/2012)
Datenwachstum aus unterschiedlichsten Quellen (Quelle: IDC, 10/2012)
Einschätzungen der Anwender zum Datenwachstum (Quelle: IDC, 10/2012)
Herausforderung bei Datenmanagement und Datenhaltung (Quelle: IDC, 10/2012)
Technologische Herausforderungen beim Datenmanagement(Quelle: IDC, 10/2012)
Was ist neu an der Big-Data-Technologie? (Quelle: IDC, 10/2012)
Neue Generation von Technologien und Architekturen(Quelle: IDC, 10/2012)
Big Data: Lösungen und Technologie (Quelle: IDC 10/2012)
Big Data - Herausforderungen aus Sicht der IT-Entscheider(Quelle: IDC, 10/2012)
Potenzial von Big Data aus Business-Sicht (Quelle: IDC, 10/2012)
Big-Data-relevante Geschäftsbereiche (Quelle: IDC, 10/2012)
Organisationsmodelle für Big Data (Quelle: IDC, 10/2012)
Welche Anbieter bevorzugen Anwender bei der Umsetzung von Big-Data-Projekten? (Quelle: IDC, 10/2012)
Wie groß sind 1 Zettabyte? (Quelle: IDC, 10/2012)

Nach Schätzungen von IDC ist zudem nur die Hälfte der kritischen Daten tatsächlich geschützt. Das Problem verschärft sich durch die Cloud-Dienste noch, denn hier entstehen Datenspeicher für nutzergenerierte Inhalte, die ebenfalls verwaltet werden müssen. Hinzu kommt, dass diese Speicher außerhalb des Unternehmens liegen, also neue Management-Prozesse erfordern.

Aus diesen Gründen sieht David Weinberger von der Harvard University Big Data noch am Anfang: "Wir beginnen erst, die Probleme zu verstehen, die mit Big Data gelöst werden könnten." Viele Unternehmen hätten noch nicht erkannt, welche Potenziale in ihren Daten schlummern, und könnten diesen Schatz bisher nicht heben.

(Der Beitrag wurde von der CP-Schwesterpublikation Computerwoche übernommen / rb)