Technologien für große Datenmengen

Big Data im Griff

Dr. Klaus Manhart hat an der LMU München Logik/Wissenschaftstheorie studiert. Seit 1999 ist er freier Fachautor für IT und Wissenschaft und seit 2005 Lehrbeauftragter an der Uni München für Computersimulation. Schwerpunkte im Bereich IT-Journalismus sind Internet, Business-Computing, Linux und Mobilanwendungen.
Erzeugt von sozialen Netzen, Mobilgeräten, Sensoren und anderen Instrumentarien bricht derzeit eine Lawine an Daten auf die Unternehmen ein. Für die meisten wird die Datenflut, neudeutsch als "Big Data" bezeichnet, zunehmend zum Problem. Um möglichst großen Nutzen aus den explodierenden Informationsmengen zu ziehen, reicht die bloße Vergrößerung von IT-Parametern - mehr Speicher, bessere Server etc. - bei weitem nicht aus. Stattdessen muss die gesamte IT-Infrastruktur hinterfragt und an mehreren Stellschrauben gedreht werden: Von der Storage- und Netzwerktechnik über die Datenbanksoftware bis hin zum richtigen Business-Intelligence-Instrumentarium.
1,8 Zettabyte Daten wurden letztes Jahr weltweit erzeugt - die Grafik veranschaulicht das.
1,8 Zettabyte Daten wurden letztes Jahr weltweit erzeugt - die Grafik veranschaulicht das.
Foto: IDC

Erzeugt von sozialen Netzen, Mobilgeräten, Sensoren und anderen Instrumentarien bricht derzeit eine Lawine an Daten auf die Unternehmen ein. Für die meisten wird die Datenflut, neudeutsch als "Big Data" bezeichnet, zunehmend zum Problem. Um möglichst großen Nutzen aus den explodierenden Informationsmengen zu ziehen, reicht die bloße Vergrößerung von IT-Parametern - mehr Speicher, bessere Server etc. - bei weitem nicht aus. Stattdessen muss die gesamte IT-Infrastruktur hinterfragt und an mehreren Stellschrauben gedreht werden: Von der Storage- und Netzwerktechnik über die Datenbanksoftware bis hin zum richtigen Business-Intelligence-Instrumentarium.
von Klaus Manhard

In den nächsten Jahren explodieren die Datenmengen förmlich. Laut den Marktforschern von IDC durchbrachen digitale Informationen im letzten Jahr erstmals die Zettabyte-Barriere - das ist eine Billion Gigabyte an Daten. In diesem Jahr soll das "digitale Universum" auf 1,8 Zettabyte anschwellen. Damit ist die Informationsmenge in den letzten fünf Jahren laut IDC um den Faktor fünf gewachsen.

Dass die Datenmengen derart hochschnellen, liegt an der allumfassenden Digitalisierung des Lebens - und daran, dass ständig und überall hochvolumige Datenmengen produziert werden. Vor allem von Maschinen und Rechnern: Eine moderne Jet-Maschine generiert heute beispielsweise in 30 Minuten bis zu 10 Terabyte an Daten. Bei 25.000 Flügen pro Tag entstehen durch eine solche Datenquelle Petabytes an Daten. Oder der Automobilbereich: Autohersteller gehen heute immer öfter dazu über, Crash-Tests auf Hochleistungsrechnern zu simulieren. Die dabei anfallenden Datenmengen sind gigantisch.

Einen erklecklichen Anteil an der Datenexplosion haben das Internet und die für viele Unternehmen so attraktiven sozialen Medien wie Facebook, Twitter und Co. Bei 140 Zeichen pro Tweet und bei der Geschwindigkeit, in der die Kurzmitteilungen abgesetzt werden, sorgt alleine Twitter pro Tag für mindestens acht Terabyte an Daten.

In solchen Daten stecken - so die Vorstellung vieler Unternehmen - wertvolle Schätze, die man nur heben muss. Beispielsweise wollen Unternehmen Stimmungen oder Produkt- und Firmennamen in Social Networks aufspüren. Oder durch Auswertung von Kundenkommentaren Vorschläge für die Verbesserung von Produkten gewinnen.

Zur Startseite