Technik-Know-how reicht nicht

Was ein Spezialist für Big Data können muss

22.02.2013 von Ilias Ortega
Big Data ist viel mehr als Hard- und Software. Big-Data-Verantwortliche benötigen technisches und Führungswissen und sollten gut kommunizieren können.
Technik-Know-how ist natürlich unabdingbar, um als Big-Data-Verantwortlicher erfolgreich zu agieren. Das allein aber reicht nicht.
Foto: fotolia.com/Ben Chams

Big Data ist viel mehr als Hard- und Software. Big-Data-Verantwortliche benötigen technisches und Führungswissen und sollten gut kommunizieren können.
von Ilias Ortega
Das Trendthema Big Data beherrscht nach wie vor die Schlagzeilen führender IT-Journale. Unternehmen wie Google, Amazon und Facebook sichern sich marktbeherrschende Wettbewerbsvorteile durch innovative Big-Data-Anwendungen. Zudem herrscht am Big-Data-Marktplatz ein großes, unübersichtliches Angebot an Hard- und Software.
Um Big-Data-Systeme jedoch erfolgreich einzuführen und später betreiben zu können, reichen rein technische Entscheidungskriterien nicht aus. Der Grund: Big-Data-Systeme müssen nicht nur technisch einwandfrei funktionieren, sondern auch einen quantifizierbaren Nutzen erbringen. Darüber hinaus müssen sie auch die Unternehmensstrategie nachhaltig unterstützen können.

Technik-Know-how ist natürlich unabdingbar, um als Big-Data-Verantwortlicher erfolgreich zu agieren. Das allein aber reicht nicht. Weitere Kompetenzen müssen hinzukommen.

1. Management-Know-how

Wichtig ist auch ein breites Management-Know-how, um gemeinsam mit den Fachabteilungen nutzbringende, nachhaltige und innovative Anwendungen von Big Data zu finden. Dazu ist es ratsam, Kreativitätstechniken und Problemlösungsmethoden einzusetzen.

Zu den typischen Big-Data-Anwendungen zählen die Mikrosegmentierung, mit der sich maßgeschneiderte Angebote erstellen lassen, oder das Monitoring von Produkten, Transportmitteln und Anlagen. Ebenfalls wichtig ist die Prüfung von Datenbeständen: Damit werden Kreditkartenbetrügereien aufgedeckt (also Mustererkennung) oder bislang unerkannte Abhängigkeiten zwischen Parametern ausfindig gemacht. Typische Anwendungen für Big Data sind ferner Empfehlungssysteme für Cross-Selling-Aktivitäten.

Schlüsselfragen zum Gebrauch von Informationen: Bei der Überlegung, welche Anwendungen für Big Data von Interesse sein könnten, kann man sich mit diesem Fragenmodell behelfen.
Foto: Trivadis AG (nach Davenport, Harris und Morison)

Eine Annäherung an das Thema sowie die Suche nach weiteren Big-Data-Anwendungen sind mit dem von Thomas Davenport, Jeanne Harris und Robert Morison - Autoren des Buchs "Analytics at Work: Smarter Decisions, Better Results" - entwickelten Modell möglich (siehe Grafik: "Schlüsselfragen ...").

Anstöße für weitere Anwendungen liefert die eigene Unternehmensstrategie, aus der sich die Grundausrichtung für neue Ideen ableiten oder überprüfen lässt. Hilfreich sind auch Best Practices von Unternehmen der eigenen und aus fremden Branchen (Benchmarking). Zudem sollte man gesellschaftliche, wirtschaftliche und demografische Trends genau beobachten.

Unbedingt empfehlenswert ist es auch, Geschäftsprozesse systematisch nach Verbesserungspotenzialen zu durchsuchen. So lassen sich - nur ein Beispiel - Entscheidungen automatisieren. Damit lassen sich unter Umständen Kosten senken, Durchlaufzeiten verkürzen oder die Qualität erhöhen.Big-Data-Lösungen gewinnen auch an Bedeutung, um etwa Informationen zu analysieren, die bei Gesprächen mit Experten, Forschern und Konkurrenten anfallen oder auf Fachtagungen gewonnen werden.

Grundsätzlich kann man festhalten: Die Suche nach Big-Data-Anwendungen ist ein exploratives Unterfangen, das Geduld und Ressourcen voraussetzt.

2. Kommunikationsfähigkeit

Gefragt ist auch Kommunikationsfähigkeit. Sie fördert die Zusammenarbeit mit den Fachabteilungen, den eigentlichen Nutznießern der Big-Data-Anwendungen. Deren Entwicklung setzt fachliches und Big-Data-Wissen voraus, das in den Unternehmen nicht gleichmäßig verteilt ist.
Die Fachabteilungen verfügen zwar über Fachwissen, kennen jedoch die Anwendungsmöglichkeiten von Big Data nur bedingt.
Für Big-Data-Verantwortliche gilt das Gegenteil. Fachabteilungen und Big-Data-Verantwortliche sollten daher eng zusammenarbeiten und gemeinsam nutzbringende Anwendungsmöglichkeiten von Big Data suchen. Um ihr Wissen den Fachabteilungen vermitteln zu können, sollten Big-Data-Verantwortliche didaktische Fähigkeiten besitzen.

3. Nutzenorientierung

Nutzen-Management soll einen möglichst großen Beitrag von Big-Data-Projekten am Gesamterfolg des Unternehmens gewährleisten. Damit Big Data die Wettbewerbsvorteile und die Strategie des Unternehmens stärken kann, werden die Projektziele von Fachabteilungen und Big-Data-Verantwortlichen gemeinsam erarbeitet.
Der Projektnutzen wird anschließend aufgrund von detaillierten Business Cases systematisch geprüft. Hier gilt es zu bedenken, dass der Projektaufwand mehrheitlich in der IT-Abteilung entsteht, während der Ertrag den Fachabteilungen zugutekommt. Die Projekte werden auf Grundlage ihres Nutzens ausgewählt und im Rahmen eines Projektportfolios priorisiert.
Die Zielerreichung des Big-Data-Systems lässt sich dann mit Hilfe eines maßgeschneiderten Performance-Management-Systems steuern, welches Key Performance Indicators (KPIs) umfasst. Ein typischer KPI für ein Prognosesystem ist die Quote eingetroffener Prognosen.

4. Organisatorische Fähigkeiten

Organisationstalent ist nötig, um Big-Data-Projekte pragmatisch beurteilen und realisieren zu können. Für die ersten Big-Data-Anwendungen sollten Probleme identifiziert werden, die nutzbringend gelöst werden können. Mit Prototypen und Pilotprojekten lassen sich rasch Erfahrungen sammeln, mit denen das gewählte Vorgehen überprüft werden kann. Die unternehmensweite Einführung der gewählten Lösung geschieht am besten schrittweise.
Zielgerichtete Schulungen sollen dazu beitragen, die Akzeptanz und Verbreitung von Big Data im Unternehmen zu fördern. Zur zentralen Koordination von Big-Data-Aktivitäten - etwa Projekten oder interner Forschung und Schulungen - ist die Einrichtung eines Big-Data-Kompetenzzentrums ratsam. Die Wirksamkeit von Big-Data-Vorhaben sollte zudem durch eine Architektur gesichert werden, die stabil, standardisiert, integriert und sicher ist.

5. Wissenschaftliches Vorgehen

Ein wissenschaftlicher Ansatz dient dazu, Big-Data-Anwendungen regelmäßig zu überprüfen. Hier gilt es, neben den verwendeten Modellen getroffene Annahmen wie Kundenpräferenzen und Konkurrentenverhalten hinsichtlich ihrer Gültigkeit zu untersuchen. Kommen viele Modelle zum Einsatz, empfiehlt sich ein systematisches Modell-Management.
Dieses umfasst unter anderem eine Modell-Bibliothek und ein Modell-Versionierungssystem, um den Einsatz der Modelle zu koordinieren und ihre Wirksamkeit zu steigern. Mit Hilfe von Technologie-Monitoring sollen Hard- und Softwaretrends erkannt und eine Modernisierung der eigenen Systeme geprüft werden. Neue Werkzeuge, beispielsweise zur Visualisierung, sollten kontinuierlich evaluiert werden.

Schlussfolgerungen

Einführung und Betrieb von Big-Data-Systemen setzen neben technischem Wissen weitere Kompetenzen voraus. Hierzu gehören Management-Know-how, Kommunikationsfähigkeit, Nutzenorientierung, organisatorische Fähigkeiten sowie eine wissenschaftliche Herangehensweise.
Die enge Zusammenarbeit zwischen Fachabteilungen und Big-Data-Verantwortlichen ist ausschlaggebend: Sie sollen gemeinsam Big-Data-Anwendungen finden, Ziele festlegen und den Nutzen ermitteln. Dieses Vorgehen kann sicherstellen, dass Big-Data-Vorhaben einen nachhaltigen Beitrag leisten, um Wettbewerbsvorteile zu schaffen und die Unternehmensstrategie zu stärken.

Acht Leitlinien für ECM-Projekte
1. Strategische Ziele defnieren
Ausgangspunkt für erfolgreiche ECM-Projekte sollte immer eine klare Nutzenanalyse sein, die strategische Ziele festlegt und konkrete Mehrwerte für das Unternehmen definiert. Die Gesamtkosten sollten berechnet sowie mögliche Risiken und Hürden kalkuliert werden.
2. Spezifische Anforderungen berücksichtigen
Fachliche Anforderungen sowie die Ansprüche aller Anwender sollten eingangs differenziert beschrieben werden. Nur ein sorgfältig erstelltes Fachkonzept kann dabei helfen, die Ziele zu erreichen und den Rahmen für Aufwand und Ressourcen präzise zu stecken.
3. Einfachheit als Prinzip
Gleichzeitig fordert die d.velop AG Einfachheit zum Prinzip der konzeptionellen Planung und der entsprechenden Lösung zu erheben. Eine zu komplexe ECM-Lösung würde nur schwer von den Benutzern akzeptiert und zu Lasten der Produktivität gehen. Die geforderte Einfachheit würde sich aber nicht auf den Funktionsumfang beziehen. Vielmehr sollten Implementierung, Bedienung, Betrieb und Pflege des ECM-Systems leicht von der Hand gehen.
4. Lösungen vergleichen
Hat ein Unternehmen erstmal die Ziele und Anforderungen definiert, kann es sich auf dem Markt nach einer geeigneten ECM-Lösung umschauen. Hilfreich bei der Marktevaluierung ist laut d.velop AG ein differenziert ausgearbeitetes Fachkonzept. Neben dem Funktionsumfang sollten bei der Auswahl der Lösung vor allem auch die Benutzerfreundlichkeit berücksichtigt werden, aber auch Innovationsfähigkeit, Flexibilität und partnerschaftliche Kultur des Herstellers.
5. Projekte intelligent planen
Zu einem intelligenten Projektmanagement gehört laut der d.velop AG, dass genaue Vorgaben definiert und präzise Controlling-Prozesse implementiert werden sowie Mitarbeiter mit entsprechenden Fähigkeiten bereitgestellt respektive die Schulung von geeigneten Mitarbeitern geplant werden.
6. Marketing für ECM-Projekte
Im Rahmen des Projektmanagements empfiehlt die d.velop AG IT-Entscheidern, auch an das Projekt-Marketing für ihre ECM-Projekte zu denken. Da Akzeptanzprobleme zu vielen negativen Effekten führen könnten, sollten Mitarbeiter zunächst in die Technologie eingewiesen und so dafür gewonnen werden.
7. Testing nicht vergessen
Auch sollten Unternehmen vor dem Rollout des neuen ECM-Systems nicht auf eine Testphase verzichten. Nur unter möglichst realen Verhältnissen könne man ermitteln, ob die fachlichen Anforderungen auch tatsächlich präzise umgesetzt wurden.
8. Phase der Optimierung
Ebenfalls nicht vergessen werden darf die Zeit nach dem Rollout. Denn mit der Implementierung sei das ECM-Vorhaben längst nicht ausgeschlossen. Vielmehr sollte laut der d.velop AG dann eine Phase für Optimierungsprozesse unter realen Praxisbedingungen eingeläutet werden.



(Der Beitrag wurde von der CP-Schwesterpublikation Computerwoche übernommen / rb)