Die Trendthemen des Channels

Wo Big Data schon funktioniert

01.10.2014 von Ronald Wiltscheck
Die Welt wird vernetzter. Cloud Computing, Big Data und Mobility sind die kommenden Themen der Fachhändler. Der dritte Tech Data-Kongress begeisterte die Teilnehmer mit praktischen Fallbeispielen.

Wo vor fünf Jahren Distributoren ihre Fachhändler noch auf Themen wie Big Data, Cloud Computing, Mobility und Industrie aufmerksam machen mussten, dominieren sie heute wie selbstverständlich den Channel - das wurde auf dem Tech Data Kongress deutlich.

Zunehmend bieten Distributoren für diese Lösungen, die ehemals rein den Großkonzernen vorbehalten waren, heute auch Chancen für kleinere Unternehmen.

Unter dem Motto "IT 3.0 - Total vernetzt!" informierte die Veranstaltung am 26. September zum dritten Mal Fachhändler, Berater und Hersteller zu den Trendthemen aus der IT. Channel Partner war vor Ort und schaute sich die spannenden Best Practice Sessions an und sammelte exklusive Stimmen zum Event.

Best Practice auf der Tech Data Konferenz 2014: Hier ein Beispiel aus dem Bereich Big Data mit IBM und dem Wissenschaftlichen Institut der AOK.
Foto: Tech Data

Die Welt wird vernetzter

Der Andrang war enorm: Fast 600 Besucher des deutschen IT-Business lockte der bis ins kleinste Detail durchgeplante und gelungene Kongress nach München. Der Vormittag gehörte den Herstellern. Autodesk, Cisco, EMC, Good Technology, HP, IBM, Microsoft und Oracle stellten in anschaulich inszenierten Präsentationen handfeste Referenzbeispiele aus den Trendthemensegmenten Big Data, Cloud Computing, Mobility und Industrie 4.0 vor.

Nachdem die Hersteller, Channelexperten und Fachhand in der Mittagspause sich ausgiebig ausgetauscht hatten, leitete Dr. Thomas Endres, Vorsitzender des Präsidiums von VOICE, dem Verband der IT-Anwender e.V. den Nachmittag ein, an dem Nicolai Krämer, Leiter Vernetzte eMobilität der BMW Group, auf einer Keynote, welche Herausforderungen Automobilhersteller durch die zunehmende Technisierung und Vernetzung meistern müssen.

Darüber, dass die Welt immer vernetzter ist und das eine große Aufgabe für den Channel ist, war sich auch die anwesende IT-Prominenz bei der anschließenden Podiumsdiskussion einig:

"Ich glaube, die total vernetzte Welt ist eines dieser Dinge, bei denen wir uns später erinnern werden, und sagen werden, wir waren dabei!" wie Oliver Tuszik, CEO von Cisco betonte wobei ihm auch die anderen Spitzenmanager zustimmten.

Best Practice Beispiel aus dem Bereich Industrie 4.0 mit Autodesk und der mk Technology Group
Foto: Tech Data

"Wir müssen neues Denken zulassen!"

Microsoft Deutschland Chef Christian Illek ging noch einen Schritt weiter: "Wir können uns nicht den Luxus erlauben, uns überhaupt mal die Frage zu stellen, ob wir uns damit auseinandersetzen. Wir müssen uns damit befassen!" und plädierte eher für einen gemeinsamen Ansatz und Bewegung unter allen IT-Beteiligten und Industrieunternehmen, den Channel eingeschlossen.

Martina Koederitz, Vorsitzende der Geschäftsführung IBM Deutschland, forderte eine Öffnung der Unternehmenskulturen: "Wir müssen neues Denken zulassen. Das Machen ist weniger das Problem, sondern das Starten."

Zum Thema Mobility zog Heiko Meyer, Vorsitzender der Geschäftsführung HP Deutschland einen interessanten Vergleich mit einem Eisberg: "Was ist über dem Wasser und was darunter? Über dem Wasser sind die Apps und die Devices, aber darunter die Connectivity, Software, Security und die Infrastruktur über die gesamte Breite der Wertschöpfungskette."

IDC-Erhebung Industrie 4.0
Was Anlagenbauer und -betreiber unterscheidet
Die Betreiber von Industrie-4.0-Anlagen (Produktion) legen Wert auf Effizienz und Kosten. Die Hersteller der Maschinen, Geräte und Anlagen (Engineering) wollen vornehmlich die entstehende Komplexität im Griff behalten.
Industrie 4.0 - ein unbekanntes Konzept
Die meisten Fach- und Führungskräfte aus dem verarbeitenden Gewerbe kennen laut IDC-Erhebung nicht einmal den Begriff "Industrie 4.0". Die Analysten sind sich indes sicher, dass das Gros der leitenden Angestellten, die sich mit Fragen der Unternehmensstrategie beschäftigen, sich sehr wohl mit dem Konzept auseinandersetzt.
Wie bedeutend ist Industrie 4.0?
Diejenige, die sich bereits eine Meinung zum Thema gebildet haben, erwarten, dass Industrie 4.0 entweder Teilbereiche oder komplette Wertschöpfungsketten in der Fertigung verändern wird.
Stand der Installationen
Viele Installationen in den Fertigungsstraßen sind bereits mit dem Internet verknüpft. Eine Öffnung der Produktionssysteme hat laut IDC bereits begonnen. Aus der Erhebung geht jedoch nicht hervor, was genau vernetzt wird.
Sorge um Datenschutz und Sicherheit
Die Vernetzung macht die Industrieanlagen anfälliger für Diebstahl geistigen Eigentums und für Eingriffe in die Abläufe. Das gilt naturgemäß insbesondere für mit der Außenwelt vernetzte Anlagen.
Die Industrie 4.0 kommt bald
Die meisten rechnen binnen zwei bis zehn Jahren mit der vollumfänglichen Einführung von vernetzten und intelligenten Fertigungssystemen. Das ist, so meinen die Marktforscher von IDC, sehr optimistisch.
Was die Industrie 4.0 bremst
Der Optimismus der Anwender ist auch deshalb erstaunlich, weil sie zugleich viele ungelöste Fragen haben, die unter anderem die Sicherheit und die Finanzierung betreffen.
Geld für Industrie 4.0
Den meisten Befragten stehen Gelder für Investitionen zur Verfügung. Über die Höhe des Budgets macht die Erhebung keine Angaben.
Wo Anwender einkaufen
Die Betreiber von Anlagen beziehen Produkte und Dienste für intelligente Fertigungsinstallationen vor allem von Anlagen- und IT-Hersteller. Die Maschinenbauer wenden sich vor allem an Sensorikanbieter.

"Big Data bracht die richtige Infrastruktur"

Doch es gab auch kritische Stimmen. Hannes Beierlein vom IT-Kommunikationsspezialisten Evernine ist zwar davon überzeugt, dass Big Data ein zukunftsträchtiges Thema ist, das vor allem in der Industrie erhebliches Potential hat, dennoch sieht er den Use Case noch nicht so weit fortgeschritten wie die meisten Hersteller: "Big Data ist in aller Munde. Trotzdem ist für die enormen Datenmengen, die bei den Analysen anfallen, eine entsprechende Infrastruktur notwendig. Diese ist oftmals noch nicht gegeben, was die Herstellern oft nicht erwähnen".

Industrie 4.0 - was Unternehmen tun müssen
Industrie 4.0 - wenn Daten und Sicherheit fehlen
Zunehmend komplexe Verbünde aus IT-Systemen und Maschinen kommen ohne Application-Management-Teams nicht aus. Diese müssen ihr Wissen ständig erweitern.
Fit-Gap-Analyse zum Know-how-Bedarf:
Welches Wissen ist wann und wo erforderlich? Was können wir bereits abdecken und was noch nicht?
Entwurf eines Curriculums und Aufbau eines Fortbildungsprogramms:
Inwieweit können die vorhandenen Mitarbeiter die bestehenden Lücken durch Fortbildung schließen?
Definition des Recruiting-Bedarfs und Roadmap für entsprechende Maßnahmen:
Für welche Themen müssen wir neue Mitarbeiter einstellen? In welchen Studiengängen finden wir sie, und wie sprechen wir sie an?
Etablierung von Kooperations- und Collaboration-Verfahren zwischen AM-Team und Fachbereichen:
Beispielsweise Instandhaltungsexperten, die sich mit den IT-Systemen vertraut machen: Wer aus den Fachbereichen unterstützt bei Bedarf auf welche Weise das zentrale Application-Management?
Aufbau von "agilen" AM-Teams in den einzelnen Fachbereichen - beispielsweise Instandhaltungsexperten, die sich mit den IT-Systemen vertraut machen:
Wer in den Fachbereichen kommt infrage? Welches Wissen sollte er sich aneignen

Wo Big Data allerdings heute schon funktioniert, zeigte die Best Practice Sessions von HP. Der Hersteller zeigte anhand eines Fallbeispiels, wie Big Data-Datenanalysen die Kommunikation bei Feuerwehreinsetzen optimieren und spezielle Apps für Gefahrgut-Erkennung, Atemschutz-Überwachung, Hydranten-Zugangsberechnungen, etc. den roten Rettern die Arbeit erleichtern.

Das sah auch Martin Mayr, Senior Vice President von CANCOM, so: "Tech Data präsentiert seinen Partnern auf einer gelungenen Veranstaltung tolle Key Notes zu spannenden Themen. Besonders die von HP und Microsoft vorgestellte Lösung für Feuerwehr zeigt Machbares und ist auf das Partnergeschäft zugeschnitten."

Frank Türling, Geschäftsführer vom aufstrebenden Clouddienstleister BASAAS, resümierte das, was sich viele Teilnehmer dachten: "Die Veranstaltung von Tech Data bot in allen wichtigen Bereichen der Zukunftsthemen der IT tolle Key Notes und Best Practice Beispiele. Tech Data ist somit auch für uns ein spannender Partner auf der zukünftigen Plattform für Business App Lösungen als Service für Systemhäuser." (rb)

Glossar zu Big Data und Data Analytics
Predictive Analytics
das Treffen von Prognosen durch die Analyse von Daten. Im Gegensatz zur Analyse historischer Zusammenhängen und Erkenntnissen; auch durch die Analyse von Daten, die möglicherweise urächlich nicht miteinander in Zusammenhang stehen (Quelle: Bitkom)
Open Source
quelloffene Werke, zum Beispiel Software bei der man den Quellcode erhält (Quelle: Bitkom)
Open Data
Konzept zum Zugang zu hoheitlichen Daten zu jedermann, beispielsweise Auskunft über die bei einer Meldestelle gespeicherten Daten über einen Bürger und die Einrichtungen, an die die Daten übermittelt worden sind. (Quelle: Bitkom)
Metadaten
Daten zur Beschreibung von Daten, unter anderem, um Datenmodelle zu entwickeln. (Quelle: Bitkom)
Mahout
wörtlich: Elefantentreiber; hier: eine Apache-Komponente zum Aufbau von Bibliotheken für das Machine Learning MapReduce Verfahren zur Datenverwaltung und Indizierung (Quelle: Bitkom)
Machine Learning
Oberbegriff für die künstliche Generierung von Wissen aus Erfahrung: Ein künstliches System lernt aus Beispielen und kann nach Beendigung der Lernphase verallgemeinern. Das System „erkennt“ Gesetzmäßigkeiten und kann somit auch unbekannte Daten beurteilen. (siehe Wikipedia). (Quelle: Bitkom)
Lustre
Linux-basierendes Betriebssystem für den Betrieb von Cluster-Architekturen (Quelle: Bitkom)
Lambda-Architektur
Eine konstruktiv nutzbare Vorlage für den Entwurf einer Big-Data-Anwendung. Die in der Architektur vorgesehene Modularisierung spiegelt typische Anforderungen an Big-Data-Anwendungen wider und systematisiert sie. (Quelle: Bitkom)
In-Memory
Bei In-Memory werden die Daten nicht physisch auf Datenträger gespeichert und wieder ausgelesen, sondern im Arbeitsspeicher gehalten und dadurch mit sehr hoher Geschwindigkeit verarbeitet. (Quelle: Bitkom)
HANA
Ursprünglich: High-Performance Analytical Appliance; ein von SAP entwickeltes Produkt zum Betrieb von Datenbanken im (sehr großen) Hauptspeicher eines Computersystems (Quelle: Bitkom)
Hadoop
Open-Source-Version des MapReduce-Verfahrens, in verschiedenen Distributionen erhältlich. (Quelle: Bitkom)
Fraud Detection
Erkennung von Betrugsversuchen durch die Analyse von Transaktionen und Verhaltensmustern (Quelle: Bitkom)
Eventual Consistency
Eine Schnittmenge des CAP-Modells hinsichtlich der ereignisbezogenen Konsistenz von Modellen. (Quelle: Bitkom)
Data Science
Datenkunde: die Kenntnis bzw. Anwendung neuer Verfahren zur Arbeit mit Daten und Informationen, z.B. Verwendung semantischer Verfahren oder die Erschließung neuer Datenquellen (Sensordaten) und die Erarbeitung von Mustern oder statistischen Verfahren zur Auswertung solcher Daten. (Quelle: Bitkom)
Data Mining
Anwendung statistischer Methoden auf sehr große Datenmengen, bspw. Im Gegensatz zur manuellen Auswertung über Funktionen eines Tabellenkalkulationsprogrammes (Quelle: Bitkom)
Data Management
Methoden und Verfahren zur Verwaltung von Daten, oft über Metadaten (Daten, die Daten beschreiben) (Quelle: Bitkom)
Customer Analytics
Gewinnung von Erkenntnissen über das Kundenverhalten (überwiegend in Consumer-orientierten Unternehmen), beispielsweise mit dem Ziel der Entwicklung massenindividualisierter Produkte und Dienstleistungen (Quelle: Bitkom)
CEP
Sammelbegriff für Methoden, Techniken und Werkzeuge, um Ereignisse zu verarbeiten, während sie passieren. CEP leitet aus Ereignissen höheres Wissen in Form von komplexen Ereignissen ab, d. h. Situationen, die sich nur als Kombination mehrerer Ereignisse erkennen lassen (vgl. Wikipedia). (Quelle: Bitkom)
Complex Event Processing (CEP)
Complex Event Processing (CEP, Verarbeitung komplexer Ereignisse) ist ein Themenbereich der Informatik, der sich mit der Erkennung, Analyse, Gruppierung und Verarbeitung voneinander abhängiger Ereignisse beschäftigt. (Quelle: Bitkom)
CEPH
ein Dateisystem, das gleichzeitig Objekte, Dateien und Datenblöcke verwalten kann (Quelle: Bitkom)
CAP-Theorem
Laut dem CAP-Theorem kann ein verteiltes System zwei der folgenden Eigenschaften erfüllen, jedoch nicht alle drei: C = Consistency = Konsistenz, A = Availability = Verfügbarkeit, P = Partition Tolerance = Partitionstoleranz (siehe Wikipedia)
Business Intelligence
Gewinnung von Erkenntnissen über Zusammenhänge zwischen Informationen aus polystrukturierten Daten aus unterschiedlichsten Quellen (Quelle: Bitkom)
Broker
Makler/Buchmacher, hier: Rolle des Übermittlers von Daten zwischen Quelle und Anwender Business Analytics Ermittlung von Kennzahlen für Unternehmen, durch die Analyse größerer Datenmengen mit dem Ergebnis neuer Erkenntnisse aufgrund einer breiteren Datenbasis. (Quelle: Bitkom)
Big Data
die Gewinnung neuer Informationen – die in kürzester Zeit sehr vielen Nutzern zur Verfügung stehen müssen – mittels enorm großer Datenbestände aus unterschiedlichsten Quellen, um dadurch schneller wettbewerbskritische Entscheidungen treffen zu können. (Quelle: Bitkom)
Analytics Appliance
vorkonfigurierte oder paketierte Lösungen aus Hardware und Software für die Koordinierung von polystrukturierten Daten, die Ausführung von Analysen und die Präsentation der Erkenntnisse. (Quelle: Bitkom)
Analytics Analyse
Gewinnung von Erkenntnissen durch komplexe Abfragen auf polsystrukturierte Daten, Datenbanken und Data-Warehouses mit spezifischen Abfragesprachen wie SQL oder Pig. (Quelle: Bitkom)