Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

05.05.2006

"Datenflut zwingt zum Handeln"

Wolfgang Miedl arbeitet Autor und Berater mit Schwerpunkt IT und Business. Daneben publiziert er auf der Website Sharepoint360.de regelmäßig rund um Microsoft SharePoint, Office und Social Collaboration.
Das ungebremste Wachstum der Datenmengen hat mittlerweile alle Bereiche der geschäftlichen Informationstechnologie erfasst. Soft- und Hardwarehersteller versprechen den Anwendern, mit unterschiedlichen Strategien wie Virtualisierung oder Lifecycle-Management die Flut einzudämmen. Im Gespräch mit Vertretern von CA, Cisco, IBM, Hitachi Data Systems und Symantec diskutieren IDG-Redakteur Gerhard Holzwart und der freie Journalist Wolfgang Miedl.

? Wenn man die Storage-Thematik der letzten Jahre Revue passieren lässt, dann do-minierten Schlagworte wie Virtualisierung, Tiered Storage, Grid Computing, Server-Konsolidierung, SAN, und derzeit ist Information Lifecycle Management (ILM) ganz hoch im Kurs. Welche Themen haben denn aus Ihrer Sicht die größte Relevanz - und wie deckt sich das mit den Bedürfnissen der Anwenderunternehmen?

Hermann Wedlich: Virtualisierung ist nach wie vor wichtig, weil es die Basis bildet für weitere Technologien und die Speicherkonsolidierung. Service-Level-Aspekte spielen eine große Rolle, weil es zunehmend darum geht, unterschiedliche Arten von Information auf verschiedene Storage-Qualitätsstufen zu verteilen. Und ILM ist eigentlich kein neues Thema, bloß die Sichtweise darauf hat sich geändert. Heute geht es insbesondere darum, wie sauber die Information ist - auch hinsichtlich möglicher Sicherheitsrisiken. Firmen sollten in der Lage sein, die wichtigen Informationen aus der Datenflut herauszufiltern und zu kontrollieren. ILM darf man aber nicht auf Storage reduzieren. Im Zentrum steht die Information, und darum herum gruppieren sich die technischen und strategischen Aspekte wie Content-Management, Security-Management oder Archivierungsthemen.

Marcellus Scheefer: Virtualisierung ist längst über die Hypephase hinaus und hat sich etabliert. Sicherlich ist sie nicht für jeden Kunden interessant, zum Beispiel mit einer kleineren, homogenen und wenig wachsenden Umgebung, aber für viele andere ist das durchaus ein sehr reales Thema, das zeigen nicht nur die Verkaufszahlen von IBM. Ebenso ILM als die ganzheitliche Betrachtung der Dateninfrastruktur - daraus entwickeln sich dann zwangsläufig Themen wie Tiered Storage, Konsolidierung oder SAN.

Ulrich Hamm: Ich bin auch der Meinung, dass die Vorteile von Virtualisierung mittlerweile unumstritten sind, wobei natürlich die Vorgehensweise entscheidend ist. ILM ist teilweise alter Wein in neuen Schläuchen. Nach wie vor besteht dabei aber die Schwierigkeit, dass die IT ohne Hilfe der Anwender nichts klassifizieren kann, weil diese letztlich die Daten nach ihrer Wertigkeit und Zugehörigkeit klassifizieren müssen.

Robert Thurnhofer: Es heißt immer wieder, für ILM fehlen noch die Konzepte und die Technologien. Ich sehe es anders, da für mich ILM ein konzeptioneller, strategischer Ansatz ist, der erstmals mit Prozessen und nichts mit Technologien zu tun hat. Firmen machen ja zum Teil schon seit 20 Jahren ILM, ohne es zu wissen, zum Beispiel, indem sie eine Personalakte seit zwanzig Jahren aufbewahren. Das eine Art von ILM, die überhaupt nichts mit Technologie zu tun hat.

?Wo drückt die Anwender in Sachen Speicher heute der Schuh am meisten?

Hermann Wedlich: Sie können heute als Unternehmen nur bestehen, wenn sie Informationen über Kunden und über Kundenverhalten sammeln und relativ schnell und flexibel agieren. Diese Schnelligkeit erfordert ein geeignetes Medium, das den Informationsablauf oder Lifecycle unterstützt. Mit papierbasierender Kommunikation ist das nicht mehr zu leisten, aber tatsächlich gibt es noch immer viele Firmen, die mit Medienbrüchen arbeiten. E-Mail hat enorm an Bedeutung gewonnen, nachdem man lange Zeit geglaubt hat, es gehe hier um Unterhaltung über das Internet. Laut IDC fanden sich 2005 bereits 60 Prozent des geistigen Eigentums einer Firma im E-Mail-System. Und mal ehrlich - wer von Ihnen löst denn Informationen wie Powerpoint- oder Excel-Arbeitsblätter aus seinen E-Mails heraus und legt sie separat ab? Hier ist plötzlich eine Plattform geschäftskritisch geworden, und als IT muss ich das beim Speichern und Archivieren berücksichtigen. Aus all diesen Gründen hängt die Flexibilität eines Unternehmens ursächlich mit dem Speichern der Informationen und dessen Management zusammen. Früher war das trivialer, man hat gesagt: ?Konsolidieren Sie ihren Speicher, dann haben Sie einen höheren Nutzungsgrad, machen sie ein bisschen Backup, damit Ihre Daten gesichert sind.? Damit kann ich heute und zukünftig als Unternehmen nicht mehr überleben.

Marcellus Scheefer: Interessant ist ja die Frage, warum das Datenvolumen jährlich um bis zu 120 Prozent wächst. Der Mensch neigt offensichtlich zum Sammeln, und es wird ihm heute einfach gemacht, Information zu generieren und abzulegen. Hinzu kommen natürlich rechtliche Rahmenbedingungen, und teilweise spielt auch eine Verunsicherung herein, aus der heraus die Leute lieber zu viel als zu wenig speichern. Forscher der Universität Berkeley haben einmal untersucht, wie viel Information die Menschheit seit ihrem Bestehen insgesamt generiert hat - angefangen bei den Höhlenmalereien vor 40000 Jahren waren dies bis 1999 zwölf Petabyte an Daten. Aber von 1999 bis 2003 prognostizierte die Untersuchung zusätzlich 45 Petabyte. Wir müssen uns wohl mit dieser Tatsache arrangieren und geeignete Mechanismen nutzen, wie wir damit umgehen.

Georgios Rimikis: Man muss sowohl die Sichtweisen des Einkäufers, des einzelnen Anwenders wie auch des IT-Leiters berücksichtigen. Nimmt man alle drei zusammen, ergeben sich Anforderungen an Effektivität, Kontinuität und ökonomische Aspekte, die man dann in SLAs manifestieren muss. Wir haben im Rahmen des "Storage Index", einer Umfrage unter 840 IT-Verantwortlichen in ganz Emea, festgestellt, dass neben dem Datenwachstum vor allem die Sicherheit der Daten ein Problem ist, mit dem sich die Unternehmen nach wie vor stark auseinander setzen. Das bedeutet aber nicht, dass nur eine Angst vor Viren, Datendiebstahl oder Hackangriffen existiert. Die Befragten äußerten auch einen großen Respekt vor Naturkatastrophen - vor allem in Deutschland vor Wasserschäden durch Überflutungen. In anderen Ländern - wie beispielsweise in Israel - hat die Studie eine besonders hohe Angst vor Datenverlust durch terroristische Anschläge festgestellt. - Das bedeutet für uns als Speicherexperten, dass wir hier Beratung im Bereich Business Continuity und Desaster Recovery leisten müssen.

?Auf welche Weise helfen Sie Ihren Kunden bei ihren Sorgen mit der Datenflut? Verkaufen Sie nur Technologie, oder bieten Sie auch umfassende Beratung an?

Ulrich Hamm: Zwischen Technologie und Beratung würde ich in diesem Zusammenhang keinen großen Unterschied machen, denn die Kunst an der Sache ist mittlerweile, anhand der Anforderungen ei-nes Unternehmens die richtige Lösung herauszufinden. Hier geht es um das Übersetzen der Geschäftsanforderungen in Richtung Technologie, dazu ist natürlich einiges an Beratung notwendig. Aber um noch einmal darauf zurückzukommen, wo die Anwender der Schuh drückt: Ich denke, heutzutage ist Effizienz und Flexibilität gefragt. Die Wartung verschlingt ja einen Großteil des IT-Budgets, da bleibt für Innovation zu wenig übrig. Und ILM, da stimme ich ihnen zu, ist ein Prozess, und darunter liegt eine Technik, die ich entsprechend den Anforderungen auswählen kann.

Robert Thurnhofer: Eines der Hauptprobleme der Kunden ist, die Anforderungen klar zu definieren, dadurch wird es schwer, die richtigen Technologien abzuleiten. Das Ganze hängt auch mit der zunehmenden Verschmelzung zwischen dem IT-Betrieb und den Fachabteilungen zusammen, wie man am Beispiel der Compliance-Thematik sieht. Eigentlich hat sich hier ja in den letzten vier, fünf Jahren für die Betriebe gar nichts Fundamentales geändert, aber seit den Finanzskandalen in den USA vollzog sich ein Bewusstseinswandel. Die Leute haben gemerkt, dass die Zusammenarbeit zwischen IT und Fachabteilungen wichtig ist. Compliance ist aber deshalb noch lange kein IT-Thema, denn eigentlich müssten die Fachabteilungen den IT-Leuten sagen, wie sie das umzusetzen haben: Was also zum Beispiel sicher aufbewahrt werden muss, was wie lange nicht wieder beschreibbar oder revisionssicher aufbewahrt werden soll und so weiter. Das alles sind eigentlich nicht die Aufgabe der IT.

Georgios Rimikis: Die IT muss die Hilfsmittel zur Verfügung stellen, damit diese Probleme so gut wie möglich gelöst werden. Um diese richtigen Hilfsmittel und Methoden zu finden, steht zu Beginn die Analyse des Problems. Diese kann nur über eine tief gehende Diskussion zusammen mit dem Kunden geleistet werden. Wichtige Voraussetzung auf Anbieterseite ist die Erfahrung und die Konzentration auf das eigentliche Fachgebiet - in diesem Fall die "Speicherung von Daten" - mit der Fähigkeit, über den Tellerrand hinauszuschauen und auch die dahinter liegenden Geschäftsprozesse zu verstehen. Dieser Blick erstreckt sich vom Speicher, dem Fundament, über die Applikationsebene bis hin zur eigentlichen betriebswirtschaftlichen Betrachtungsweise des Unternehmens. Es geht darum, eine Brücke zwischen der IT und dem Geschäftsprozess zu schlagen.

?Wie kommt es, dass beim Thema Compliance immer noch so viel Verunsicherung oder auch Desinteresse besteht?

Ulrich Hamm: Aus meiner Sicht krankt es beim Thema Compliance daran, dass die Hersteller und Berater nicht so richtig klar machen konnten, was denn all diese Richtlinien wie GDPdU, Basel II und so weiter bedeuten. Manche Anwender denken vielleicht, dass das Thema übertrieben wird, aber vor allem wissen die wenigsten, was das konkret für sie bedeutet. Ich glaube auch, dass noch einige Antworten offen sind. Ich sehe da Parallelen zum 11. September 2001: Vorher war das alles relativ theoretisch, hinterher gab es einen Boom im Bereich Desaster Recovery.

Hermann Wedlich: Ich habe Informationen von Juristen, die besagen, dass sich in Sachen Einhaltung von Richtlinien im Grunde in den letzten Jahren bei der Rechtssprechung nichts verändert hat. Was sich allerdings geändert hat, sind die Anforderungen an die Transparenz bei den geschäftlichen Prozessen. Sowohl der Gesetzgeber als auch Geschäftspartner stellen diesbezüglich höhere Anforderungen, die bei Nichteinhaltung entsprechende Strafen oder geschäftliche Nachteile mit sich bringen. Für die Anwender ist das natürlich schwierig, denn die würden ja schon gerne wissen, welche Maßnahmen in Sachen Compliance sie denn ergreifen sollen. Und auch wir als Hersteller sind ja nicht in der Lage, eine Rechtsberatung beim Kunden zu leisten.

Robert Thurnhofer: Ich glaube auch nicht, dass wir das leisten könnten. Und die, die Sachkompetenz hätten, die großen Beratungsunternehmen, treiben aus meiner Sicht das Thema nicht ausreichend voran.

?Kann es nicht auch sein, dass man sich als Anwender ein bisschen erpresst fühlt, wenn ein Anbieter beim Verkauf juristische Argumente anführt?

Robert Thurnhofer: Das Kernthema ist, dass es für den Kunden um Lösungen für ein Problem geht. Wenn er das Problem versteht, hat er auch Interesse an einer Lösung. Aber mit genau diesen rechtlichen Aspekte tut sich die Branche eben schwer. Man versteht das Problem nicht vollständig, weil es nicht zur Kernkompetenz der IT-Beratung gehört.

Hermann Wedlich: Muss es denn eigentlich immer ein juristisch begründetes Problem sein, oder kann man nicht auch mit Problemen argumentieren, die aus der Praxis einleuchten? Wenn Sie zum Beispiel Vereinbarungen und Verträge mit Geschäftspartnern in Form von E-Mails austauschen, leuchtet die potenzielle Problematik ja auf Anhieb ein. Was sagen Sie denn Ihrem Finanzamt, wenn es von Ihnen einen Auszug aus Ihrem E-Mail-Verkehr mit einem Geschäftspartner verlangt? ?Tut mir Leid, aber die Daten habe ich in meinem E-Mail-Account, das dauert jetzt ein paar Wochen, bis ich das rausfiltern kann?? Die Behörde wird antworten, dass Sie zwei oder zehn Tage Zeit haben, sonst werden Sie geschätzt. So etwas ist per se kein juristisches Szenario, aber es ist realistisch. Das kann zu einer gewissen Eigenmotivation führen, weil Sie möglicherweise finanziell geschädigt werden.

Robert Thurnhofer: Der Kunde muss seine Anforderungen kennen und verstehen. Wenn er zu seinem Technologieanbieter sagt ?Wie lange muss ich diese Daten aufheben??, dann kann er keine fundierte Antwort erwarten.

?Von Ihnen als Hersteller dürfen sich die Kunden also keine Hilfestellung erwarten?

Hermann Wedlich: Gemeinsam mit Beratungsunternehmen können wir das schon leisten, weil die die Kompetenz für genau diese Themen haben. Wir arbeiten mit verschiedenen Anbieter zusammen, um die Kunden bei eben dieser Übersetzungsarbeit zu unterstützen - insbesondere im Mittelstand, wo viele Firmen Schwierigkeiten haben. Ein wichtiger Punkt ist hierbei auch, dass wir uns alle weg vom Produktverkauf und hin zum Lösungsverkauf bewegen. Man muss dabei aber auch betonen, dass das gar nicht so leicht ist, einen produktgetriebenen Vertrieb auf einen Lösungsvertrieb umzu-stellen. Aus Sicht des Kunden ist es natürlich schon ein entscheidender Unterschied, ob er sagt, er möchte ein Backup-Produkt kaufen, oder ob er sagt, er hat ein Problem mit seiner Datenhaltung.

Sind die Verkäufer entsprechend vorbereitet, dann analysieren sie erstmal seine Schwachstellen, ohne dass schon ein Berater oder System-Engineer vor Ort sein muss. So etwas können allerdings nur wenige große Anbieter leisten - eine Vertriebsmannschaft, die nicht in erster Linie nach Verkaufsmöglichkeiten schaut, sondern erst einmal versucht, den Kunden kennen zu lernen.

Robert Thurnhofer: Also es sollte generell nicht mehr darum gehen, was ein Produkt kann, sondern was es einem Kunden bringt. Ein zweiter Punkt, der mir auffällt, ist: Wenn wir über Storage-Management reden, wird meist sehr hardwarelastig diskutiert. Das liegt wahrscheinlich auch an der Übersetzung von Storage in Speicher. Dabei sollte es primär um das Informations- beziehungsweise das Daten-Management gehen - in Verbindung mit Hardware.

Ulrich Hamm: Ich sehe das genau so wie Sie. Das Problem ist aber doch, dass Sie diese Themen mit Leuten diskutieren, die für den Speicher an sich verantwortlich sind. Da sind Sie dann eben sehr schnell in dieser Hardware- oder infrastrukturnahen Diskussion drin.

?Inwieweit spielt denn das Thema Kosten beziehungsweise das Versprechen der Einsparung von Kosten durch neue Speicherlösungen in ihren Gesprächen mit den Kunden eine Rolle?

Hermann Wedlich: Sicherlich geht es heute oftmals um Einsparungen, und wenn die Budgets auf dem gleichen Level bleiben, dann muss dafür noch mehr als bisher geleistet werden. Tatsache ist aber aus unserer Sicht zunächst einmal, dass Datenmengen wachsen. Wenn ich ein Datenwachstum habe, stellt sich die Frage, ob ich das alles auf meinem vorhandenen Speicher ablegen kann. Der Kunde möchte natürlich alle Daten, die für ihn wichtig sind, speichern, und zwar nach dem Grad der Wichtigkeit und auf eine möglichst kostengünstige Art und Weise. Dazu braucht er ein hervorragendes Storage-System, das optimal ausgenutzt wird - denn die maximale Ausnutzung des Speichers ist Kosteneinsparungsfaktor Nummer eins.

Der zweite Kosteneinsparungsfaktor liegt in der Vorfilterung, zum Beispiel bei E-Mails. 60 Prozent der E-Mails die Sie heute bekommen, haben mit Spam zu tun. Wenn Sie das wegfiltern und gar nicht erst speichern, haben Sie schon viel Platz gespart. Dann gibt es über die Virtualisierung weitere Möglichkeiten der Effizienzsteigerung: Man stellt dabei für verschiedene Geschäftsbereiche Speicher zur Verfügung, ohne dass Applikationen an bestimmte Speichersysteme gebunden sind. Storage lässt sich dann in bestimmten Qualitätsstufen von Bronze bis Gold anbieten, wobei zum Beispiel das ERP- und das Finanzsystem auf Gold liegen, der Personalabteilung wird Bronze zuge- wiesen.

Marcellus Scheefer: Sie verkaufen heute nichts ohne guten Preis, wie man am enormen Preisverfall bei Festplatten sieht. Der Kunde macht eine TCO-Analyse, um zu prüfen, ob eine bestimmte Technologie Sinn ergibt, dann unterhält er sich mit ein paar Herstellern und entschiedet sich für ein Produkt. Der Preisdruck ist hier schon massiv. Wenn ich andererseits als Hersteller über Lösungen spreche, dann fehlt dem Kunden die subjektive Vergleichbarkeit - da kommt es auf ein sehr gutes Vertrauensverhältnis an.

Robert Thurnhofer: Gerade bei den Subsystemherstellern habe ich oft das Gefühl, dass so zwischen den Zeilen mitschwingt: Konsolidieren ist gleich sparen. Damit habe ich persönlich immer ein Verständnisproblem, denn konsolidieren bedeutet für mich erst einmal, viele unterschiedliche Dinge unter einen Hut zu bringen. Ob das aber deswegen billiger, kostengünstiger oder sparsamer ist, ist damit noch lange nicht gesagt.

Georgios Rimikis: Ich habe eine andere Ansicht von Konsolidierung. Hier werden viele Systeme, die Ähnliches leisten, in ein oder wenige Einheiten überführt. Dies bedeutet nicht nur die Vereinfachung der IT-Landschaft, sondern optimiert die Admi- nistrationsprozesse - wie beispielsweise für Backups. Das spart aber nicht nur Management-Kosten, sondern auch Lizenzen, die nun auf weniger Systemen eingesetzt werden müssen. In großen, heterogenen Umgebungen spielt heutzutage Speichervirtualisierung bei der Konsolidierung eine beträchtliche Rolle.

Marcellus Scheefer: Ich glaube, Virtualisierung ist ein gutes Beispiel für den Einstieg in die Kostenersparnis. Unter TCO-Gesichtspunkten hat der Kunde einen Vorteil, weil er eine Abstraktionsschicht einzieht und somit heterogen bleiben kann. Von 50, 60 Prozent Speicherauslastung im offenen Umfeld, kommt man so schnell auf 80 Prozent Auslastung. Man gewinnt 20 Prozent Speicher, ohne dass man investieren muss, und so ein Terabyte Speicher kostet ja etwa 20 000 bis 25 000 Euro.

?Virtualisierung ist also der Königsweg zur Kostenersparnis?

Robert Thurnhofer: Ich glaube nicht, dass man Speicher sparen kann über Virtualisierung. Damit sage ich dem Kunden nämlich nur die halbe Wahrheit. Das Einzige, was ich spare oder was ich effizienter nutzen kann mit Hilfe der Virtualisierung, ist der freie, nicht belegte Speicherplatz, eine bessere Nutzung des bereits belegten Speicherplatzes sehe ich hier nicht.

Marcellus Scheefer: Natürlich spielt auch die Unternehmensgröße eine Rolle. Wenn man nur einen IT-Lieferanten hat, braucht man doch nicht zu virtualisieren, aber wenn man zwei oder drei Hersteller im Haus hat, ergibt das schon Sinn.

Georgios Rimikis: Es geht bei Einsparungen durch Virtualisierung nicht nur um unbelegten Speicher, der nun effizienter nutzbar gemacht wird. Es geht um mehr. Virtualisierung erweitert den Umfang an Funktionalitäten, den manche Systeme nicht besitzen und durch den sie eine Virtualisierungsschicht erhalten. Dies ist keine Theorie, sondern seit Einführung unserer TagmaStore Universal Storage Platform(USP) im September 2004 haben wir bereits zirka 3000 Systeme bei Kunden weltweit installiert.

Robert Thurnhofer: Zu mir hat einmal ein Kunde gesagt: Wenn ich heute weiß, was ich morgen an Speicherplatz brauche, dann zahle ich den Preis des Herstellers. Wenn ich heute weiß, was ich in einem Jahr an Speicherplatz brauche, dann bezahle ich meinen Preis. Das sagt mir, dass die Speicherplatzentwicklung für einen Kunden schon ein primäres Kosten-Management-Thema ist. Die Anwender fragen sich doch auch, welche Daten sie überhaupt noch brauchen, welche Daten an welchem Ort ge- speichert sind und ob überflüssige Daten, etwa von Testinstallationen, vorhanden sind. Diese Fragen sollte man nicht unterschätzen, denn wenn man plötzlich 30 Prozent Altdaten entdeckt, die kein Mensch mehr braucht, kann das schon einen Einfluss darauf haben, ob ich in ein neues Subsystem investiere oder nicht.

?Sind solche Vorbehalte gegenüber der Virtualisierungstechnik nicht irrational?

Ulrich Hamm: Viele Kunden fürchten die Komplexität einer Virtualisierungslösung. Schließlich trennt man sich dabei ja wirklich von der Sicht auf die Hardware, die Daten liegen dann irgendwo, und die Leute fragen sich, ob sie ihre Daten noch voll im Griff haben. Trotz einer guten TCO- oder RoI- Betrachtung besteht da oft noch Skepsis. Virtualisierung ist deshalb auch ein psychologisches Problem. Erinnern Sie sich noch an die Lochkarten von früher? Da hat man immer gewusst: Hier sind die Daten gespeichert, und man konnte seine Daten mitnehmen. Heute sind die Daten irgendwo verteilt, aber man kann nicht sagen, wo welche Daten sind.

Robert Thurnhofer: Die Vertrauensthematik wird meines Erachten unterschätzt, denn man muss sich ja im Klaren sein, dass es bei den Daten um das sensibelste, wertvollste Gut eines Unternehmens geht. Ich glaube, da sind wir uns alle einig. Wenn man in der Vergangenheit, eine Handvoll Storage-Subsysteme in verschiedenen Schränken hatte und wusste: das ist das SAP-System, das ist das Exchange-System, das ist das Warenwirtschaftssystem, dann hatte man das gute Gefühl, auch bei einem Ausfall noch alles einigermaßen unter Kontrolle zu haben. Jetzt haben die Leute das Gefühl, nicht mehr zu wissen, was an welcher Stelle los ist. Die Komplexität wird höher, und daran müssen sich die Nutzer erst einmal gewöhnen

?Darf ich jeden von Ihnen in einem abschließenden Statement noch einmal um die Einschätzung der Entwicklung im Speichermarkt und beim Information-Management bitten? Welche Trends spielen aus Ihrer Sicht eine wichtige Rolle?

Robert Thurnhofer: Der Haupttrend geht aus meiner Sicht weg von der technologieorientierten Diskussion. In der IT muss man sich wieder auf die eigentlichen Ziele des Unternehmen konzentrieren. Wir haben das für uns in die vier strategischen Bereiche Manage-Cost, Manage-Risk, Improved Service und Aligned Business zusammengefasst - unabhängig von all den notwendigen Technologien, die sich im Einzelfall dahinter verbergen beziehungsweise mit denen die einzelnen Ziele erreicht werden können. Das zweite wichtige Thema sehe ich in der Abstimmung zwischen IT-Abteilung und Fachabteilung: Der IT-Leiter wird über kurz oder lang zum Trusted Advisor. Und eine Konsequenz daraus ist, dass sich die IT-Abteilung vom reinen Cost-Center hin zum Profit- oder zum Service-Center entwickelt. Genau bei dieser Entwicklung werden wir den Kunden helfen und sie mit unseren Management-Lösungen unterstützen.

Ulrich Hamm: Unsere Ziele sind Verbesserung der Effizienz sowie mehr Agilität und Flexibilität in den Geschäftsprozessen. Wir haben dazu entsprechende Architekturen definiert, etwa die serviceorientierte Network-Architecture oder die Data-Center-Network-Architecture, mit dem Ziel, mehr Intelligenz in das Netzwerk hineinzubringen und eine bessere Verzahnung mit den Schichten darüber zu erzielen. Ausgehend davon ist unsere Strategie grob gesagt Standardisierung, Zentralisierung, Konsolidierung. Darauf aufbauend kann ich dann unterschiedliche Bereich virtualisieren und im nächsten Schritt beginnen, Dinge zu automatisieren oder auszulagern. Wir arbeiten natürlich auch mit unterschiedlichen Herstellern zusammen, ob auf Speicherseite oder auf Serverseite.

Marcellus Scheefer: Die Annäherung von Business und IT wird weitergehen, insbesondere aufgrund der äußeren Einflüsse. Was das Pro und Kontra bezüglich von Lösungen betrifft, sagen uns die meisten Analysten - und auch wir sehen das so - , dass die Investitionen innerhalb der Unternehmen immer mehr in Richtung integrierte Lösungen gehen. Die Kunden werden sich verstärkt Partnern zuwenden, die in der Lage sind, ein entsprechendes Portfolio anzubieten. Unsere Systems-Agenda, die das komplette Systemshardware- und Softwareportfolio umfasst, baut darauf, alles zu virtualisieren, sie basiert auf offenen Standards, um dem Kunden eine möglichst einfache Integration seiner Applikationen zu ermöglichen, und verpflichtet IBM, herstellerübergreifend zusammenzuarbeiten, um Innovationen durch Synergien zu ermöglichen. Dem nachgelagert adressieren wir mit unserem Total-Storage-Portfolio die drei großen Themen Infrastructure Simplification, Business Continuity sowie ILM als ganzheitlichen Ansatz mit all den Archivierungs- und Compliance-Aspekten. Damit sehen wir uns strategisch und technologisch für die nächste Zeit im Markt hervorragend positioniert.

Georgios Rimikis: Unsere Strategie heißt "Application Optimized Storage". Es geht im Endeffekt um die Abstimmung zwischen Applikationen und Speicher. Dabei spielt gerade Virtualisierung für uns eine sehr wichtige Rolle. Ich möchte hier noch mal den erwähnten Gartner-Report zitieren: Das nächste "Big Thing" wird die Virtualisierung und Partitionierung auf Speichersystemebene sein. Partnerschaften mit Software-, Service und Hardwarelieferanten spielen für uns eine sehr wichtige Rolle auf diesem Weg, etwa auf dem Archivierungssektor, auf dem Speichersektor und insbesondere bei ILM. Partnerschaften bieten die notwendige Flexibilität, um dem Kunden die für ihn optimale Lösung aufzusetzen.

Hermann Wedlich: Wir wollen den Kunden helfen, Business und IT zusammenzuschweißen, um flexibler und wettbewerbsfähiger zu sein. Im Infrastrukturbereich zählt dazu Speichervirtualisierung, und zwar über alle Hardwarehersteller hinweg. Das Zweite ist der Informationsbereich, wo unserer Meinung nach ILM und Daten-Management wichtig geworden sind. In diesem Zusammenhang sind Sicherheitsaspekte, aber auch Filter- und Content-Management-Aspekte wichtig. Wenn es um Storage-Vernetzung geht, wird das Thema Grid an Bedeutung gewinnen, ebenso Service-orientierte Architekturen. Und nicht zu unterschätzen ist die Vertrauensthematik, also Trusted Computing. In einigen Teilbereichen arbeiten wir eng mit anderen Herstellern zusammen, um den Kunden ein besseres Gefühl für ihren Speicher zu geben, damit sie den Automatismen trauen und gleichzeitig den maximalen Nutzen aus ihren Systemen ziehen.

Vielen Dank für das Gespräch.