Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

04.10.2007

Die Preise purzeln - auch im Outsourcing

Hartmut Stilp  und Hilmar Stock 
Wer im Outsourcing von sinkenden Hardwarepreisen profitieren möchte, muss sich informieren.

Outsourcing bedeutet, den Wettbewerb für die Dauer der Laufzeit auszusperren. Das kann fatale Wirkung zeigen, wenn etwa der Betriebsdienstleister Kosten oder technische Installation auf dem Stand der Vertragsunterzeichnung einfriert. So etwas geschieht kaum noch, weil Outsourcing-Kunden heutzutage von umfangreichen Erfahrungen profitieren. In aktuellen Verträgen werden üblicherweise Preisanpassungen und Innovationen festgeschrieben. Um in diesen Punkten jedoch kompetent mit dem künftigen Provider verhandeln zu können und das Outsourcing-Projekt zum Erfolg zu führen, ist eine genaue Kenntnis des Marktes wichtig. Dabei hilft ein Blick auf die bisherige Preisentwicklung, sie lässt Rückschlüsse auf künftige Einsparmöglichkeiten zu. Was das für die vergangenen Jahre bedeutet, zeigt die Auswertung ausgewählter Beispiele aus den Jahren 2004 - 2007 aus der Maxpert-Marktpreisanalyse exemplarisch für den Server- und Storage-Markt:

Hier lesen Sie ...

Warum Benchmarks in einer ausgelagerten Umgebung wichtig sind;

wie Outsourcing-Anwender die Kontrolle behalten;

Wie stark die Preise für Server und Speicher gefallen sind;

Wo leistungsstarke Midrange-Systems die Aufgabe von Highend-Maschinen übernehmen;

Welche Aufgaben künftig auf IT-Organisationen zukommen.

Transparenz im Outsourcing

Offenheit: Arbeitet der Outsourcing-Nehmer mit einem trans-parenten Preissystem, kann er sich Konkurrenzfähigkeit sichern, weil zeitgemäße IT-Kosten das Budget entlasten. Die Bereitschaft beider Partner zu regelmäßigen Preisanpassungen fördert zudem das Vertrauen und ein vertraglicher Passus zur regelmäßigen Kontrolle schafft ein Klima, in dem die Parteien auf Augenhöhe verhandeln.

Verbesserung: Die ständige Überarbeitung der technischen Infrastruktur gewährleistet, dass Anwenderunternehmen auch in einer Outsourcing-Umgebung von der hohen Innovationskraft der IT-Branche profitieren. In der Konsequenz bedeutet dies, dass auch zum Ende der Vertragslaufzeit eine aktuelle Installation betrieben wird. Hohe Kosten durch eine tiefgreifende Überarbeitung fallen dann nicht mehr an.

Preisanpassung: Gelänge es die Preisveränderung, die ja meistens ein Preisverfall ist, im Rahmen einer jährlichen Anpassung abzubilden, wäre die Outsourcing-Partnerschaft um eine wesentliche Qualität bereichert. Der Kunde zahlt dann nur die tatsächlichen und marktgerechten Preise.

Mehr zum Thema

www.computerwoche.de

597117: Outsourcing: Beim zweiten Mal wird vieles besser;

594267: Die Defizite der internen IT-Organi-sation;

1218895: Kommunikationskosten sparen mit Netz-Outsourcing;

590178: SAP-Outsourcing wird immer billiger.

Intel-Server holen auf

Es gibt einen Trend zu immer leistungsfähigeren Maschinen. Die Leistung der Cisc-Server (also Intel- und AMD-basierende Rechner) sowie der Risc-Server (typischerweise Unix-Rechner) hat sich innerhalb der vergangenen vier Jahre verdoppelt bis vervierfacht. Die Verbesserung ist nötig, weil neue Applikationen, Betriebssysteme und innovative Internet-Techniken permanent ein Mehr an Leistung einfordern.

Betrachtet man beispielsweise das Preis-Leistungsverhältnis von Risc- zu Cisc-Servern, bezogen auf 10 000 OLTP (Online Transaction Processing), so zeigt sich, dass die Risc-Maschinen stets teurer sind als Cisc-Ausführun-gen. In den Jahren 2004 bis 2007 zahlten Nutzer von Unix-Server mit zwei CPUs zwischen 50 bis 80 Prozent mehr, als Anwender, die sich für einen Server mit Intel- oder AMD-CPU entschieden haben. Im Markt für Server mit vier CPUs fällt der Preisunterschied nicht ganz so erheblich aus. Hier sind die Unix-Boliden etwa 15 bis 30 Prozent teurer.

Gleiche Leistung zu einem geringeren Preis warum also migrieren nicht alle Kunden auf die kostengünstigere Variante? Es gibt Anwendungsfelder, die die herkömmlichen Risc-Maschinen zwingend erforderlich machen. In einer gewachsene hochkritische Client-Server-Applikationen mit hoher Transaktionslast und komplexer Schnittstellenarchitektur fallen bei einer etwaige Migration hohe Kosten an, so dass sich ein Umstieg möglicherweise nicht lohnt. In einigen Fällen bleibt der Risc-Server also das System der Wahl. Doch angesichts der enormen Unterschiede im Preis-Leistungsverhältnis lohnt es, sich zumindest über die benötigte Performance Klarheit zu verschaffen und dort, wo möglich, die leistungsgleiche aber kostengünstigere Variante zu wählen. Daher sollten Outsourcing-Anwender schon zu Beginn der Verhandlungen darauf achtet, regelmäßige Benchmarks zu vereinbaren, um von diesen Effekten profitieren zu können.

HP steigert Serverleistung

Bei der Wahl des Herstellers hilft ebenfalls ein Blick auf die Entwicklung der vergangenen Jahre. Während Sun und Fujitsu Siemens ihre Rechner je nach Modell um das anderthalb bis dreifache hinsichtlich ihrer Leistungsfähigkeit verbessern konnten, hat Hewlett-Packard (HP) die Perfomance der hauseigenen Maschinen um das drei- bis vierfache gesteigert. Geholfen hat dabei nicht zuletzt die Einführung des HP Integrity Servers im Jahr 2004. Damit stieg HP zum Spitzenreiter in Sachen Leistung auf. Seitdem liefert sich der Anbieter ein hartes Kopf-an-Kopf-Rennen mit IBM um die Krone des stärksten Servers.

Der enorme Speicherhunger der Anwenderunternehmen, forciert unter anderem auch durch gesetzliche Anforderungen an Aufbewahrungsfristen, hat die Preisentwicklung noch gravierender als im Server-Umfeld beeinflusst. Das gilt insbesondere für Online-Speicher. Der Preisrückgang beläuft sich auf mindestens knapp 70 Prozent und erstreckt sich über alle Hersteller. In der Leistungssteigerung lässt sich ähnliches beobachten: Inzwischen gibt es im Midrange-Bereich beispielsweise bereits Systeme mit einer Kapazität von bis zu 120 Terabyte. Das war bis vor einigen Jahren nur den High-End-Angeboten vorbehalten. Auch die Transferrate erlebte im Verlauf der vergangenen vier Jahren einen Quantensprung auf vier Gbit/s.

Trend zu modularen Systemen

Die erheblichen Perfomance-Verbesserungen in Verbindung mit dem schnellen Preisverfall bringt zwangsläufig auch im Speichergeschäft die Frage nach der richtigen Produktstrategie auf die Agenda. Betrachtet man die Online-Speicher, die die Anbieter in das High-End beziehungsweise Midrange-Segment vekaufen, so zeigt sich, dass die Midrange-Festplatten bei gleicher Kapazität im Durchschnitt um 65 Prozent günstiger sind. Ein Wandel in der Technologielandschaft scheint zwangsläufig. Die Anbieter unterstützen diesen Trend. Sie offerieren vermehrt günstige und modular ausbaubare Kleinsysteme als auch reduzierte Varianten ihrer Großspeicher im Online-Segment. Auch im Geschäft mit Offline-Speichern haben sich in Folge der Umstellung von LTO2 auf LTO3 (LTO = Linear Tape Open) sowohl die Speichergeschwindigkeit als auch die Speicherkapazität verdoppelt. Die Preise fielen insgesamt um knapp zehn Prozent.

Preisverfall ist kein alter Hut

Dass Preise fallen und die Leistung dramatisch ansteigt, ist nur auf den ersten Blick eine Binsenweisheit des IT-Markts. Das Wissen um die Entwicklung in der Vergangenheit lässt Rückschlüssen auf die Zukunft zu. Schon die aus einer Marktanalyse abzuleitenden Erkenntnisse unterstützen IT-Manager bei der Suche nach einer tragfähigen Technik für die kommenden Jahre. Eine Empfehlung kann sein, der teueren Welt der Unix-Systeme wo möglich den Rücken zu kehren und die IT auf die inzwischen hochskalierbaren Intel- beziehungsweise AMD-basierenden Systeme zu migrieren. Dafür spricht nicht nur der Preis pro System, sondern auch die Kosten für Support und Wartung. Das macht Kapazitäten frei, die in einer ausgelagerten Umgebung ohnehin in neuen Bereichen sinnvoller eingesetzt werden: Life-Cycle- und Capacity-Management rücken in den Mit-telpunkt des Tagesgeschäfts ei-ner IT-Organisation. Wer seine Entscheidungen mit Augen-maß trifft, schafft den Spagat zwischen Kostenreduzierung und Innovationssprung und versetzt seine IT in die Lage, den Geschäftsbereichen Impulse für den Anwender aufzuzeigen und zu erschließen. (jha)