Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

31.07.1998 - 

Illuminata-Studie präsentiert Gewinner und Verlierer

Große Datenbank-Server machen NT keine Freude

Der Report zeigt ferner, daß die schwergewichtige DV der Hochleistungs-Server den Anwender zunehmend günstiger kommt als noch vor zwei, drei Jahren. Illuminata-Analyst Jonathan Eunice belegt, daß Spitzenmaschinen etwa für Data-Warehouse-Aufgaben innerhalb der vergangenen 30 Monate im Preis-Leistungs-Verhältnis um den Faktor 42 gefallen sind.

Eunice legt seiner Gegenüberstellung verschiedener Server-Typen den TPC-D-Benchmark zugrunde. Dieser dient ihm zum Vergleich der unterschiedlichen Rechenleistungen. Vor allem aber ermittelt der Analyst auf diese Weise, wieviel der IT-Verantwortliche für welche Leistung zu zahlen hat. Der TPC-D-Benchmark hat sich als Industriestandard durchgesetzt, wenn es darum geht, Rechner auf ihre Kapazitäten und Tauglichkeit in Data-Warehouse-Umgebungen zu vergleichen.

Noch vor zweieinhalb Jahren reichten lediglich die IBM und Tandem - letzteres gehört jetzt zu Compaq - TPC-D-Ergebnisse ein. Heute tun dies eine ganze Reihe von Herstellern, die den Data-Mart-, Data-Warehouse- und Datenbankmarkt mit ihren Rechnern beliefern. Die Mehrzahl bedient Anwendungssegmente, in denen Datenmengen von 100 bis 300 GB oder 1 TB anfallen.

Rund 4,5 Millionen Mark kostete Anfang 1995 ein System, das in der Lage war, eine 100 GB große Datenbank für eine Data-Mart-Anwendung zu bearbeiten. Um Abfragen in halbwegs befriedigenden Antwortzeiten erledigen zu können, mußten Anwender dabei auf großkalibrige 32-Prozessor-Maschinen zurückgreifen. Heutzutage, rechnet Eunice vor, bieten Intel-basierte Server die sechseinhalbfache Rechenleistung zu einem Siebtel der Kosten. Mit Intels Xeon-CPUs und anderen Prozessorgenerationen wird sich dieses Verhältnis zusätzlich enorm verbessern.

Gemessen an ihrer Rechenleistung können inzwischen alle Server-Anbieter mit Systemen aufwarten, die für das 100-GB-Segment, also für Data-Mart-Anwendungen, tauglich sind. Eunice räumt aber in seinem Bericht mit einigen Marketing-Versprechungen der Anbieter auf, mit denen IT-Verantwortliche geködert werden sollen. Denn schon, wenn es gilt, Datensilos bis 300 GB mit erträglichen Antwortzeiten durchzuarbeiten, trennt sich die Spreu vom Weizen: Server von der Stange wie die von Compaq oder Dell sind hier schon nicht mehr leistungsstark genug, schreibt Eunice mit Blick auf die TPC-D-Resultate.

Als Hemmschuh erweisen sich übrigens nicht die Prozessoren von Intel, sondern vielmehr das Betriebssystem Windows NT. Eunice verweist auf die Tatsache, daß NCR, Anbieter des leistungsstärksten Datenbanksystems Teradata, in seinen Servern ausschließlich Intel-CPUs einsetzt.

Allerdings brauchten Anwender schon zur Bewältigung eines Datenvolumens von 300 GB Systeme mit zwölf Prozessoren und mehr. Solche Maschinen laufen - vor allem wegen der mangelnden Skalierfähigkeit des Microsoft-Betriebssystems - nicht mehr unter NT. In diesem Leistungsbereich regiert Unix.

Ab einer Größenordnung von 1 TB konkurrieren nur noch NCR, IBM mit ihren RS/6000-SP2-Maschinen und Sun mit den "Ultra-Enterprise"-Systemen miteinander. Drei TB und mehr schultert lediglich NCRs "Teradata"-Datenbanksystem.

Den heftigsten Wettbewerb liefern sich Hersteller von Hochleistungs-Servern bei Kunden, die mit Datenbeständen in der Größenordnung von bis zu 100 GB arbeiten. Wegen des starken Wettbewerbs ist in diesem Segment der Preisverfall auch am größten und die technologischen Neuerungen am hervorstechendsten.

Doch der Konkurrenzdruck macht auch vor den wenigen Anbietern nicht halt, die Hardwarelösungen für die Bearbeitung von Monster-Datenbanken von 1 TB anbieten. Auch hier wird das Preis-Leistungs-Gefüge zunehmend attraktiver werden, schreibt Illuminata.

Eine Trennlinie ist die 100-GB-Marke nach den Erkenntnissen von Illuminata auch, geht es um Empfehlungen für am Markt verfügbare Datenbankmaschinen: Oracle taugt zur Durchforstung von Datenvolumina bis 100 GB. Sind die Bestände größer, falle Oracle gegen die Informix- "XPS", IBM-DB2- und NCR-Teradata-Systeme ab. Heruntergerechnet auf den einzelnen Prozessoren wird die Leistungsdiskrepanz sogar noch größer.

Das Informix-System macht erstaunlicherweise sowohl in der 300-GB- als auch in der 1-TB-Klasse eine gute Figur. NCRs Teradata-Datenbankmaschine sei der Champion wenn es darum geht, eine sehr große Zahl von Prozessoren zu koordinieren. DB2 erweise sich als flexibelstes Produkt, lasse sich IBMs Datenbank doch sinnvoll sowohl auf Vier-CPU-Konfigurationen wie auch auf Maschinen mit mehr als 100 Prozessoren einsetzen.

Sowohl für Microsofts "SQL Server" als auch für die Datenbanklösung von Sybase liegen im Kreis der DV-Schwergewichte keine TPC-D-Benchmark-Ergebnisse vor. Jeder, schreibt Eunice, könne sich auf dieses Tatsache selbst einen Reim machen.

Illuminata hat noch ein interessantes Ergebnis zu Tage gefördert: Einmal abgesehen von NCR/Teradata-Systemen und IBMs RS/6000-SP2-Rechnern machen weder die Hersteller von massiv-parallelen Systemen noch Anbieter, die sich als Spezialisten für Data-Warehouse-Anwendungen empfehlen wollen wie Sequent oder Siemens-Pyramid, beim TPC-D-Benchmark eine überzeugende Figur. So übertreffe etwa Data Generals "AV2000"-Maschine die Rechenleistung von Sequent-Rechnern, die aber mehr als doppelt soviel kosten. Trotz der eingesetzten 96 Prozessoren lasse darüber hinaus etwa das Ergebnis der Siemens-Pyramid-Maschine Konkurrenzrechner richtig gut aussehen.

Übrigens hat die IBM für ihre S/390-Mainframes genausowenig wie für die AS/400-Datenbankrechner je TPC-D-Benchmark-Ergebnisse abgeliefert. Tandem hatte früher einmal Resultate eingereicht, diese aber zurückgezogen und seit 1997 keine neuen Werte mehr veröffentlicht.

Schließlich schreibt Eunice, vergleichsweise avantgardistische Technologien seien zwar durchaus als tüchtig zu bezeichnen. Sie böten aber beileibe noch nicht so große Vorteile, als daß sie für Anwender unentbehrlich seien. Der Illuminata-Mann zählt hierzu etwa 64-Bit-Designs, Cluster-Technologien oder Non-Uniform-Memory-Architecture-(Numa-)Systeme.

Im absoluten Hochleistungsbereich der Data-Warehouse-Anwendungen (3 TB und mehr) ist NCR, so eine letzte Betrachtung des Marktforschers, nach wie vor die erste und bislang auch einzige Wahl. Allerdings dürften die IBM und Sun Microsystems zumindest im Bereich 1 TB und mehr den teuren Teradata-Systemen künftig erheblich Konkurrenz machen. Sun zeige in der 300-GB-Klasse in puncto Preis-Leistung HP und Sequent ganz locker die Fersen. Im 1-TB-Bereich biete Sun sogar Data-Warehouse-Spezialist NCR die Stirn.

Noch ein Wort zu RISC contra CISC: Die Resultate für NCRs "Wordmark"-Server im Höchstleistungsbereich genauso wie die Ergebnisse diverser Intel-basierter Systeme im 100- bis 300-GB-Klassement zeigen, das die Leistungsdifferenz zwischen beiden Hardwareplattformen zunehmend schwindet.