Diskussionsrunde mit Festplattenherstellern: neue Technologien, neue Anwendungen, neue Märkte

05.10.2006
Der Festplattenindustrie geht es gut, neue Märkte und neue Anwendungen beflügeln die Hersteller. In einer Gesprächsrunde in der ComputerPartner-Redaktion haben Hersteller über den Status quo im Markt berichtet - und Ausblicke gegeben.

Die Festplatte feierte am 13. September 2006 ihren 50. Geburtstag. An der prinzipiellen Technologie hat sich aber bis heute nichts geändert. Wo steht die Festplattenindustrie heute?
Otto Hinteregger: Ich glaube, dass vor 50 Jahren keiner vorhersehen konnte, dass vielleicht irgendwann einmal, wie in diesem Jahr, weltweit 400 Millionen Festplatten verkauft werden würden. Und dieses Wachstum wird sich fortsetzen.
Henrique Atzkern: Ich bin seit 14 Jahren in dieser Branche tätig. Als ich begonnen habe, sprachen wir noch von 20-MB-Festplatten. Inzwischen haben sich die Kapazitäten verzehntausendfacht. Nach 400 Millionen verkauften Platten in diesem Jahr rechnen auch wir mit einem weiteren Wachstum um die 100 Prozent pro Jahr.
Achim Schuster: Die Festplattenindustrie hat in den vergangenen Jahren eine sehr turbulente Zeit erlebt, und ich glaube persönlich, dass es auch noch viele weitere Jahre Festplatten geben wird. Allerdings bewegt sich die Harddisk zunehmend weg vom reinen PC-Markt in ganz andere Bereiche, wie CE und Mobilmarkt.
Daniel Mauerhofer: Die Entwicklung war rasant in den zurückliegenden fünf Jahren. Die Harddisk bewegt sich immer stärker weg vom reinen PC-Business und wird noch lange leben, auch wenn viele die Festplatte immer wieder für tot erklären.
Holger Kubsch: Ich bin mittlerweile im 15. Jahr bei Samsung. Wenn wir über den PC-Bereich reden, dann haben sich einige Schlüsselprodukte herausgebildet. Das sind logischerweise die CPUs, Speicher und Festplatten. Aber großes Wachstum wird aus dem CE-Bereich kommen. Heute bereits gehen zirka 40 Prozent des Marktes in diese Richtung. Und mit zunehmender Verbreitung von digitalen Medien und Inhalten wird der Speicherplatzbedarf weiter zunehmen.

Jetzt sind Platten mit bis zu 750 Gigabyte aktuell. Welche Kapazitäten sind in Zukunft zu erwarten?
Kubsch: Wir gehen davon aus, dass in den nächsten drei Jahren irgendwo in jedem Haushalt ein Speicherplatzbedarf von zirka zwei Terabyte benötigt wird. Diese Kapazität wird jedoch im gesamten Haus verteilt sein. Ein gutes Terabyte befindet sich zentral gelagert im Netzwerk. Darüber hinaus werden Desktop-PCs Festplatten mit Kapazitäten um die 500 GB haben. Der Rest verteilt sich auf MP3-Player, digitale Festplattenrekorder und Settop-Boxen.
Mauerhofer: Wir rechnen ungefähr mit 20 bis 25 Festplatten in jedem Haushalt in den nächsten Jahren.
Atzkern: Heutzutage befinden sich ja schon etwa fünf Festplatten im Hause, ohne dass sich der Anwender dessen bewusst ist. Fast jeder von uns hat zwei Computer – einen PC und ein Notebook. Dazu kommen ein oder zwei MP3-Player und ein digitaler Videorekorder. Das sind schon vier bis fünf Festplatten. Die Leute denken nicht daran, sondern nutzen die Platten einfach. Und je größer die Kapazitäten werden, desto seltener stoßen sie an ihre Grenzen.
In Zukunft spielt aber nicht nur die Kapazität eine Rolle, für bestimmte Anwendungen kommen noch andere Kriterien, wie beispielsweise Temperaturbereich und Schockfestigkeit, hinzu.
Schuster: Der Automobilbereich ist dafür ein klassisches Beispiel. Es gibt bereits Festplatten, die von minus 20 bis plus 85 Grad Celsius arbeiten können. Das Automobil ist der klassische Einsatzbereich für die Festplatte der Zukunft. Die Automobilhersteller kommen mit ihren zugegeben recht hohen Anforderungen zu uns, und wir versuchen, diese zu erfüllen. Hier wird sich in der nächsten Zeit noch einiges tun.
Fujitsu ist einer der ersten Hersteller, die komplett auf 2,5-Zoll-Platten umgeschwenkt sind. Wie sieht der Formfaktor der Festplatte der Zukunft aus?
Hinteregger: Wenn man sich jetzt diese 400 Millionen anschaut, die verkauft werden, und die Prognose für die nächsten Jahre, so sieht man hauptsächlich das Wachstum im Bereich bei 2,5 und 1,8 Zoll.

Ergibt es denn Sinn, noch weiter zu schrumpfen, oder ist bald beim Formfaktor die Endgröße erreicht?
Hinteregger: Früher oder später sicherlich, wenn man dann die Speicherdichten noch weiter erhöht. Momentan sehe ich den Trend, dass gerade 1,8 Zoll die optimale Größe ist. Vor einigen Jahren wurde speziell die 1-Zoll-Platte stark favorisiert, doch die wurde vom Markt nicht angenommen, und es geht verstärkt auf 1,8 Zoll zurück. In Zukunft, wenn es darum geht, Festplatten in Handys einzubauen, könnte wieder ein anderer Formfaktor in Frage kommen.
Kubsch: Für den 1,8-Zoll-Bereich gibt es auch andere Technologien, die als Konkurrenz zur Festplatte zu sehen sind. Und da ist eben – Stand heute – ganz klar zu sagen, dass der Platzvorteil, den eine Compact-Flash-Lösung bietet, vorhanden ist und der Kapazitätsvorteil, den eine Festplatte bietet, zunehmend geringer wird. Stichwort ist vielleicht dann Perpendicular Recording, was die Sache ändern könnte, wenn man in letzter Konsequenz dann von Faktor 10 spricht.
Das Problem bei den Festplatten ist doch eigentlich, dass sie nicht so schockresistent sind wie ein Flashspeicher.
Atzkern: Die Hersteller haben dieses Problem zum Großteil sehr gut gelöst. In den vergangenen Jahren sind Abermillionen MP3-Player mit Harddisk auf den Markt gekommen. Nennenswerte Ausfälle gibt es nicht. Das heißt: Die technischen Probleme sind recht gut gelöst.
Die Thematik Schockresistenz würde ich eigentlich nicht mehr so hoch hängen. Es ist sicher bei den Leuten in den Köpfen drin, dass eine Festplatte ein empfindliches mechanisches Gerät ist. Das ist sie auch in gewissem Sinne, aber längst nicht mehr so empfindlich wie früher.

Früher hat man immer gesagt, Festplatten dürfen nur waagerecht oder senkrecht eingebaut werden. Das ist ja bei den MP3-Playern heute gar nicht mehr möglich. Die werden oft in der Hosentasche getragen. Ist die Einbaulage bei heutigen Festplatten egal?
Atzkern: Alle Laufwerke sind extrem gewuchtet, alle Gewichte auf allen Drehachsen sind also gleich. Es werden nur von den Herstellern nicht alle Einbaulagen getestet, aber funktionell sind sie in allen Orientierungen über Kopf oder schräg funktionstüchtig.
Mauerhofer: Beispielsweise wird unsere Laptop-Platte gerne von Gamern benutzt und in allen möglichen Stellungen eingebaut – da war nie was.
Kubsch: Bis vor Kurzem hatten wir in den technischen Manuals entsprechende Hinweise zur Einbaulage. Die sind seit einigen Jahren verschwunden. Da es letztendlich auch darum geht, solide Produkte auf den Markt zu bringen und entsprechend geringe Ausfallquoten zu haben, nimmt man solche Hinweise nicht raus, wenn man es nicht wirklich verantworten könnte.

Hundertprozentige Schockresistenz bei unabhängiger Einbaulage bieten aber Flashspeicher. Wird Flash die Festplatte über kurz oder lang verdrängen?
Hinteregger: Bei den heutigen Kosten pro Gigabyte bei Flash gibt es keine Alternative zu Festplatten.
Atzkern: Vor allen Dingen bei größeren Kapazitäten, bei kleineren sehe ich doch schon erste Anlehnungspunkte.
Kubsch: Wenn man mit 2 GB auskommt, ist keine Festplatte notwendig. Aber die Inhalte kommen in der Regel nur von Festplatten; das heißt, wer MP3-Player mit Flash verwendet, hat irgendwo im Hintergrund Festplatten. Im untersten Kapazitätsbereich ist Flash ganz klar im Vorteil.
Mauerhofer: Flash hat seine Berechtigung, das ist ganz klar. Es wird vielleicht in Mobiltelefonen gewinnen, aber das stört uns überhaupt nicht.
Mobiltelefone sollen ja in Zukunft mit größeren Festplatten ausgestattet werden, weil man eben seine Datenbank im Telefon haben will. Und hier sind wieder Kapazitäten über 10 GB gefragt.
Kubsch: Heute verdoppeln sich alle zehn bis zwölf Monate die Flash-Kapazitäten; Damit ist absehbar, dass Anwendungen mit bis zu 10 GB in ein, zwei Jahren auch mit Flash realisierbar sein werden. Das Hauptunterscheidungsmerkmal ist die Anwendung, denn bei der mobilen Kommunikation ist Platz ein entscheidender Faktor ist, und hier ist Flash klar im Vorteil.

Samsung hat ja letztens eine Hybridplatte vorgestellt, die beide Welten miteinander verbinden soll.
Kubsch: Relevante Daten, die notwendig sind, um ein Betriebssystem zu booten, werden im Flash abgelegt, so der Grundgedanke einer Hybridplatte. Gleichzeitig sinkt der Stromverbrauch, weil die Spindelmotoren nur kurzfristig laufen müssen. Die Boot-Zeit verkürzt sich. Weiterhin sollen die Ausfallquoten geringer werden. Alle drei Faktoren prädestinieren Hybridplatten für den mobilen Bereich, und dort werden diese Platten auch zunächst eingesetzt werden.
Atzkern: Wie werden Hybridplatten erst mit Microsofts Windows Vista anbieten, denn erst Vista unterstützt diese Technologie. Das Betriebssystem managt nämlich die einzelnen Speicherbereiche. Um ein Word-Dokument zu speichern, muss die Platte nicht anlaufen, dazu reicht die Kapazität des Flashspeichers normalerweise aus. Das System muss aber die Platte erkennen und wissen, ob Flashspeicher vorhanden ist oder nicht. Erst das Betriebssystem bringt hier die Funktionalität.
Kubsch: Vom Prinzip her sind die Hybridplatten zwar transparent für das Betriebssystem, aber wir haben eine ganz herrliche Irritation bei Flashspeichern, das ist nämlich eine endliche Zahl von Schreibzkylen. Und genau das ist der ent-scheidende Punkt: Wenn ein Betriebssystem immer wieder eine Auslagerungsdatei in kurzen Zeiten neu schreibt, dann erreiche ich diese Grenzen, die ein Flashspeicher bietet, relativ schnell, und hier ist die Intelligenz des Betriebssystems gefordert.

Auch bei normalen Platten ist ein Cache eingebaut, dessen Inhalt allerdings bei Stromaus-fall verloren geht. Wird der in Zukunft noch vergrößert werden?
Kubsch: Das ist eine schwierige Frage. Ich habe die Erfahrung gemacht: Wenn es um den Verkauf der Festplatten geht, ist in vielen Bereichen die Größe des Caches kein wirkliches Argument. Hier muss man ganz klar den Markt unterscheiden in Platten, die in Consumer-PCs eingebaut sind, oder in externe Platten. Da ist, um ehrlich zu sein, keiner wirklich an der Cache-Größe interessiert. Es gibt sicherlich auch Anwendungsbereiche – Stichwort SCSI-Platten –, wo das schon ein gewichtiges Argument ist.
Mauerhofer: Der wirkliche Sprung war von 2 auf 8 MB, aber die Steigerung auf 16 MB spielt keine wirkliche Rolle. Cache ist ein Marketingargument. Man muss es einfach haben.
Schuster: Unter Umständen hat jedoch ein großer Cache seine Berechtigung. Zum Beispiel in automobilen Anwendungen, wenn es zu Schocks und Vibrationen kommt. Dann ist ein gewisser Teil der Daten im Cache eben gepuffert, und der Datenstrom reißt nicht ab.
Atzkern: Beim Thema Schockfestigkeit ist Cache schon wichtig, die meiste Zeit sollten eigentlich die Köpfe nicht über dem Medium sein. Das heißt, hier brauche ich Cache als Zwischenpuffer, der in Bruchteilen von Sekunden aufgefüllt ist. Danach fährt der Kopf wieder in seine Parkposition, und die Platte ist, wie Flash, schockresistent bis 1.500 G.
Ein Cache von 16 MB bringt schon einen Geschwindigkeitsvorteil. Aber das Management der Festplatten muss auch damit umgehen können. Einfach den Cache verdoppeln oder vervierfachen, ohne das Cache-Management zu verbessern, würde nichts bringen. Mehr Vorteile hätten allerdings neue Sektorengrößen von 512 Byte auf 1.024 oder 4.096 Byte pro Sektor. Das wäre die größte und beste Weiterentwicklung in den nächsten Jahren.

Spielt SCSI heute überhaupt noch eine Rolle?
Hinteregger: Sehr wohl. Der Markt ist nach wie vor da, wächst auch weiterhin, wenn auch nicht allzu stark. Es wird weiterhin eine Berechtigung geben für sogenanntes SCSI- oder SAS- oder Enterprise-Festplatten.

Was ist der Unterschied zwischen einer Enterprise- und einer Consumer-Platte?
Atzkern: Bei allen Unternehmensanwendungen ist es extrem wichtig, hoch zuverlässige und hoch leistungsfähige Platten einzusetzen. Dazu ein Beispiel: Um die gleichen Transaktionsleistungen zu schaffen wie eine High-End-Enterprise-Platte, braucht es drei Consumer-Platten. Man braucht viel größere Plattenfarmen, um den Transaktionsbedarf beispielsweise von Banken und Versicherungen abzudecken. Mit Enterprise-Laufwerken lässt sich die Zahl der Platten verringern und damit natürlich auch die Anzahl der Ausfälle insgesamt reduzieren, weil weniger Platten im Einsatz sind.
In Enterprise-Platten sind zudem sehr viele technische Details implementiert, beispielsweise zwei Prozessoren im Vergleich zu einem bei den PC-Laufwerken, die eine erhöhte Datensicherheit gewährleisten. Diese Sicherheit-Features will jedoch kein Mensch bezahlen, weder im CE-Bereich noch in der normalen PC-Welt. Durch den höheren Preis zeigt sich auch, warum dieser Markt nicht extrem wächst. Der Kostendruck im gesamten Markt führt dazu, dass auch Consumer- oder normale S-ATA-Platten hier eingesetzt werden, obwohl Enterprise-Laufwerke Pflicht wären.

Diese SAS-Platten, die aus dem Consumer-Bereich kommen, die sind doch eigentlich nicht ausgelegt für einen Betrieb rund um die Uhr, oder?
Atzkern: Ich denke, dass Platten von jedem Hersteller 24/7-tauglich sind, das heißt: Diese Laufwerke können rund um die Uhr arbeiten. Aufgrund der höheren Zahl von Betriebsstunden werden natürlich auch ein paar Laufwerke mehr ausfallen. Die Statistiken sprechen einfach dagegen, das ist ähnlich wie beim Auto: Wenn Sie 100.000 Kilometer im Jahr fahren, müssen Sie öfter in die Werkstatt und zum Service gehen, Sie werden viel-leicht auch mehr Reparaturen haben, als wenn Sie nur 20.000 Kilometer fahren. Und genau dieses Prinzip gilt auch bei all diesen Geräten, und die Festplatte ist ein technisches Gerät.
Man kann Consumer-Platten überall einsetzen, nur Leistungsanforderungen wie Datenbanken sind ganz klar der Bereich, wo Enterprise-Server-Platten zum Einsatz kommen sollten beziehungsweise müssen, weil man sonst einfach ein sehr hohes Risiko eingeht.
Wie vorher gesagt, werden wir bald mehrere TB über den Haushalt verteilt haben, wobei eine Platte permanent im Hintergrund im Netzwerk Musik und Videos aufnimmt. Auch diese Platte würde dann 24 Stunden an sieben Tagen laufen.
Kubsch: „24 Stunden sieben Tage“ ist heute kein Thema mehr. Das sind Spezifikationen, die auch für Consumer-Platten gelten. In Zukunft wird es jedoch S-ATA-Platten mit einem erweiterten MTBF-Bereich, gerade im Hinblick auf solche Anwendungen, geben.

Externe Festplatten werden im Moment verstärkt gekauft. Wenn Sie als Hersteller selber eine externe Festplatte auf den Markt bringen, dann wird dafür gesorgt, dass die Platte genügend gekühlt wird. Was aber, wenn ein Fremdanbieter sich einfach ein billiges Gehäuse in Taiwan besorgt und Ihre Platte einbaut? Die Platte überhitzt und geht kaputt. Kann ja passieren. Oder ist das völlig irrelevant?
Kubsch: Letztendlich ist es natürlich auch ein wirtschaftlicher Druck, der auf dem Hersteller der externen Platten lastet, um nicht allzu hohe Ausfallquoten zu haben und entsprechende Gehäuse zu beschaffen, die einen sicheren Betrieb eben gewährleisten.

Aber der Kunde sieht ja nur: externes Gehäuse, ist eine Samsung-, Hitachi- oder Seagate-Platte drin, geht kaputt – Platte ist Murks.
Hinteregger: Die Erfahrungen, die wir haben, sind an und für sich nicht schlecht. Wir sehen keine deutlich erhöhten Ausfallraten.
Atzkern: Natürlich kommen Ausfälle vor, und die Qualität der Gehäuse hat einen Einfluss darauf, wie viele Laufwerke ausgetauscht werden. Wenn eine Platte einen Defekt hat, und das wird über Testprogramme nachgewiesen, dann wird die Platte quasi in Garantie getauscht. Im Endeffekt ist es so, dass man nicht immer schlussendlich sagen kann, aus welchem Grund diese Platte jetzt defekt ist: Sie kann vom Tisch gefallen sein, weil jemand über das Kabel gestolpert ist oder weil sie überhitzt wurde. Im Endeffekt sind die Hersteller gefordert, auch für das Fehlverhalten beim Anwender Garantieleistungen zu erbringen.
Schuster: Hitachi hat keine eigenen externen Festplatten. Was wir machen, ist Folgendes: Wir bieten den Kunden an, ihre Gehäuse mit unseren Festplatten zusammen zu verkaufen unter einem eigenen Label, dass diese Kombination bei uns im Labor getestet wird. Das ist also eine Consulting-Leistung von Hitachi. Wie bieten das an und geben dann ein entsprechendes Feedback. Das ist sehr wertvoll und wird von vielen Kunden genutzt. Ich bin außerdem sicher, dass viele Endkunden gar nicht wissen, welche Festplatte in dem Gehäuse drin ist.
Hinteregger: Zumindest habe ich keine Statistiken, aber ich gehe davon aus, dass eine externe Festplatte deutlich weniger genutzt wird als eine eingebaute Platte. Insofern sind die Betriebszeiten wahrscheinlich relativ gering. Wenn dann irgendwas passiert, wenn die Platte runterfällt, was schon häufiger passieren kann, aber in der normalen Anwendung sehen wir keine größeren Probleme bei externen Festplatten.

Was geht bei einer Platte eher kaputt? Die Elektronik oder die Mechanik?
Atzkern: Ungefähr 30 bis 40 Prozent der Rückläufe sind mechanische Beschädigungen. Der Rest hat verschiedenste Ursachen. Dazu gehören beispielsweise Überspannungsschäden von defekten Netzteilen, die quasi die gesamte Elektronik zerstören. Weiterhin übersteigen die Mediendefekte die Elektronikdefekte noch um den Faktor 2, abgesehen von extern zugeführten Beschädigungen.
Schuster: Wir klassifizieren im OEM-Bereich auch Festplatten nach Ausfallgründen. Und da hat sich herausgestellt, dass ein Drittel der Rückläufer auf Fehler des Anwenders beziehungsweise des Assemblierers zurückzuführen ist, ein weiteres Drittel weist gar keine Fehler auf und der Rest sind tatsächlich Herstellerdefekte.

Vor ein paar Jahren ging ein großer Aufschrei durch die Presse, die Festplattenhersteller hatten ihre Garantiezeit auf ein Jahr gesenkt. Da war richtig was los. Und jetzt haben alle wieder die Garantiezeit auf mindestens drei Jahre angehoben.
Atzkern: Die Garantie müssen Hersteller mit Rückstellungen abdecken. Der Versuch, auf ein Jahr zu gehen, sollte die finanziellen Mittel, die durch Rückstellungen gebunden sind, für anderweitige Verwendungen freimachen. Der Markt in Deutschland hat natürlich mit 24 Monaten Gewährleistung diesen Aufschrei verursacht. Dabei ist aber noch zu unterscheiden zwischen Garantie und Gewährleistung, was viele im Markt draußen nicht verstanden haben. Das führt natürlich zu Streit zwischen dem Händler und dem Kunden und natürlich auch zwischen Händler und dem Lieferanten oder dem Hersteller. Darum ist man jetzt mit diesem Schritt auf drei Jahre einfach wieder aus dem Weg gegangen.
Kubsch: Letztendlich ist es ja so, dass der moralische Verschleiß einer Platte, also der Zeitpunkt, bis zu dem eine Platte vom Einsatz her interessant ist, halt sehr viel schneller geht, als typischerweise die Garantieleistungen heute auffangen. Wer wird heutzutage noch eine Festplatte reklamieren, die vor fünf Jahren gekauft wurde und eine Kapazität von 10 bis 20 GB hat?

Gibt es überhaupt noch solche Platten mit diesen kleinen Kapazitäten, und wer will die?
Mauerhofer: In Osteuropa gibt es noch vielfach Händler, die nach kleinen Platten fragen.

Ergibt es denn überhaupt Sinn, solche kleinen Platten zu bauen?
Schuster: Zumindest im Bereich 40 und 80 GB kann man sagen, dass der preisliche Unterschied bei ein bis zwei Dollar liegt. Im Business-Bereich ist vielfach eben eine höhere Speicherkapazität nicht gewünscht. Das sind typischerweise Lösungen, bei denen die Daten in zentralen Netzwerken liegen. Höchstens noch das Betriebssystem und die Applikationen befinden sich auf der lokalen Platte. Und in dem Bereich kann man diese ein bis zwei Dollar in der Tat sparen.
Mauerhofer: Ich meine, heute bauen wir noch 160 GB mit einer Platte. Insofern lohnt es sich nicht, 120 GB zu bauen, weil man da zwei Platten mit mehr Köpfen braucht. Das kostet.
Atzkern: Gewisse Kapazitätspunkte haben keinen Sinn, weder technisch noch wirtschaftlich. Der Markt fordert aber immer noch diese Kapazitäten, und dem wird Rechnung getragen.

Das heißt, via Firmware wird die Platte bei 40 GB geblockt?
Atzkern: Es geht ein wenig schneller in der Produktion. Man muss jetzt nicht die gesamte Scheibe formatieren, sondern nur einen Teilbereich. Wirtschaftlich ist das für Hersteller aber nicht interessant. Die volle Ausnutzung der eingebauten Komponenten ergibt Sinn. Man sieht es auch im Preis pro GB. Eine 160-GB-Platte ist sicherlich besser im Preis pro GB als eine 40-GB-Platte, obwohl in beiden Fällen nur eine Scheibe integriert ist.

Wenn die Platten nur halb formatiert sind, müssten doch auch im Internet Anleitungen auftauchen wie beispielsweise „Machen Sie mehr aus Ihrer Platte! Von 40 auf 80 GB mit drei Mausklicks.“
Atzkern: Das wird man beim Hersteller gut zu verhindern wissen. Wenn man nicht formatiert, können diese Herstellungsprozesse nicht vom Kunden verändert werden. Die kann selbst der Techniker bei Seagate nicht nachstellen. Ich kann daraus keine 120er machen. Das geht nicht. Weil die Platte dafür nicht ausgelegt worden ist. Sie ist nicht dafür gemacht worden.
Kubsch: Es geht eigentlich um Effizienzen in der Produktion. Wir sind unter starkem Kostendruck in diesem Bereich, weil kleinste Kapazitäten natürlich auch die geringste Marge hergeben. Man muss schauen, dass diese Produkte auch preiswert hergestellt werden können. Jede Sekunde, die in den Produktionszyklen gespart werden kann, wird genutzt.
Schuster: Und was das Aufbauen der Platte anbelangt: Selbst wenn es möglich wäre, und ich spare damit ein bis zwei Dollar – ist das der Aufwand wert? Ich glaube kaum. Beim Consumer-PC reden wir nicht von 40 oder 80 GB, da sind 160 Einstiegskapazität bis 400, 500 hoch. Da gelten andere Regeln.

Was wird der nächste Kapazitätssprung werden? Von 750 auf wie viel?
Kubsch: Es ist letztendlich die Frage, welche Technologie eingesetzt wird. Jetzt haben wir 160 GB auf einer Scheibe. Der nächste Schritt wird sein, dass man in Richtung 188 geht, 200, 250. Wenn wir dann die 250 GB mit vier Scheiben haben, dann haben wir auch das Terabyte. Das wird eine Geschichte sein, die in 2007 wahrscheinlich Realität wird.

Gerade im CE-Bereich, der laut Ihren Aussagen stark kommen soll, sind große Festplatten Pflicht. Mit welchen Kapazitäten und welchen Stückzahlen rechnen Sie?
Mauerhofer: Bis 2008 erwarten wir, zwei Drittel unseres Umsatzes außerhalb des klassischen Business zu machen. Wie viele Stückzahlen das exakt sind? Das kann ich nicht genau sagen, es wird von 750 Millionen Units bis Ende 2008 gesprochen. Das ist ziemlich realistisch.
Kubsch: Ich habe hier Zahlen vorliegen, die davon ausgehen, dass im Jahr 2008 der CE-Markt weltweit rund 210 Millionen Platten benötigen wird. Der Bedarf teilt sich auf Spielekonsolen, Mobile Phones, den Automotive-Bereich, Fest-plattenrekorder, MP3-Player und andere Dinge und natürlich externe Platten und Netzwerkplatten auf.

Also in Zukunft werden wir auch NAS-Server im Haushalt finden ...
Kubsch: Das ist, glaube ich, schon vielfach heute Realität. Jeder, der mehrere PCs im Einsatz hat und Daten wie beispielsweise MP3s nutzen möchte, wird sehr schnell auf die Idee kommen, dass das die optimale Lösung für ihn ist.
Mauerhofer: Wenn Sie zwei Kinder haben, der eine hat einen Laptop, der andere hat einen Mac, und Sie haben einen PC, dann ist ein solcher Server schon recht praktisch. In Amerika ist diese Entwicklung schon ziemlich fortgeschrit-ten, Europa ist da noch ein bisschen langsam – aber es wird kommen.
Hinteregger: Ich glaube die Stückzahlen werden nicht so riesig sein. Das Wachstum kommt selbstverständlich aus dem CE-Bereich, und zwar von digitalen Videorekordern, Kameras, Videokameras, MP3-Playern und Konsolen. Bei NAS-Servern glaube ich an keine großen Stückzahlen. Das Wachstum kommt aus dem Bereich Consumer Business.
Atzkern: Wenn jeder zweite oder dritte Haushalt in Deutschland, der einen Computer hat, sich irgendwann einmal so eine NAS-Box zulegt, dann kommen richtige Stückzahlen zusammen. Es wird sehr viel über IP-TV gesprochen, also Fernsehen via Internet. Allein die Videodatenströme benötigen enorm viel Speicherplatz. Damit wird die Box zum zentralen Medienserver, und die werden kommen.
Das ist nicht eine Frage der Geschwindigkeit und der Akzeptanz, sondern auch der einfachen Bedienung. Nicht nur die junge Generation muss damit zurechtkommen, auch der etablierte Familienvater mit zwei halbwüchsigen Kindern sollte das Gerät bedienen können. Wenn der das kann, dann steht dem Einzug von NAS-Servern in Haushalten nichts mehr im Weg. Dann sind auch Stückzahlen möglich, aber das hängt von den Herstellern ab, wie benutzerfreundlich die Geräte zu bedienen sind.
Schuster: Dank DSL ist ja heute Netzwerk im Haus schon nichts Ungewöhnliches mehr. Jeder, der ein WLAN, also einen Router, mit WLAN nutzt – das sind viele –, hat sein Netzwerk.
Mauerhofer: Wir stellen uns vor, auch für viele kleine Unternehmen NAS-Server anzubieten, sie können dort ihre Daten ablegen und brauchen keinen speziellen Server mehr.
Atzkern: In letzter Zeit sind Millionen von Platten in Bereiche verkauft worden, an die vor fünf Jah-ren überhaupt noch nicht gedacht wurde. Die Branche hat ja davon sehr stark profitiert, sonst hätten wir, glaube ich, alle nicht so schnell diese kleinen Formfaktoren entwickelt.
Mauerhofer: Der Markt wächst, er explodiert förmlich. „Das ist mein Foto, das ist meine Musik, das sind meine Videos.“ Es werden nicht mehr nur Excel- oder Word-Files gespeichert. Digitalkameras haben inzwischen zehn Millionen Pixel, und das braucht Speicherplatz. Bis 2007 werden es Videos sein, die noch mehr Speicher verlangen.
Hinteregger: IP-TV wird sicherlich Kapazitäten erfordern, die noch mal deutlich höher sind.
Schuster: Auch der Konsument wird sich ändern. Zu seinem existierenden Backup wird er vielleicht noch ein zweites machen, nur weil er nicht genau weiß, ob das erste funktioniert hat. Jeden Film, den er sieht, wird er auf seinen Server speichern. Alle Fotos, die er jemals gemacht hat, wird er ebenfalls speichern, um vielleicht 10, 20 Jahre später seinen Griechenland-Urlaub, als er 20 Jahre alt war, anzuschauen. Es gibt so viele neue Anwendungen, weil es machbar und günstig ist.

Der Trend geht zum Backup auf Festplatte?
Schuster: Privat auf alle Fälle. Mache ich ja auch.
Atzkern: Backup auf Festplatte ist einfacher, denn man muss kein Discjockey sein, um seine Daten zu sichern. Die kleinsten Festplatten haben heute 120, 160 GB, und für ein Backup sind dann mehrere DVDs nötig. Das macht wiederum die Verwaltung schwierig. Ein einziger großer Speicher verbessert einfach die Übersichtlichkeit. Man kann nur eines sagen: Backups sind extrem wichtig, wenn man seine Daten über Generationen hinweg behalten will. Und hier ist die kostengünstigste Lösung einfach eine externe Festplatte.
Mauerhofer: Wenn Sie einen Laptop haben, dann brauchen Sie etwas Externes. Sie schrauben nicht Ihren Laptop auf, um eine weitere Platte zu integrieren.

Externe Geräte setzen aber auch die richtige Schnittstelle voraus: Wer weiß, ob es in 20 Jahren noch Computer mit USB geben wird?
Kubsch: Weil dann eine 160-GB-Platte vielleicht ein Prozent von dem Speicher, der dann relevant ist, ausmacht. Und das wird in der Zwischenzeit sicherlich ohne Schwierigkeiten zu überspielen sein.
Mauerhofer: Wir arbeiten zurzeit an externen Lösungen mit 2x-500-GB-Platten, die sogar Raid-Funktionalität besitzen.
Atzkern: Eine gewisse Kompatibilität war immer eines der obersten Prinzipien in der IT-Branche. Wir haben noch Leichen in den Computern liegen, quasi nur aufgrund der technischen Kompatibilität zu bestimmten Funktionen, sei es eine serielle Schnittstelle, damit man eine Telefonanlage programmieren kann.
Wenn man seine Daten auf eine Platte speichert, sie weglegt und erst nach 20 Jahren wieder nachschaut, dann kann es Probleme geben. Wer seine Daten aber ab und zu migriert, der wird sie mitnehmen können.
Hinteregger: Das ist eigentlich nur ein finanzielles Problem. Bei den Hunderten von Millionen Festplatten, die da noch irgendwo herumliegen werden, wird sich irgendeine Firma finden, die ein kompatibles Device erfindet oder zur Verfügung stellt.
Mauerhofer: Google will jetzt billigen Speicherplatz für jedermann anbieten. Ich glaube aber nicht, dass da viele Menschen mitmachen, denn wer gibt sein Backup schon gerne aus der Hand? Uns als Hersteller würde das nicht stören, denn dann braucht Google mehr Festplatten.
Atzkern: Der Speicherbedarf steigt stark an, zum Beispiel wird ein Hollywood-Film auf mindestens 17 Festplatten gespeichert, bis er quasi als Content auf einem Handy abrufbar ist. Backups sind dabei noch nicht mitgerechnet. Jede Datei wird inzwischen mehrfach auf der Welt gespeichert. Die Frage wird sein: Wie archiviert man dieses Wissen? Und diese Archivierung wird bei uns in Zukunft extrem gutes Business bedeuten, weil alle Inhalte, die über Jahre – also nicht nur über ein Jahr, sondern auch über einen Wirtschaftsprozess, über 10, 15, 20 Jahre – konserviert werden müssen, neue Strategien erfordern, um die Daten auf Platten zu archivieren und auch wiederzufinden.
Hinteregger: Es gibt keinen Grund, warum jemand, der Daten hier gespeichert hat, sie irgendwo löschen sollte. Warum sollte er? Das ist genauso, wenn ich zu Hause eine Langspielplatte habe: Die werfe ich nicht weg. Er wird sämtliche Daten immer wieder behalten, damit er in 20 Jahren noch seine Bilder von damals anschauen kann.
Kubsch: Größtes Problem wird wahrscheinlich sein, ob er überhaupt noch die Möglichkeit hat, dieses Datenformat wiederzugeben. Das geht ein bisschen in die Richtung, was „Digitales Alzheimer“ genannt wird. Es ist heute wohl vielfach schon ein Problem, dass Daten, die vor 20 Jahren mal archiviert worden sind, zwar noch erhalten sind, aber nicht mehr in lesbarer Form so ohne Weiteres darstellbar sind.
Hinteregger: Wenn das Volumen groß genug ist, wird es Firmen geben, die sich dieser Geschichte annehmen. Das ist eine finanzielle Frage.

Kommen wir noch einmal auf CE-Platten zurück. Was unterscheidet diese Platten von ihren herkömmlichen Kollegen?
Mauerhofer: Das sind Platten, die extrem leise sein sollen, weil sie in digitale Videorekorder eingebaut werden. Sie müssen nicht unbedingt superschnell sein, Zuverlässigkeit ist hier viel wichtiger.
Atzkern: CE-Platten haben noch zum Teil einige Zusatzfunktionen, wie zum Beispiel sogenannte Streaming-Applikationen. Bei digitalen Videorekordern wird gewünscht, mehrere Videoströme gleichzeitig aufzuzeichnen. Ein Zwei-Kanal-Rekorder kann zwei Sendungen gleichzeitig aufnehmen und zusätzlich irgendwelche gespeicherten Inhalte wiedergeben.
Das sind drei Datenströme, die die Platte gleichzeitig handlen muss, und das Ganze muss leise bleiben. Bei CE-Platten wurden ein paar Applikationen und Veränderungen vorgenommen, die sie jetzt nicht mehr für den PC-Einsatz prädestinieren, sondern für den Einsatz als Settop. Das ist ein klares OEM-Geschäft und nichts für Bastler, die irgendwelche Komponenten zusammenschrauben und hoffen, dass es dann funktioniert.

Betreiben Sie das Distributionsgeschäft mit einzelnen Platten alle nur am Rande? Hauptsächlich werden OEMs bedient, oder?
Hinteregger: Das würde ich so nicht sagen. Das Distributionsgeschäft hat bei uns immer noch einen großen Anteil. Es ist nicht so extrem, aber es geht schon ein Großteil des Geschäftes über die Distribution. Ingram und Tech Data verkaufen riesige Stückzahlen an Festplatten. Und das sind nicht immer nur Einzelstückzahlen.
Kubsch: Bei uns macht der Distributionsanteil um die 50 Prozent aus.
Schuster: Wir sind relativ stark OEM-lastig, ich denke 70 zu 30.
Mauerhofer: Bei uns ist es 46 Channel zu 54 OEM, wenn man mal die externen rechnet.

Lassen Sie uns noch einmal über Serverplatten sprechen. Der Trend geht in Richtung 2,5 Zoll. Ich habe gehört, dass Assemblierer von diesem Formfaktor nicht begeistert sein sollen. Stimmt das?
Hinteregger: Nein, ganz im Gegenteil. 2,5 Zoll, auch Small Form Factor genannt und mit SAS-Interface ausgestattet, ist ein großer Markt. Wir glauben, dass das in Zukunft ein stark zunehmender Trend sein wird – auch im Serverbereich.
Atzkern: Man muss beachten, dass bei hohen Transaktionsleistungen die Anzahl der Laufwerke der skalierende Faktor ist. Und in einem bestehenden System lassen sich nun mal mehr 2,5-Zoll- als 3,5-Zoll-Platten unterbringen.
Bei 2,5-Zoll bekomme ich die doppelte Leistung gegenüber 3,5-Zoll-Platten. Von der Kapazität dagegen bieten 3,5-Zoll-Laufwerken immer das Doppelte. Für die richtige Auswahl der Platten kommt es immer auf die Applikation an, die der Kunde anwendet. Ist es eine transaktionelle Anwendung, dann wird dieses System mit vielen 2,5-Zoll-Laufwerken ausgestattet werden. Wenn es um Kapazitäten geht und hohe Transaktionsleistungen benötigt werden, dann wird das System mit 3,5-Zoll-Platten ausgestattet. Wenn man aber nur Daten verwalten will, dann wird man diese Daten auf S-ATA- oder SCSI-Laufwerke auslagern.
Nur als Hintergrund, bei Enterprise-Laufwerken, werden die mittleren Kapazitäten am meisten gewünscht. Die Laufwerke werden mit einer bis vier Scheiben gebaut, und die Zwei-Scheiben-Laufwerke gehen am besten. Laufwerke mit 10.000 Touren werden aussterben, da der Trend zu 15-k-Laufwerken geht.

Sind noch höhere Drehzahlen in Planung? Vor fünf Jahren war beispielsweise die Rede von 25.000 Touren.
Atzkern: Die Techniken waren vorhanden und sind dann wieder eingemottet worden, weil der Trend mehr in Richtung Transaktionsleistung geht – das heißt: mehr Platten. Die Leute wollen mehr Transaktionsleistung bei moderater Leistungsaufnahme.
Hinteregger: Der Trend ist ganz klar 15 k; 10 k ist nach wie vor dominant – sollte aussterben, hält sich aber. Darüber hinaus gibt es, glaube ich, momentan keine konkrete Planung.
Atzkern: Die Frage nach der Drehzahl stellt sich natürlich auch im PC-Bereich. Höhere Drehzahlen machen erst dann Sinn, wenn der Markt die oberste Drehzahlgrenze erreicht und akzeptiert hat. Die Hersteller bieten zurzeit schon sehr viele Produktvarianten an, logistisch wird es für Hersteller, Handel und auch für Kunden immer unüberschaubarer. Käme jetzt noch eine Vielzahl von Laufwerken mit unterschiedlichen Drehzahlen, aber ähnlichen Funktionen hinzu, würde das den Markt mehr verwirren, als es ihm gut tut.
Atzkern: Im PC-Bereich sind Drehzahlen von 7.200 Standard bei 3,5-Zoll-Laufwerken. 5.400 Touren sterben bei 3,5-Zoll aus und werden bei 2,5-Zoll zum aktuellen Standard.
Hinteregger: Es gibt noch 4.200, aber auch hier geht der Trend ganz klar zu 5.400 Touren, selbst bei Standard-Notebooks. 2,5-Zoll, 5.400 Umdrehungen mit S-ATA-Interface, das sind die aktuellen Platten für Notebooks.

Wird sich am Interface in naher Zukunft etwas ändern?
Atzkern: Parallel-ATA bleibt aktuell. Bis so eine Schnittstelle komplett ausgestorben ist, dauert es ein bisschen länger.
Schuster: Bei Systemen, die heute gebaut werden, beträgt der Anteil von S-ATA schon 80 bis 90 Prozent.
Kubsch: Da gibt es auch ganz klare Bestrebungen in Richtung S-ATA, und ich gehe davon aus, dass 2007 S-ATA ein durchgängiges Thema auf der optischen Front sein wird. Es gibt mittlerweile erste Chipsätze für Boards, wo kein P-ATA mehr vorhanden ist. Dann gibt es auch für die optischen Laufwerke keine andere Lösung mehr als S-ATA.
Der Umstieg auf S-ATA ist zunächst, wie immer, eine Kostenfrage. Auch bei den Festplatten ist es am Anfang so gewesen, dass S-ATA-Laufwerke teurer waren als solche mit P-ATA-Schnittstelle. Im Consumer-PC-Bereich zählt aber jeder Dollar.
Letztendlich würde ein Laufwerk mit paralleler Schnittstelle im optischen Bereich noch deutlich länger verfügbar sein, wenn die Integrierer nicht dazu gezwungen würden, sich von dieser Schnittstelle zu verabschieden. In der Produktion bietet S-ATA aber auch gewaltige Vorteile, wesentlich dünnere Kabel und keine Master-Slave-Thematik. Aber mittlerweile ist ein Parallelkabel deutlich teurer als ein S-ATA-Kabel. Wir reden hier über Cents.

Haben Sie noch Fragen, die Sie Ihren Kollegen gerne stellen würden?
Hinteregger: Ich war die letzten Tage auf einem Forum, das hieß „Navigation 2006“. Gerade die Navigationsindustrie plant Zuwachsraten, von denen wir nur träumen können. Wie stark wird die Festplattenindustrie davon profitieren?
Schuster: Was irgendwo klar ist: Der Datenumfang, den Navigationslösungen bieten, wird immer höher. Es geht mittlerweile in die Richtung, Gebäude dreidimensional zu erfassen, und damit sind die Datenmengen, die anfallen, um Deutschland und Europa zu erfassen, gigantisch. Was hinzukommen wird, sind sogenannte Points of Interest, wobei das relativ geringe Datenmengen sind. Aber vor allem wird es eben diese Dreidimensionalität der geografischen Daten sein, die ein gewaltiges Wachstum im Speicherbedarf mit sich bringen wird.
Kubsch: Die Daten an sich, aber auch natürlich die Anzahl der Anwender werden steigen. Ich glaube, ITC hat irgendwas von 38 Prozent Steigerungsraten von 2005 bis 2010 prognostiziert – Jahr für Jahr, für Navigationstechnik. In dem Fall natürlich fest eingebaut.
Schuster: Zur Navigationslösung bekommt man ja auch noch Back-Seat-Entertainment, sprich: die Wiedergabe von digitalen Medien im Auto, auf dem Monitor, auf den Rücksitzen.
Atzkern: Ein Land, in dem es keine vektororientierten Navigationssysteme gibt, sondern wirkliche 3-D-Darstellung, ist Japan. Japan hat ein ganz anderes System als wir, da braucht einer allein für die Navigation zu Hause schon 10, 20 GB. Deswegen ist die Verbreitung von Festplatten in Autos in Japan wesentlich höher. Da sind wir, glaube ich, in Europa bei einem Prozent. Die haben 80 Prozent von den gesamten Festplatten in Autos in Japan, weil sie einfach diese Datenmenge brauchen, damit sie sich überhaupt zurechtfinden.
Kubsch: Wir hatten ja über neue Anwendungen gesprochen, die wir vielleicht heute noch nicht kennen. So wie dieses kleine, private Navigationssystem, was man sich vielleicht auf dem Fahrrad mitnimmt oder mit dem man in Rom seine kleine private Führung abrufen kann. Sie gehen damit in die Sixtinische Kapelle und lassen sich von dem Navigationsgerät erklären, was das für eine Kapelle ist. Diese Dinge werden in Zukunft sehr stark an Beliebtheit zunehmen.
Hinteregger: Das Interessante ist, dass zwar der Anteil im Auto deutlich wachsen wird, aber das Navigationssystem im Auto heutzutage noch sehr teuer ist. Die Preise werden aber deutlich zurückgehen, einige Analysten behaupten sogar, das Umsatzwachstum wird nicht im Auto stattfinden, sondern in Handhelds in mobilen Bereichen. Und wenn wir es schaffen, da eine Festplatte reinzukriegen, dann gibt es richtig Steigerungsraten.

Damit sind wir ans Ende unserer Diskussion gekommen.
Vielen Dank. (jh)