Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

04.12.1987

PCMer gewinnen Marktanteile im Plattenmarkt Magnetplatten im RZ: Standard ist der 3380-Typ

Der Magnetplattenbereich ist ein heißumkämpftes und wechselhaftes Feld. Prognosen sehen voraus, daß der Anwender bald den größten Teil seines Budgets für Externspeicher opfern muß. 1987 hat der Markt für Festplatten bereits ein Potential von rund 17 Milliarden Dollar, wobei dieser Plattentyp erst seit 1973 eingesetzt wird. Rund 55 Prozent dieses Marktes nimmt das Segment der Speicher mit mehr als 500 MB pro Spindel ein, wovon wiederum IBM einen Anteil von etwa 72 Prozent hält - mit Abwärtstrend auf rund 60 Prozent, wie Jim Porter (Disk/ Trend, Los Altos), prognostiziert.

Unterstellt man, daß schätzungsweise 70 Prozent dieses Anteils vom Plattentyp IBM 3380 getragen werden -im Mainframe-Bereich dürfte dieser Wert bei etwa 85 Prozent liegen -, so ist dieser Trend sehr beachtlich. Um diesen Bereich, der immer noch jährliche Zuwachsraten von 35 bis 60 Prozent aufweist, bemühen sich neben IBM auch die fünf PCMer, denen vor ein bis zwei Jahren keine großen Chancen eingeräumt wurden. Mittlerweile dürften jedoch weit mehr als 10 Prozent der Installationen vom Club der Kompatiblen gehalten werden.

Nach Voraussagen der Gartner Group könnte der einstmalige 90prozentige Anteil der IBM sogar auf unter 80 Prozent abrutschen. Unter diesem Gesichtspunkt ist auch die mehrfach verschobene und dann im September 1987 erfolgte Ankündigung der nächsten 3380-Generation (Iund K-Modelle) zu sehen. Allerdings haben auch hier, bis auf zwei Ausnahmen, alle PCMer nachgezogen. Einer konnte sogar eine Woche vor IBM einen Teil dieser Ankündigung vorwegnehmen und wird zum Jahresende ebenfalls ausliefern. Branchenkenner vermuten in diesem Markt rund 250 000 installierte Einheiten (IBM und Kompatible).

Es begann 1956 mit "Ramac", dem ersten Magnetplattenspeicher. Bis zu diesem Zeitpunkt leisteten Magnettrommeln (wie im System IBM 650) beziehungsweise Magnetbänder gute Dienste. Aber schon damals gab es ein vordringliches Problem aufgrund schnellerer Rechner, die bereits seit Anfang der vierziger Jahre (Zuse Z3, Mark 1, Eniac 45) entwickelt wurden: Der Zugriff zu den Daten dauerte zu lange, und der Speicherplatz war begrenzt. Man arbeitete gerade mit Röhren, und die Einführung der Transistoren stand unmittelbar bevor. Mit Fortran wurde außerdem 1954 die erste Programmiersprache eingeführt, was eine zusätzliche Erleichterung im Umgang mit der Maschine bedeutete.

1956 also, mit der IBM-Serie 305, wurde der erste Direktzugriffsspeicher angekündigt. Der Kopf mußte zu jeder Plattenoberfläche und Spur pneumatisch beziehungsweise hydraulisch zugeführt werden, der Scheibendurchmesser (Platter) lag bei 24 Zoll für 5 MB. Im Vergleich dazu bringt man heute 5 GB auf 14 Zoll unter. Ein zweiter Schritt war die Einführung der "Slider head"Technologie der 1301, denn erstmals schwebten nun die Köpfe auf dem Luftpolster der rotierenden Scheibe.

Mit der 1311 kam die erste Wechselplatte auf den Markt, die in der überarbeiteten Version als 2311 (hydraulischer Antrieb) dann die Basis der erfolgreichen Serie IBM /360 darstellte. Den ersten Servomechanismus bot im Jahre 1970 die 3330, was erheblich mehr Online-Kapazität brachte. Dies war zugleich das Geburtsjahr der Linear-/Schwingspulen-Ansteuerung für die Zugriffsarme, eine Technik, die in verbesserter Form heute noch Bestand hat.

Mittlerweile entfalteten auch schon die ersten kompatiblen Hersteller ihre Aktivitäten. 1973 wurde mit der 3340/3348 die erste Festplatte mit Winchester-Technik eingeführt, wobei die Platten, die Zugriffsarme und die Köpfe zusammen in einem geschlossenen HDA (Head Disk Assembly) untergebracht waren. Bei dieser Modellreihe konnte zwar noch das komplette Datenmodul gewechselt werden, mit der 3350 wurde dann aber endgültig die heute übliche Form der Festplatte eingeführt.

Unterdessen entwickelte sich der PCM-Markt recht lebhaft, und 1978 führte Storage Technology den heutigen Standard "Dual-Port" (heute bekannt als IBMs DLS) ein. Nicht zu vergessen der Plattentyp 3310, der erstmals das FBA-Konzept und den Tangentialarm-Zugriff vorstellte. Ein weiterer Schritt wurde 1979 mit der Ankündigung der 3370 und den ersten Dünnfilmköpfen vollzogen, dazu das Konzept zweier Zugriffsarme pro Spindel eingeführt. 1980 endlich erfolgte die Ankündigung der Platte 3380, bei deren Auslieferung es allerdings Verzögerungen bis ins Jahr 1981 hinein gab.

IBM-Anteil sackt auf unter 50 Prozent

Dieses Jahr war dann auch die Sternstunde der MagnetplattenPCMer. Auch bedingt durch die Lieferprobleme sackte der IBM-Marktanteil auf unter 50 Prozent ab, der Rest ging vornehmlich an Storage Technology mit knapp 30 Prozent CDC mit rund 15 Prozent und Memorex (gut 7 Prozent). Diese Anteile konnten jedoch nicht gehalten werden, so daß IBM im Laufe der Zeit wieder mit rund 90 Prozent im Jahr 1985 dominierte.

1982 installierte Storage Technology dann den ersten Cache-Controller, und in der zweiten Jahreshälfte 1983 kamen die ersten drei PCMer mit ihren zur 3380 kompatiblen Magnetplatten. 1985 folgte die 3380E (doppelte Kapazität), und im September 1987 wurde der vorläufig letzte Schritt mit der Ankündigung von Platteneinheiten hoher Kapazität und Leistung vollzogen. Auch die PCMer holten wieder auf, und so konnten bereits ab der zweiten Jahreshälfte '86 die ersten drei mit der Auslieferung ihrer Platten mit doppelter Kapazität beginnen.

Abermals mußte IBM Marktanteile prozentweise abgeben. Vor wenigen Wochen konterten drei PCMer mit vergleichbaren Ankündigungen, und bereits zum Jahresende 1987 liefert der erste PCMer eine der 3380J vergleichbare Version aus. Parallel mit den Kapazitäten wuchsen auch die Anforderungen an die Übertragungsgeschwindigkeiten. So wurden beginnend mit der IBM 709, die erstmals die unabhängigen Kanäle einführte, auch die Protokolle (DC/Offset Interlock) verbessert. Heute fährt man Data-Streaming mit 3 MB pro Sekunde, mittlerweile wurden auch 4,5 MB pro Sekunde angekündigt. Begleitende Verbesserungen zur Erzielung höherer Verfügbarkeit und besserer Performance waren Mehrkanalschalter, String-Switch, generell Dual-Port und die Floating-Channels (EXCP) mit XA.

Doch trotz aller Fortschritte blieb immer das Mißverhältnis zwischen CPU und Peripherie von 1 zu 1 Million Zeiteinheiten bestehen. Dies ist auch der Grund, daß ergänzend zu den Magnetplatten neuartige, oftmals Platten emulierende Produkte entwickelt wurden. In den siebziger Jahren war dies der Trommelspeicher zur Unterstützung des virtuellen Speichers, 1979 die Einführung des Schnellspeichers von Storage Technology und 1982 wiederum durch Storage Technology der Cache-Controller.

Gleich war zumindest den letzten beiden Produkten der Grundgedanke, die Geschwindigkeitsverluste (verursacht durch die Mechanik) der Platten zu umgehen, indem auf Halbleiterbasis Daten vorgehalten oder die Platte eben komplett ersetzt wurde. Inzwischen hat sich aus diesen Ideen ein eigener Markt entwickelt. Anfang der 70er Jahre war die Datenmenge bereits derart angewachsen, daß nun das Sichern und damit die Archivierung von Daten zum Problem wurde.

Entsprechend war IBM im Jahr 1974 mit dem Massenspeicherkonzept 3850 zur Stelle, um den Vorläufer des hierarchischen Datenmanagements zur automatischen Datenverwaltung einzuführen. Mit der Zeit gab es rund 600 Installationen, und 1976 wurde mit Masstor ein auf dieses Marktsegment spezialisiertes Unternehmen gegründet. Allerdings gibt es heute mit der 18-Spur-Kassette und der von IBM unterstützten Online-Strategie andere Wege zur Datenarchivierung. In diesem Zusammenhang entwickelte mit StorageTek ein PCMer das erste vollautomatische, durch Software und Informationen des Betriebssystems gesteuerte Archivierungssystem auf 3480-Basis mit einer Kapazität pro Speichereinheit von 1200GB.

Die Software ist immer dabei

Nicht ganz vergessen sollten wir die Software-Seite. Auch hier begleitet uns permanent die Entwicklung, müssen doch gelegentlich für maschinelle Engpässe Zwischenlösungen (zum Beispiel BLDL oder transient area) realisiert oder hinterher neue Produkte unterstützt werden (beispielsweise Generierung, EREP). Beginnen wir in den 50er Jahren mit den Steuerprogrammen für die unabhängigen Kanalwerke (CCW) und der Synchronisierung zwischen Kanal und Rechner (EXCP, CAW).

Zur Unterstützung der Multiplexkanäle wurde der "offline seek" eingeführt, die Verwaltung der Daten mit Hilfe von Inhaltsverzeichnissen und verschiedenen Katalogen organisiert, dazu Zugriffsmethoden und Utilities zum Einrichten und Verwalten der Datenträger geschaffen. Mit dem Anwachsen der Dateien pro Volume kam der Übergang von VTOC auf Indexed VTOC, die Einheitsplatzverwaltung VSAM wurde eingeführt, dazu Alternate-path-Unterstützung und Channel-Algorithmen.

Dies sind nur einige Entwicklungen, die mit Platten in enger Beziehung stehen. Erwähnen sollte man auch den IOCP-Prozeß (einschließlich HSA), dynamische Generierung und die dynamische Pfadzuordnung mit den Reconnect-Fähigkeiten. Ein neueres, strategisches Produkt ist HSM.

Man erkennt sehr leicht, daß zwar immer wieder Engpässe und neue Forderungen anstanden, die Entwicklung andererseits gewaltig war. Heute hat die Datenhaltung und damit ihre Auswirkungen auf die Magnetplatte eine Eigendynamik entwickelt, die nur noch mit eigenen Architekturen und Spezialisten bewältigt werden kann, und zudem unaufhörlich wächst.

Standardplatte 3380

Der Standard bei den Magnetplatten im Mainframe-Bereich wird heute zweifelsohne durch den 3380-Typ gesetzt. Dies untermauern auch die Ankündigungen Anfang September 1987, womit zugleich auf die sich abzeichnenden neuen Anforderungen reagiert wurde. Manche Beobachter sehen darin die letzte signifikante Verbesserung dieses Plattentyps, womit dieses Gerät allerdings bis in die 90er Jahre auskommen dürfte.

Damit hätte diese Produktlinie seit ihrer Ankündigung 1980 rund eine Dekade abgedeckt - eine nicht alltägliche Leistung.

Wenige wissen, daß die Entwicklungen dazu bereits Ende 1969 begannen, so daß man auch daran die Spanne eines Produktes, die Tragweite von Entscheidungen und letztlich auch den finanziellen Aufwand ermessen kann. Der Anwender allerdings hat sich an diese Platte gewöhnt und formuliert heute seine Probleme, durch die Konfrontation mit den Anforderungen im RZ, in anderen Kategorien.

- Da wäre zunächst das Problem der Kapazität: Derzeit

bietet ein Strang 10 beziehungsweise 20 Gigabyte, wird oft aber aus Performance-Gründen (oder weil es bei den AA4- und BO4-Einheiten so üblich war) nicht voll belegt. Die Ankündigung von 30 GB bringt hier zwar eine Steigerung von 50 Prozent, kann aber nur ein erster Schritt sein. Rechenzentren, die über 100 GB, oftmals 200 bis 400 GB unterbringen müssen, haben ihre liebe Not.

Interessant sind daher die neuen Konfigurationsmöglichkeiten von vier Strängen mit bis zu 120 GB. Allerdings setzt dies vier gekoppelte AX4-Laufwerke voraus, um über Quad-Port eine halbwegs vernünftige Performance zu erlangen. Man darf nicht vergessen, daß heute über Dual-Port nur maximal 20 GB (zwei Stränge unter einem Controller werden kaum realisiert) angesprochen werden. Der Cache läßt grüßen!

- Problem Performance: Da ist zunächst einmal die Übertragungsrate, die mit 4,5 MB pro Sekunde stark verbessert wurde. Doch dieser Vorteil wird nur während des verhältnismäßig kleinen Anteils der Datenübertragung wirksam. Eine wesentliche Verbesserung sind die neuen SeekZeiten. Waren bisher für 3380D 3/15/28 Millisekunden (Minimum, Durchschnitt, Maximum) und für 3380E 3/17/31 Millisekunden üblich, so ergibt sich durch die neuen High-Performance-Platten mit 2/12/ 21 Millisekunden eine Verbesserung zwischen 17 und 33 Prozent (IBM 3380J ab Oktober und StorageTek 8380P ab Desember dieses Jahres. Diese Zeiten sind Bestandteil eines jeden I/O-Vorganges und bedeuten signifikante Performance-Vorteile, somit auch reduzierte Device-BusyZeiten. Hier kommen dann doch deutliche Unterschiede zu anderen am Markt befindlichen Produkten mit 5/15/29 Millisekunden.

- Problem Stellfläche: Das aufgeführte Kapazitätsproblem äußert sich oftmals auch als Stellplatzproblem. Trotz derzeitiger Verbesserungen um 50 Prozent rechnet man in den nächsten Jahren mit einer Verdoppelung beziehungsweise gar Verdreifachung der Stellfläche. Hier können zusätzlich neue Verpakkungskonzepte hilfreich sein.

- Kriterium Sicherheit und Verfügbarkeit: Vom Magnetplattenspeicher als nichtflüchtigem Speicher erwartet man permanente Zugriffsmöglichkeiten. Dem trägt zum Beispiel Dual-Port seit Jahren Rechnung. Neben den Performance-Aspekten von zwei gleichzeitigen Zugriffen kann bei Pfadausfall immer noch über den verbliebenen Pfad jeder Zugriffsmechanismus angesprochen werden. Dies verbessert sich mit Quad-Port nochmals wesentlich. Dazu gehören separate Stromversorgungen und Elektronikkreise auf Actuator-Ebene, wie dies von einigen Herstellern angeboten wird. Weitere Standardfähigkeiten, die seit Jahren eingebaut werden, aber weniger bekannt sind, sind beispielsweise das automatische Korrigieren fehlerhafter Spursegmente (defect skipping) oder das Lesen außerhalb der Spurmitte (offtrack read). Auch Dualframe-Kopplungen gehören zu diesen Möglichkeiten.

- Kriterium Zuverlässigkeit: Hier hat sich ohne Zweifel sehr viel getan - wer erinnert sich noch an die 35 Millionen SIO/Hardfails bei dem früheren Standard 3350 - heute sind Dünnfilmköpfe äußerst zuverlässig. Auch die elektronischen und mechanischen Komponenten werden laufend verbessert und zum Beispiel durch reduzierte Boards oder Karten Verbindungsfehler minimiert.

Daß teilweise die vorgenannten Punkte konträrer Natur sind oder von vielen unterschiedlich gesehen werden, ist verständlich, da der Plattentyp 3380 praktisch ein Alleskönner sein muß. Von MVS über VM bis hin zu DOS werden Systemdateien und relationale Datenbanken, dazu das virtuelle Speichersystem, unterstützt. Im Shared-Betrieb werden Synchronisierungen für mehrere CPUs realisiert und alles sowohl für Batch, interaktiven Zugriff und Online-Betrieb.

Dabei steigt die Kapazität unter einem Arm und behindert die dadurch steigenden Zugriffe zu noch mehr Dateien. Ungleiche Zugriffsmuster (tag-/nachtaktive Dateien) oder Disk-Skewing (dominante Adressen im Strang) führen dann eben zu kurzen Strängen, großen Cache-Speichern oder Schnellspeichern. Untersuchungen (Hespa) zeigen zudem, daß die effektive Nutzung der Volumes ständig abnimmt und derzeit im Schnitt bei 45 Prozent netto liegt. Dies alles vor dem Hintergrund wachsender Datenmengen, neuer Anwendungen und beständig leistungsfähigerer CPUs (2000 I/Os und mehr).

Prognosen für die nächsten Jahre gehen für 1988 von durchschnittlich 112 Mips, 353 GB und einem OnlineAnteil von 62 Prozent aus. Für 1992 Iauten diese Werte 448 Mips, 1279 GB, 69 Prozent online und 25 Prozent System. Das sind grob 40 Prozent Wachstum. Hier sei nur an VM/ XA SP 2 erinnert, das in der Ankündigung bis zu 2 GB zentral und 16 000 GB Zusatzspeicher unterstützen soll. Geht man davon aus, daß 80 Prozent aller l/Os Online-orientiert sind und davon rund 60 bis 75 Prozent für sehr schnelle Transaktionen, erkennt man leicht den I/OEngpaß.

Quad-Port wird bald Standard sein

Dazu gilt die Aufteilung der Verarbeitungszeiten mit 60 Prozent für Datentransport, etwa 30 Prozent im Wartezustand und 10 Prozent Verarbeitung. Das Grundproblem liegt in der Mechanik, was auf die Seek-, Latenz- und RPS-Miss-Anteile wirkt. Hier können in Einzelfällen bis zu 90 Prozent der Zeit anfallen. Hinzu kommen die Pfadaktivitäten: Die Warteschlangentheorie sagt ab 35 Prozent Pfad-Busy für jeden erfolgreichen I/O den Besuch der Warteschlange voraus. Hieran muß weiterhin gearbeitet werden.

So kann man denn auch mit weiteren Entwicklungen rechnen. Beispielsweise wird Quad-Port bald Standard sein, was natürlich zusätzliche XA-Installationen beziehungsweise die Einführung dieses Feature in anderen Betriebssystemen (VM, DOS) bedeutet. Zur Normalausrüstung dürfte auch der Cache-Speicher gehören, und die installierten Größen werden somit drastisch zunehmen. Gleichzeitig muß der Preis (zur Zeit bis zu 2,2 Millionen Mark) nachgeben.

Auch die Einheit Preis/Kapazität in MB bei den Platteneinheiten wird weiter absinken. Derzeit liegt dieses Verhältnis bei 14 bis 17 Dollar, bei den Hochleistungseinheiten eher bei 30 Dollar. Mit Ankündigung der 3380 wurde dieser Wert mit 42 Dollar kalkuliert. Wie der IBM 3990 schon erkennen läßt, wird der Controller wesentlich intelligenter werden und zunehmend in einen dezentralen Prozessor übergehen und so beispielsweise die Platten steuern, bei Bedarf Adressen am Cache berücksichtigen beziehungsweise wegnehmen oder Teile des Halbleiterspeichers im Sinne eines heutigen Schnellspeichers einsetzen (Kombination aus Schnellspeicher und Bind/Free).

Glasfaser verbindet

Controller und CPU

So lassen sich auch Funktionen wie das Kopieren von Platte auf Band komplett auslagern. Dieser Controller läßt sich auch mit Glasfaserkabeln an den Rechner anschließen und bewältigt damit das Entfernungsund Übertragungsgeschwindigkeitsproblem. Selbst formatfreie Datenblockübertragungen wären auf längere Sicht denkbar. Hier fällt einem doch unwillkürlich der Netzwerkrechner 3705 mit NCP ein! Letztlich ließen sich damit auch die Einschränkungen aufgrund der Geräteadressen, DD-, Unit- und DSN-Angaben aufheben und die Archivierungsanforderungen über HSM integrieren.

Generell werden rotierende Massenspeicher (Platten) auch in den nächsten 20 Jahren eine dominierende Rolle einnehmen. Daher sind weitere Verbesserungen bei der Magnetplattentechnologie notwendig, um die Forderungen nach mehr Kapazität bei besserer Performance, kleinerer Stellfläche und weniger Energiebedarf zu erfüllen. Anders formuliert: Die Datendichte muß auf den Magnetplatten bei gleichzeitiger Verkleinerung der Plattendurchmesser und Erhöhung der Rotationsgeschwindigkeit erreicht werden.

Hier stößt man nun in Größenordnungen vor, die wohl nur noch mit der Dünnfilmtechnik realisierbar sind. Zwar lassen sich derzeitige Anforderungen noch mit der herkömmlichen Ferrit-Technik abdecken, weitere Verkleinerungen beziehungsweise Verdichtungen zur Kapazitätsgewinnung muß man jedoch durch zusätzliche Teile (mehr Platten, Schreib-/Leseköpfe, HDAs) kompensieren. Die Kompatibilität stellt man durch Abbildung der logischen Anforderungen auf die physikalischen Gegebenheiten her - diesen Vorgang bezeichnet man als Mapping.

Wir können davon ausgehen, daß die vor uns liegenden 10 bis 15 Jahre durch Datenträger mit Dünnfilmbeschichtung und Dünnfilmköpfen bestimmt werden. Bessere Leistungen lassen sich nur im Zusammenspiel von Kopf und Medium erzielen, das heißt, hohe Aufzeichnungsdichten werden durch den Kopfspalt, die Spurbreite der Schichtdicke auf der Aluminiumscheibe und die Flughöhe der Köpfe erreicht.

Betrachten wir also zunächst die Schreib-/Leseköpfe. Beim Kopf bestimmt die Spaltlänge die Länge der Bits, den Bitabstand und damit die Bitdichte (BPI). Die Spaltbreite entscheidet über die Spurbreite und damit über die Spurdichte (TPI). Mit diesen beiden Größen wird die Aufzceichnungsdichte (Speicherkapazität pro Flächeneinheit) festgelegt. Die Bits werden derzeit in Längsrichtung aufgezeichnet, die Bitdichte liegt etwa bei 15 000 Bits pro Zoll.

Dies läßt sich mit Dünnfilmköpfen noch verbessern. Sollten hirbei die Grenzen erreicht werden, besteht die Möglichkeit des Vertical-Recording. Bei dieser Anordnung (Bits werden in Bariumferriten stehend aufgezeichnet), läßt sich ein Verdichtungsfaktor von 10 erreichen. Derzeit hat man den Faktor 4 bis 5 halbwegs im Griff. Anfangs der 90er Jahre könnte dieses Aufzeichnungsverfahren zum Einsatz kommen.

Derzeit verändert man in erster Linie die Spurdichte: Zur Zeit erreicht man etwa 2000 Spuren pro Zoll - allerdings nur mit Dünnfilmköpfen. Aus diesen Verdichtungen resultieren die doppelten beziehungsweise dreifachen Kapazitäten. Die Kunst besteht darin, den Magnetisierungskegel immer mehr zu fokussieren, um so die Spuren enger setzen zu können. In diesem Zusammenhang muß auch die Servosteuerung beachtet werden, die zur Steuerung des Armes beim Spurzugriff dient und aus heutiger Sicht neben dem Medium die größten Reserven bietet. Die Zukunft wird eine Aufzeichnung der Servoinformationen zwischen den Daten bringen; damit entfällt die eigene Aufzeichnungsoberfläche, der Servo-Schreib-/Lesekopf und die davon abhängige Steuerung.

Kopf-Flughöhen sind jetzt allmählich ausgereizt

Die Aufzeichnungsdichte wird auch durch die Flughöhe der Köpfe beeinflußt. Heutige Ferritköpfe fliegen mit rund 16 bis 19 Mikrozoll über Platten und erlauben so Spurdichten bis zu 1500 Spuren pro Zoll. Demgegenüber bewegen sich Dünnfilmköpfe bei 12 Mikrozoll und lassen etwa 2500 Spuren pro Zoll zu. Labortests mit Dünnfilmköpfen und Dünnfilmmedien laufen bereits mit Abständen von 4 bis 5 Mikrozoll. Unterhalb dieser Grenze treten dann allerdings andere aerodynamische Eigenschaften auf (Abstand etwa in Luftmolekülgröße), so daß nach heutigem Stand hier ein Ende abzusehen ist.

Dennoch gibt es ausreichend Reserven. In den zurückliegenden Jahren hat sich die Flughöhe etwa um den Faktor 21 reduziert. Die anderen Komponenten verbesserten sich folgendermaßen: Bitdichte um den Faktor 150, Spurdichte um 110 und damit die Aufzeichnungsdichte um den Wert von rund 16 000.

Warum sind diese Werte so wichtig? Eine Erhöhung der linearen Bitdichte würde höhere Spurkapazitäten ermöglichen; dies wiederum ließe höhere Plattenrotationen und damit höhere Übertragungsgeschwindigkeiten zu. Dadurch würde sich beispielsweise auch die Latenzzeit und RPS-Miss-Zeit verkürzen - die Hauptkomponenten der I/O-Zugriffszeit. Eine Verbesserung der Positionierungszeit wird durch Spurverdichtung und optimalere Servosteuerungen möglich, doch läßt die mechanische Beschleunigung wohl keine dramatischen Sprünge mehr zu. Vor allem bringen engere Spuren die Kapazitätsvervielfachungen.

Damit sind wir bei dem Medium. Derzeit sind Eisenoxid-Emulsionen in Verwendung, die im Sprüh- beziehungsweise Rotationsverfahren (Coating) aufgebracht werden. Die Dicke liegt bei 20 bis 30 Mikrozoll und wird durch die Partikelgröße mitbestimmt. Für höhere Aufzeichnungsdichten benötigt man aber dünnere und damit leichter magnetisierbare Schichten. Hier wird der Übergang auf Metallbeschichtungen, die man üblicherweise als Dünnfilmbeschichtungen bezeichnet, notwendig. Die Bezeichnung leitet sich aus der Schichtdicke von 3 bis 25 Mikrozoll ab.

Zur Beschichtung verwendet man Chrom-, Kobalt-, Nickel- und Eisenverbindungen. Spezielle Lackschichten verhindern Korrosionen oder das Beschädigen durch die Köpfe. Obwohl im Marktsegment der 50-MBbis 100-MB-Disks reichlich Erfahrung vorhanden ist, bestehen noch Schwierigkeiten beim Beschichten von großen Platten. Auch aus diesem Grund verkleinern sich die Plattendurchmesser. Bewährte Beschichtungsverfahren sind das Plating (chemischer Prozeß, ähnlich Chrombeschichtungen) und das Sputtering (physikalischer Prozeß, Anlagerung der gewünschten Atome aus Ionengas-Gemischen), wobei das Sputtering derzeit bevorzugt wird.

Parallel dazu versucht man, den Plattendurchmesser zu verkleinern. Dies führt zu weniger Masse, die man schneller rotieren lassen kann. Ein möglicher Trend könnte sein, Einfachkapazitäten auf 8-Zoll-Platten, höhere Kapazitäten weiterhin auf 14-Zoll-Platten unterzubringen. Beim HDA (verschlossene Einheit von Zugriffsmechanismus und Platten) ließen sich damit reduzierte Energiewerte realisieren.

Sicher erscheint, daß es bei zunehmender Kapazität mehr Zugriffsarme pro HDA geben muß, um so die Contention-Probleme der großen Datenmengen zu umgehen. Zudem läßt sich hier mehr Parallelität bei den I/Os in den Subsystemen verwirklichen. Weiterhin erscheint ein Puffer auf Zugriffsarmebene sinnvoll, um so den Zeitverlust bei RPS-Miss zu umgehen - die vergeblich gelesene Spur wird im Puffer vorgehalten.

Allgemein wird man mehr Flexibilität bei den einzelnen Produktlinien einbauen, um auch innerhalb der Produktfamilie mixen zu können, wie dies bei einigen Herstellern bereits möglich ist. Auch die Möglichkeit, ein A-Laufwerk beliebig aus einer Strangsteuerung und einem BLaufwerk kombinieren zu können, gehört hierzu. Die Installation während des Betriebes erscheint ebenfalls sinnvoll, dynamische I/O-Generierung bei allen Betriebssystemen wäre Voraussetzung. Abschließend kann man sicherlich sagen, daß der 80er Plattentyp mehr als einen Standard darstellt und noch genügend Reserven für die kommenden Jahre bietet. Dies ist auch nötig, werden uns doch die Magnetplatten bis in das neue Jahrtausend begleiten.