Grundlagen der Festplattentechnik - Teil 2

23.09.2004
Die Entwicklung bei Festplatten drückt die Preise und steigert die Datenraten auf bis zu 80 MByte/s. Hermann Strass wirft einen Blick in das Innere der rotierenden Massenspeicher und zeigt, warum sich die Technik so rasant entwickelt hat.

Fortsetzung von Ausgabe 38/04, Seite 45

Weisen bei einem Flusswechsel die beiden Layer eine unterschiedliche Magnetisierung auf, tragen weder die Elektronen mit positivem noch mit negativem Spin zum Stromfluss bei. Alle Leitungselektronen können sich in beiden Schichten befinden und gestreut werden. Das GMR-Element besitzt in diesem Fall einen sehr hohen Widerstand.

Den GMR-Effekt entdeckten Ende der 1980er Jahre unabhängig voneinander Peter Grünberg an der KFA in Jülich und Albert Fert an der Universität in Paris. Bei beiden Entdeckungen wurden extrem niedrige Temperaturen und starke magnetische Felder zur Erzeugung des Effekts benötigt. Einige Zeit nach diesen Arbeiten begannen Stuart Parkin und andere Forscher im Almaden-Forschungszentrum von IBM in San Jose, Kalifornien, mit dem Versuch, den Effekt bei Normaltemperatur und mit weniger exotischen Materialzusammensetzungen für die Massenfertigung weiterzuentwickeln. Sie benötigten dazu viele Jahre und erforschten mehr als 30.000 unterschiedliche Multilayer-Materialkombinationen. 1997 erhielten die drei genannten Forscher gemeinsam den EuroPhysik-Preis für die GMR-Entwicklung.

Die Scheiben mit der magnetischen Oberfläche bestehen auch heutzutage noch aus Aluminium. Stabilere Materialien wie beispielsweise Glas oder Keramik konnten sich im Massenmarkt noch nicht durchsetzen, weil sie zu teuer sind und ungelöste technische Probleme bereiten. Scheiben aus Glas wurden zunächst hauptsächlich für kleine Platten in mobilen Systemen eingesetzt. In den kommenden Jahren soll allerdings der Übergang von Aluminium auf Glas und Glaskeramik erfolgen. Die Aluminiumscheiben sind so dünn (etwa 1 Millimeter), dass bei hohen Drehzahlen durch die Fliehkräfte eine Materialwanderung und damit eine geometrische Verzerrung entstehen kann. Bei schnell drehenden Festplatten ist daher der Scheibendurchmesser meist kleiner als der dem Gehäuse entsprechende Formfaktor, um Verformungen durch die Fliehkraft zu vermeiden. So weisen die Scheiben der mit 15.000 Touren drehenden Seagate Cheetah X15 lediglich einen Durchmesser von 2,5 Zoll auf, befinden sich aber in einem Gehäuse im 3,5-Zoll-Formfaktor.

Dies hat nicht nur Kapazitätseinbußen zur Folge. Auch die maximalen Datenraten in den Außenbereichen sind geringer als bei einer Platte mit größerem Durchmesser. Hier müssen die Hersteller abwiegen, ob eine erhöhte Drehzahl dennoch höhere Datenraten bietet. Zumindest sinkt durch die hohe Drehzahl die Zugriffszeit. Sie verkürzt die so genannte Latency, also die Zeit, die im Mittel für eine halbe Umdrehung erforderlich ist.

Bei Aluminiumscheiben befindet sich die Magnetschicht von etwa 15 nm Dicke direkt auf dem Aluminium. Kommen Glasscheiben zum Einsatz, ist noch eine Zwischenschicht erforderlich. Über der Magnetschicht liegt ein Überzug (zirka 2 bis 5 nm) sowie eine Gleitschicht (0,5 bis 1,5 nm). Die Oberflächenrauheit sollte dabei nicht mehr als 0,2 bis 0,3 nm betragen. Bei heutigen Festplatten liegt diese noch etwa doppelt so hoch.

Montage und Oberfläche

Eine weitere Herausforderung bei hohen Drehzahlen und den geringen Flughöhen der Köpfe ist die Montage der Scheiben auf die Motorachse. Jede eintretende Verformung führt zu Unwucht und zu einer möglichen Kopf-Platte-Berührung, die wiederum zu einem Head-Crash führt.

Zudem muss die Oberfläche der Scheiben besonders eben sein, da Höhenunterschiede die Aerodynamik zwischen Kopf und Scheibenoberfläche beeinträchtigen. Allerdings durfte bisher die Oberfläche nicht ganz glatt sein. Sie wurde texturiert, das heißt gezielt aufgeraut, und zwar unterschiedlich für den Datenbereich und für die Landezone. Bei zu glatter Oberfläche würden die Köpfe in der Landezone auf Grund der Adhäsion an der Oberfläche "kleben". Der Motor könnte dann nicht anlaufen. Heute beherrschen die Hersteller die Technik mit glatten Oberflächen, die nur noch eine Rauheit etwa in der Dicke eines Atoms aufweisen.

Bei den geringen Flughöhen der Köpfe von etwa 25 nm ist die Stoßsicherung des Laufwerks beim Transport und im Betrieb besonders wichtig. Infolge von Stößen oder Vibrationen können zum Beispiel winzige Teilchen im Inneren des Laufwerks abbrechen. Bei der geringsten Berührung am MR- oder GMR-Kopf erwärmt sich dieser. Dadurch entsteht eine besonders große und langdauernde Widerstands- und somit Signaländerung im Lesekanal. Eine derartige Störung kann die Elektronik nicht mehr korrigieren.

Die Köpfe werden im Bereich nahe der Drehachse geparkt. Sie landen bei niedrigen Drehzahlen sanft auf der Oberfläche. Außerdem wird der Kopfarm automatisch blockiert, wenn der Strom abgeschaltet ist. Damit wird er gegen mechanische Beschädigungen beim Transport gesichert.

IBM und andere Hersteller nutzen heute bei einigen Modellen eine Rampe, die im ausgeschalteten Zustand als sicherer mechanischer Ankerplatz für die Kopfarme dient. Die Köpfe und der Kopfarm werden dabei über den äußeren Plattenrand hinaus auf die Rampe positioniert und dort festgehalten. So wird ein Head-Crash im Ruhezustand grundsätzlich vermieden.

Geräusche vermindern

Bei den hohen Drehzahlen gelten die Lager als besonders kritische Bauteile. Es gibt verschiedene Ansätze, das Problem zu lösen. Seagate verwendet bei einigen Modellen einen Motor mit einem Lager in FDB -Technik, und zwar bereits in der dritten Generation seit 1996. Dadurch werden die Laufgeräusche und Vibrationen reduziert und die Lebensdauer sowie die Stoßfestigkeit erhöht. Kugellager mit Metall- oder Keramikkugeln sind preisgünstiger als Flüssigkeitslager, aber lauter - insbesondere mit Metallkugeln, da diese nie ideal rund sind.

Mit der Optimierung von Suchalgorithmen versuchen die Hersteller, die deutlich lauteren Geräusche bei Kopfbewegungen zu reduzieren. Durch dieses Akustik-Management sollen die Kopfarme so auf "sanfte" Bewegungsabläufe programmiert werden.

Ein intelligenter Suchalgorithmus verkürzt auch die effektiven Zugriffs- und Latenzzeiten. Gehen viele Lese- oder Schreibanforderungen ein, dann wird von der internen Software ermittelt, welche Kopfbewegungen mit dem geringsten Zeitaufwand ausgeführt werden können. Früher waren feste Sequenzen üblich. Da gab es Paternoster-Bewegungen (erst sämtliche Bewegungen zum Beispiel von außen nach innen und dann wieder zurück) oder Butterfly-Sequenzen, das heißt, abwechselnd die nächste angeforderte Spur rechts und dann die nächste links vom Ausgangsort anfahren. Weniger und kürzere Bewegungsvorgänge verringern den Strombedarf und damit die Wärmeentwicklung. Auch ist auf diese Weise ein niedrigerer Geräuschpegel garantiert.

Die Datenrate zwischen Medium und dem ersten Pufferspeicher beträgt heute zwischen 500 und 800 MBit/s, entsprechend einem tatsächlichen Bitstrom von mehr als einer Milliarde Bits je Sekunde. An der Schnittstelle nach außen können Daten mit etwa 100 MByte/s (UltraDMA/100, 1000er Basis) bis 320 MByte/s (Ultra320-SCSI) übertragen werden. Die mittlere Zugriffszeit auf die Daten beträgt zirka 3,5 bis 10 ms. Diese sind als Mittelwert zusammengesetzt aus Zeiten für den Spurwechsel und für die durchschnittliche Wartezeit innerhalb der Spur.

Das Laufwerk puffert die Daten vom Rechner zunächst, um diese dann so schnell wie möglich auf die Platte zu schreiben. Beim Lesen werden üblicherweise mehr Daten gelesen als angefordert wurden. Denn es ist anzunehmen, dass benachbarte Daten nach kurzer Zeit ebenfalls benötigt werden.

Ist der Kopf beim Lesevorgang auf der gewünschten Spur angekommen, beginnt er sofort mit dem Lesen, auch wenn der gewünschte Sektor innerhalb der Spur noch nicht erreicht wurde. Die gelesenen Daten landen zunächst im Cache und werden dann in der richtigen Reihenfolge auf den Bus geschrieben. So vermeiden die Hersteller die Wartezeit für eine ganze Umdrehung, wenn zudem Daten auf der gleichen Spur benötigt werden, die jedoch in Bewegungsrichtung vor dem zunächst angeforderten Sektor liegen.

Die großen Speichermengen auf den Festplatten müssen verwaltet werden. Dazu gehören Zugriffsmethoden und -optimierungen, Suchwegoptimierung, intelligente Verwaltung des Pufferspeichers, die Kommunikation über E-IDE-, SCSI- oder Fibre-Channel-Schnittstellen.

Die Verteilung der Kapazität des Cache auf Lesen und Schreiben sowie das Vorauslesen passt die Elektronik bedarfsgerecht im laufenden Betrieb ständig an. Die Größen der Pufferspeicher liegen inzwischen für Standardfestplatten bei 512 KByte, schneller drehenden Platten kommen mit 2 MByte. Highend-SCSI-Geräte sind mit bis zu 16 MByte großen Cache-Speichern ausgestattet.

Das früher übliche Interleave wird nicht mehr benötigt beziehungsweise auf 1:1 gesetzt. Heute kann die Elektronik schnell genug zwischen den Sektoren umschalten und sofort weiter Daten lesen oder schreiben. Früher mussten auf Grund der langen Umschaltzeiten zwangsweise ein oder mehrere Folgesektoren übersprungen werden, bis die Elektronik umgeschaltet hatte. Für die Block- oder Sektor- und Spuradressen setzen manche Hersteller den so genannten Grey-Code ein. Bei diesem Code wechselt immer nur ein Bit bei einer sequenziellen Adressänderung. Damit wird ein kurzzeitiger Stromanstieg vermieden, wie er im Binärcode beim Wechsel von 7 (0111) auf 8 (1000) auftritt. In diesem Fall wechseln alle vier Bits gleichzeitig.

Sämtliche modernen Laufwerke sind in der Lage, fehlerhafte Sektoren automatisch auszublenden und Ersatzsektoren bereitzustellen. Die Fehlerkorrektur kann normalerweise Büschelfehler über etwa 200 bis 300 Bit hinweg im laufenden Betrieb korrigieren.

Moderne Laufwerke verwenden die so genannte SMART -Technik für die Fehleranalyse und -behebung sowie für Rückmeldungen an das Betriebssystem. Diese Technik wurde von Compaq eingeführt. Heute verwenden alle Hersteller sie. Beim Schrankeinbau und in RAID -Systemen benutzt man auch noch die SCSI Enclosure Services (SES). Dabei werden hauptsächlich Umweltparameter wie Temperatur, Feuchte, Lüfterdrehzahl oder Laufwerksausfall über den SCSI- oder FC-Kanal an das Betriebssystem gemeldet. SES ist Teil eines ANSI-Standards. Die Firmware im Laufwerk kann meistens über die Schnittstelle geladen oder erneuert werden. So sind auch Parameter wie beispielsweise Blockgröße oder Fehlerstrategie dynamisch zu ändern.

Die Geschwindigkeit der Kopfbewegung wird entsprechend der Differenz zwischen dem Ausgangs- und dem Zielort automatisch angepasst (just-in-time seek). Es wird also Strom gespart, wenn die Bewegung lediglich so schnell erfolgt, dass der Kopf gerade noch rechtzeitig über dem gewünschten Zielpunkt (Spur/Sektor) zum Halten kommt.

Insgesamt sind moderne Festplatten nicht nur kleiner und bieten höhere Kapazitäten, sie sind auch zuverlässiger. Heute sind MTBF s von 1,2 Million Stunden üblich. Dies entspricht einem mehr als 100 Jahre andauernden Betrieb, ohne dass ein Fehler auftritt. Einen gesonderten Artikel zum Thema Zuverlässigkeit von Festplatten finden Sie hier.

Vor drei Jahren hat der Disk-Hersteller Komag mit einer preisgünstigen Scheibe aus Glas (LCG = Low Cost Glass Substrate) einen neuen Anlauf mit dieser Technik unternommen. Dabei wurden Datendichten von 50 GBit/sqinch mit Köpfen von Read-Rite geschrieben und gelesen. Diese Flächendichte erreichte man mit einer Spurdichte von knapp 91.000 tpi bei einer linearen Bitdichte von etwa 552 KByte/sqinch. Komag rechnete damit, dass mit dieser Technik eine Flächendichte bis 100 Gbit/sqinch möglich ist. Dies ist bereits 2002 eingetroffen. Fernziel ist es, eine Flächendichte von 1 Tbit/sqinch zu erreichen. Das müsste aus heutiger Sicht bei einer Spurdichte von 200.000 Spuren/cm (500.000 tpi) und 800.000 Bit/cm (2.000.000 bpi) der Fall sein. Die Flughöhe der Köpfe sollte dann nur 5 nm betragen.

Bei der GMR-Technik sollen "tunneling GMR" oder "spin-dependent tunneling GMR" weitere Verbesserungen bringen. Dazu werden andere Lagen in dem Multilayer-Kopf eingesetzt.

Aus der Form der magnetischen Bitzellen, breit und kurz in Bewegungsrichtung (Verhältnis etwa 8:1), ist ersichtlich, dass bei der Spurbreite und dem Spurabstand noch erhebliche Verbesserungen möglich sein müssten. Dabei könnten optische statt magnetische Servospuren für die präzisere Spurführung zum Einsatz kommen. Werden die magnetischen Zellen senkrecht gestellt, dann passen mehr davon in eine gegebene Fläche. Seit vielen Jahren wird an "vertical recording" geforscht, jetzt scheint es deutliche Fortschritte bei dieser Technik zu geben. Bei schräg gestellten Magnetbits ist die benötigte Schreibenergie im Vergleich zu senkrechten um bis zu 50 Prozent geringer. Dadurch und mit HAMR-Unterstützung lassen sich die hart-magnetischen Materialien mit vertretbarem Aufwand beschreiben.

Die Kopfpositionierung über einen langen Arm wird in Zukunft nicht mehr genau genug sein. Daher sollen am Kopfarm-Ende in der Nähe der Köpfe Mikro-Aktuatoren für die Verbesserung der Feinpositionierung eingesetzt werden. Das könnten dann auch MEMS (Micro Electro Mechanical Systems) sein. Aktive Dämpfung, also die programmierte Anpassung der Kopfbewegungsgeschwindigkeit und Gegensteuerung sollen für leisere und genauere Positionierung sorgen. Positioniersysteme für 100.000 tpi sind bereits seit einiger Zeit verfügbar.

Die Versuche, die Flughöhe auf 3,5 nm zu reduzieren, laufen weiter, da dies wohl für das Ziel 1 Tbit/sqinch erforderlich sein wird. Die Deck- und Gleitschichten auf der Platte und auf dem Kopf dürfen dann nur noch etwa 1 nm dick sein.

Die Hersteller sind zuversichtlich, dass Kapazitätssteigerungen auch über die nächsten Jahre weiterhin möglich sind. Sehr oft wird das superparamagnetische Limit als Grenze für die Flächendichte genannt. Werden die Bitzellen immer kleiner, dann stehen nur noch wenige magnetische Partikel zur Verfügung. Durch die thermodynamische Bewegung verlieren im Laufe der Zeit einige Partikel spontan ihre magnetische Orientierung und das Bit löst sich selbst auf. Diesen Effekt gibt es bei jeder Bitzellengröße. Auf Grund der bisher zahlreich vorhandenen Magnetpartikel je Bitzelle würde dies aber Tausende von Jahren dauern.

Durch Materialauswahl, Herstellungsverfahren und andere physikalische Effekte wurde diese Grenze der Selbstauflösung immer wieder hinausgeschoben. Inzwischen gibt es Erkenntnisse, dass zum Beispiel durch Selbstorganisation der Materieteilchen (SOMA) diese vermeintliche Grenze zu überwinden ist. Einige dieser Technologien müssen in wenigen Jahren Serienreife erlangen, da mit der heutigen Technik die Erreichung der physikalischen Grenze absehbar ist. Für die horizontale und longitudinale Aufzeichnung steht diese Grenze bei etwa 100 bis 200 Gbit/sqinch an.

Es wird zudem daran gearbeitet, in Zukunft möglichst viel Intelligenz in die Laufwerke zu integrieren. Objektorientierte Laufwerke sollen selbstständig das Inhaltsverzeichnis verwalten. Das Betriebssystem im Rechner könnte dadurch entlastet werden. Die Normierung dazu erfolgt im ANSI/SCSI-Komitee.

Neben Festplatten gibt es auch Wechselplatten für kleinere Kapazitäten. Die Datenscheibe kann bei dieser Art von Datenspeicher zum Transport, zur Datensicherung oder zum Archivieren verwendet werden. Halbleiterspeicher, die wie Festplatten angesteuert werden, dienen zur Beschleunigung von Transaktionen beispielsweise in Flugreservierungssystemen.

In dem Versuch, höhere Speicherdichten zu erreichen, wurde schon öfter über optische Plattenlaufwerke als Ersatz für magnetische Festplatten nachgedacht. Bisher sind aber mit magnetischen Techniken höhere Dichten preiswerter zu erreichen. Darüber hinaus sind optische Medien zu langsam beim Zugriff und bei der Übertragung der Daten. Auf optischen Medien werden stoffliche Veränderungen (amorphe und kristalline Zustände wie bei einer CD-RW) genutzt, die unterschiedliche Reflexionswerte zur Folge haben. Diese reversiblen Zustandsänderungen dauern deutlich länger als eine Ummagnetisierung der Bit-Zellen auf einem magnetischen Medium.

Viel versprechend, aber noch lange nicht marktreif sind Bemühungen, holografische Effekte für die Speicherung zu nutzen. Damit könnte die Speicherdichte bei dreidimensionaler Speicherung erheblich erhöht werden. Festplatten sollen damit bis zu 1024 GByte auf einer Scheibe fassen.

Steckbrief

Hermann Strass

Der Autor Hermann Strass ist Berater für neue Technologien, insbesondere für Bus-Architekturen, Massenspeicher und industrielle Netzwerke, Mitglied in nationalen und internationalen Normungsgremien, in der IEEE Computer Society sowie Technical Coordinator der VITA in Europa. Daneben ist er Autor von Büchern und Fachartikeln und organisiert Seminare.

tecchannel-Compact "ITechnologie-Ratgeber 2004"

tecChannel.de ist die Nummer eins der Online-Fachmedien in Deutschland (IVW 1/04). Auf www.tecChannel.de finden Sie mehr als 1.700 Beiträge und über 14.000 News zu allen Themen der IT. Das kostenlose Online-Programm wird ergänzt durch das noch umfangreichere kostenpflichtige tecCHANNEL-Premium- und die tecCHANNEL-Compact-Buchreihe.

Im neuen tecCHANNEL-Compact "ITechnologie-Ratgeber 2004" finden professionelle Anwender auf über 220 Seiten Grundlagen, Know-how-, Ratgeber- und Praxisbeiträge.

Insbesondere im Server-, Desktop- und Mobile-Bereich steht ein Generationswechsel bevor. Die Einführung von PCI Express und neuen CPUs, wie Pentium 4 "Prescott" und Pentium M "Centrino", 64-Bit-Computing, sowie der DDR2-Speichertechnologie und Serial Attached SCSI verunsichert die IT-Branche. Die tecCHANNEL-Redaktion beantwortet die Fragen, welche Technologien zukunftssicher sind und die bevorstehenden Investitionen schützen und was beim Umstieg zu beachten ist.

Die Ausgabe ist ab sofort im Handel zu haben oder direkt im Online-Shop unter www.tecChannel.de/shop für 9,90 Euro (gegen Rechnung) inklusive Versandkosten zu bestellen.

Zur Startseite