Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

11.01.1991 - 

Überwachte Zentrierung der Schreib- und Leseköpfe

Mit Micropositioning optimal in der Festplatten-Spur halten

Die "Harddisk" läßt sich immer noch verbessern. Größere Kapazität auf weniger Platz und ständig steigende Übertragungsraten sind das Ergebnis. Verschiedene Techniken, den Schreib- und Lesekopf auch bei sehr eng zusammenliegenden Datenspuren immer in der optimalen Position zu halten, beschreibt dieser Beitrag von Helmut Reidl.

Ein Laufwerk mit einem viele GB fassenden Speicher, das nicht größer als eine Streichholzschachtel ist - das ist der Traum jedes Systemdesigners. Zugegeben, bis dieser Traum in Erfüllung geht, wird es noch eine Weile dauern. Die Optimierung der Harddisk machte in den letzten Jahren jedoch Fortschritte, an die selbst Alan Shugart, einer ihrer Erfinder, nie gedacht hätte. Sein Kommentar hierzu: "Wenn uns jemand 1957, als ich in der Computerindustrie anfing, diese Trends vorausgesagt hätte, wir hätten ihn für verrückt erklärt."

Allerdings erfordern sowohl die Steigerung der Kapazität als auch die Miniaturisierung der Laufwerke eine engere Datendichte auf der Oberfläche der Speicherplatten. Dies hat zur Folge, daß die Datenspuren immer dichter nebeneinanderliegen müssen. Die Dichte führt zu ständig steigenden Anforderungen an die Genauigkeit der Laufwerksmechanik. Wenn auf den hochempfindlichen Oberflächen moderner Datenträger 2000 Spuren pro Zoll und mehr geschrieben werden, führen geringste Abweichungen des Schreib- und Lesekopfes von der Spurmitte, "Off-Track" genannt, zu Datenfehlern und im schlimmsten Fall zu Datenverlust. Bei sehr eng liegenden Spuren können harte mechanische Stöße oder Veränderungen aufgrund thermischer Ausdehnungen selbst bei hochwertigen Head-Disc-Assemblies (HDA) zu "Fixed-Off-Track"-Situationen führen. Aber auch im Normalbetrieb des Festplattenlaufwerks treten immer wieder Spurabweichungen auf. Der Grund: Überall, wo sich etwas bewegt, entsteht Reibung und damit Wärme. Da die Platten eines Laufwerks, der Zugriffsarm und die Schreib- und Leseköpfe unterschiedliche thermische Ausdehnungskoeffizienten haben, kann Erwärmung in der HDA die Ursache für ein "Off-Track" der Köpfe sein.

In welchem Bereich sich diese Abweichung bewegt, soll ein Beispiel verdeutlichen: Ein Blatt Schreibmaschinenpapier müßte in weitere 50 Blatt "gespalten" werden; dann erst ergäbe die "Dicke" eines so entstandenen Blattes den Toleranzbereich, in dem der Schreib- und Lesekopf abweichen darf. Thermisch bedingte Abweichungen gehen aber meist über diesen Toleranzbereich hinaus. Deshalb muß bei modernen Hochleistungslaufwerken die Position der einzelnen Datenarme ständig überprüft und gegebenenfalls korrigiert werden.

Zur Kopfkorrektur setzen die Laufwerkhersteller verschiedene Verfahren ein. Bei der "Offset-Store"-Methode greift das Laufwerk in regelmäßigen Abständen - beispielsweise alle zehn bis 20 Minuten - auf einen bestimmten Plattenabschnitt zu und liest spezielle Positionierungsinformationen, aus denen dann der zur Rückpositionierung der Schreib- und Leseköpfe notwendige Offset-Korrekturwert berechnet werden kann. Wenn im Normalbetrieb, ein anderer Lesekopf innerhalb eines Zylinders angesprochen werden soll, muß das System den gespeicherten Korrekturwert für den gewünschten Kopf nachprüfen. Um einen bestimmten Kopf auf die Spur zurückzusetzen, wird durch ein Offsetkommando der ganze Zugriffsarm bewegt. Während der Korrektur von Off-Track-Köpfen verlängert dieses Offset-Kommando die Schaltzeit der Köpfe innerhalb eines Zylinders um einige Millisekunden. Ein Umstand, der Anwendern, die für Grafik, Bildverarbeitung und zeitkritische, wissenschaftliche Programme hohe Datenübertragungsraten brauchen, eine deutliche Leistungsminderung bringen kann.

So zeigte beispielsweise die Simulation einer Grafikanwendung auf einem Sabre-2500-Laufwerk mit den Leistungsattributen eines Offset-Store-Systems, daß diese Methode die I/Os pro Sekunde um 30 Prozent senken würde. Hierzu kommt ein weiteres Handikap: Ein Offset-Store-System kann pro Justierung nur einen Schreib- und Lesekopf einstellen. Da der ganze Zugriffsarm bei der Einstellung eines Kopfes bewegt wird, können die anderen Köpfe ins "Off-Track" geraten.

Ein anderes Positionierungsverfahren - das eingebettete Servo-System (Embedded Servo-System - ESS) - bewegt ebenfalls den ganzen Zugriffsarm. Es zeichnet Servo-Positionierungsinformationen in regelmäßigen Abständen in jeder Datenspur auf, daher sein Name "eingebettet". Hierdurch kann jeder Schreib- und Lesekopf als eigenständiger Servo-Head arbeiten, wobei das Servo-System alle durch mechanische oder thermische Wirkung verursachten Off-Track-Effekte ausgleicht. Diese Technik hat zwar geringere "Suchzeiten", dafür aber Probleme mit dem Overhead. Da die Servo-Informationen auf jeder Spur in festen Positionen aufgezeichnet werden, sind Anzahl und Größe der Datensektoren stark limitiert.

Leistungseinschränkungen treten auch dann auf, wenn die schnelle Übertragung einer größeren Datenmenge erwünscht ist. Da jeder Schreib- und Lesekopf als eigenständiger Servo-Head arbeitet, muß bei jedem Kopfwechsel innerhalb eines Zylinders ein "Mini-Such"-Vorgang durchgeführt werden, um den selektierten Kopf korrekt zu positionieren. Auch beim ESS konnte in der Simulation eine Leistungsverschlechterung der I/O-Rate gemessen werden. Wie beim Offset-Store-System lag sie bei zirka 30 Prozent. Beide Justiermethoden haben darüber hinaus noch einen entscheidenden Nachteil: Sie können nur einen Kopf der selektierten Gruppe einstellen. Das kostet wertvolle Zeit und macht außerdem den Einsatz bei Parallel-Head-Drives unmöglich. Wenn alle Schreib- und Leseköpfe parallel arbeiten, müssen auch alle "On-Track" sein.

Will man durch Ausdehnung entstandene Abweichungen rückgängig machen, kann man außer der Möglichkeit, den Datenarm gezielt nachzuführen, außerdem die Gesetze der Thermik nutzen, das heißt gezielt abkühlen oder erwärmen. Wärme im richtigen Maß abzuführen ist allerdings erheblich schwieriger, als durch zusätzliche Wärmezufuhr die Dejustierung aufzuheben. Dabei genügt es selbstverständlich nicht, den Arm einfach nur zu "heizen". Bei dem "Micropositioning"-Verfahren wird an bestimmten Punkten die geeignete Menge Wärme zugeführt. Durch das Erhitzen dehnt sich die entsprechende Seite des Datenarms leicht aus, und der Arm wird um jene Millionstel Millimeter abgelenkt, die zur Korrektur des Schreib- und Lesekopfes notwendig sind. Die dafür benötigte elektrische Leistung ist relativ klein. Da jeder Datenarm zwei Heads besitzt, die eventuell unterschiedliche Einstellungen benötigen, wird automatisch eine Durchschnittskorrektur durchgeführt.

Der physikalische Ablauf dieser Positionierung muß ständig überwacht und gesteuert werden. Das übernimmt das "Closed-Loop-Micropositioning-System". Es besteht aus einem Hochgeschwindigkeits-Digital-Signal-Prozessor (DSP) und einem normalen VLSI-Gate-Array. Das System wählt einen Schreib- und Lesekopf und stellt fest, ob eine Korrektur der Kopf-Position erforderlich ist. Die richtige Position des Schreib- und Lesekopfes wird durch das Lesen eines speziellen Datenmusters ermittelt, das auf jede Plattenseite geschrieben ist. Dieses Datenmuster versorgt das Closed-Loop-System ständig mit Rückmeldungen. Es ist für den Anwender nicht lesbar und kann deshalb nicht versehentlich überschrieben werden. Auch ein durch Erschütterungen dejustierter Datenarm kann - in bestimmten Grenzen - mit dieser Technik wieder auf den "rechten Weg" gebracht werden.

Im Gegensatz zu anderen Positionierungstechnologien viele Hersteller verwenden beispielsweise eingebettete Servo- und Offset-Methoden - hat Micropositioning keine negativen Auswirkungen auf die Datenrate des Laufwerks. Weder Zugriff noch Kopfwechsel dauern länger, so daß die hohe Datenrate des Laufwerks erhalten bleibt. Ein weiterer Vorteil dieses Verfahrens ist die Möglichkeit, es auch in Hochleistungslaufwerken mit Parallel-Kopf-Technik einzusetzen. Da "Micropositioning" nur den einzelnen Datenarm justiert, ohne den ganzen Zugriffsarm zu bewegen, können alle Datenarme immer optimal "auf der Spur" gehalten werden.